Archivo del Autor: Tomás Rosich

Acerca de Tomás Rosich

From Spain. Physicist. Lover of music, of science diffusion and life.

The Automatic Gain Control: topology, behavior and use (I)

One of the most common topologies in electronic design is the Automatic Gain Control (AGC). In this post we will study what is its operating modes, its basic topology and its most common use. We will also make to its simulation in MatLab, using SIMULINK, understanding better its behavior.


One of the most common blocks in an electronic system is the linear amplifier. This is a device where the output signal is directly proportional to the input. As the output level is greater than the input, the block increase the signal level, then it is an amplification. If the output level was lower than the input level, then we would speak of a level reduction or attenuation.

The linear amplifiers usually have a fixed gain, which is the proportionality constant between the input and the output signals, and a variable gain, where this ratio can be controlled an external control voltage vc.

v_{out}(t)=g v_{in}(t)
v_{out}(t)=g(v_c(t)) v_{in}(t)

This voltage is a variable that also depends on time, although under conditions of free control, done by the user, once the control value is chosen, this variable becomes stationary with time and the amplifier becomes fixed gain.

However, the input signals may have oscillations due to the propagation channel, and increase or decrease in value as a function of time. If the amplifier has a fixed gain, the output will follow lineary the input variations.

In general, conventional amplifiers usually have a fixed gain with an external regulation that can be controlled by the user. However, within communication systems there may be cases in which it is always necessary to ensure that the output takes a fixed value. And for this it is needed to use an Automatic Gain Control (AGC).


The AGC is a feedback system, which uses the output variable, taking a sample, and processes it properly generating a control voltage vc(t) that varies the output level, keeping it fixed against the input variations.

The typical AGC block diagram can be seen in the following figure

Fig. 1 – Block diagram for an AGC

It consists of a variable voltage amplifier, which is expressed by the formula seen in the previous section, an envelope detector, because the amplitude of the signal vout contains the information of the variation of the input signal, since vout is proportional a vin, a comparator, which compares the detected signal with a reference signal vref, which is the one that will govern the appropriate output level in vout and an integrating filter, which provides the control variable.

By varying vin at time t0, the VGA is in a steady state, behaving like a linear gain amplifier. This causes a variation in the output signal vout that follows the input vin. This variation is detected by the envelope detector, causing a change in the comparator output, which, when integrated, modifies the value of vc, adapting it so that vout is corrected and starts to match the value before the change.

It is a dynamic process: the vin and vout signals vary temporarily but keeping a stationary envelope level. For example, a pure sine wave has a constant envelope varying in [-1, 1] intervale

Fig. 2 – Sinewave

When a change in the envelope is detected at a certain time, the peak value of the amplitude changes and is detected by the detector, which initiates a temporary feedback process that does not affect the waveform, but does affect its amplitude.

Fig.3 – Change in the sinewave amplitude


Returning to the system in Fig. 1, where the VGA has a gain represented by the expression

g(v_c(t))=g_o e^{-\alpha v_c(t)}

In this expression the temporal domain is removed, because at this moment we are not interested in the temporal variation of vc, since if there is no variation in vin, vc remains stationary.

The input signal is the next

v_{in}(t)=a \sin({\omega}t+{\theta})

and the output signal is

v_{out}(t)=g_o a e^{-\alpha \cdot v_c(t)} \sin({\omega}t+{\theta})

This signal will pass through the envelope detector, the output of which is a signal that is proportional to the amplitude of the input signal, where k is the proportionality constant. Therefore, the output signal of the envelope detector will be

v_e=k  g_o a e^{-\alpha v_c(t)}

This signal is passed through a logarithmic amplifier, since the dependence of vE on vc is exponential. Since the base is natural, we choose the natural logarithm as the logarithmic amplifier, and we can get an output voltage v2 whose expression is

v_2=-{\alpha}  v_c+\log(k  g_o a)

In this expression we can verify that k and g0 are constant values, and that a and vc are the ones that can vary with respect to time. If we now include the temporal variation of a, we will have that the expression is

v_2=-{\alpha}  v_c(t)+\log(k g_o a(t))

Therefore a variation of a is compensated by a variation of vc so that v2 returns to the value before the change in a.

Making the comparison between the voltage v2(t) and vR, which is a fixed value and that will fix the output level on the amplifier, we have a signal v1 that has the following expression

v_1 = - {\ alpha} v_c (t) + \ log (k g_o a (t) e ^ {- v_R})

This signal is passed through a low-pass filter that integrates it, getting vC(t). If the filter has a transfer function h(t), what we do is a convolution of the signal v1 with h(t)


And then

v_1(t)+{\alpha} h(t)*v_1(t)=\log(k g_o a(t) e^{-v_R})

In the temporal domain, convolution is a dynamic integral equation, so if we use the Laplace domain, we will transform that convolutional response to a response in the domain of the complex variable s, which is linear. Using this domain, the equation above is now

V_1 (s) + {\alpha} H (s) V_1 (s) = \mathcal {L} [\log (k g_o a (t) e ^ {- v_R})]

which is the Laplace transform. Studying the value of V1(s) if the output has a value an amplitude b

v_ {out} (t) = b \sin ({\omega} t + {\theta})

removing the dependency with k and with g0. Thus, making the same steps as in the previous case, we will have to

v_1 (t) = \log (b (t) e ^ {- v_R})

V_1 (s) = \mathcal {L} [\log (b (t) e ^ {- v_R})]

(1 + {\alpha} H (s)) \mathcal {L} [\log (b (t) e ^ {- v_R})] = \mathcal {L} [\log (k g_o a (t ) e ^ {- v_R})]

\dfrac {\mathcal {L} [\log (b (t) e ^ {- v_R})]} {\mathcal {L} [\log (k g_o a (t) e ^ {- v_R}) ]} = \dfrac {1} {1 + {\alpha} H (s)}

The first term is the quotient of two functions, one of them depends on the output amplitude and the other depends on the input amplitude. If we choose k · g0 = 1, we will get

\dfrac {\mathcal{L}[\log(b(t) e^{-v_R})]}{\mathcal{L}[\log(a(t) e^{-v_R})]}=\dfrac {\mathcal{L}[\log(b(t))]}{\mathcal{L}[\log(a(t)]}=\dfrac {1}{1+{\alpha} H(s)}

And being y(t) and x(t) voltage values, we can apply the dB definition, which is

b_{dB}(t)=20 \log_{10}(b(t))

a_{dB}(t)=20 \log_{10}(a(t))

and then

\dfrac {\mathcal{L}[\log(b(t) e^{-v_R})]}{\mathcal{L}[\log(a(t) e^{-v_R})]}=\dfrac {\mathcal{L}[b_{dB}(t)]}{\mathcal{L}[a_{dB}(t)]}=\dfrac {B_{dB}(s)}{A_{dB}(s)}

removing the temporary domain and turning the system into a totally linear system. Then we will have to

\dfrac {B_{dB}}{A_{dB}}=\dfrac {1}{1+{\alpha} H(s)}

being the transfer function in dB of the variation between the output and input amplitudes.

If the filter used is an integrating filter with a pole at the origin (low-pass filter), like this

H(s)= \dfrac {C}{s}

the expression will be

\dfrac {B_{dB}}{A_{dB}}=\dfrac {1}{1+{\alpha} C}

Now suppose that the input envelope AdB changes 1 dB, increasing or decreasing. The new envelope is A’dB(s), and the output envelope, B’dB(s). Then:

{A'}_{dB}(s)=A_{dB}(s) \pm 1

And having

\dfrac {B_{dB}}{A_{dB}}=\dfrac {{B'}_{dB}}{{A'}_{dB}}=\dfrac {1}{1+{\alpha} C}

since feedback must always respond in the same way. Substituting the expression for the input variation in the previous expression we have

\dfrac {B_{dB}}{A_{dB}}=\dfrac {{B'}_{dB}}{A_{dB}(s) \pm 1}=\dfrac {1}{1+{\alpha} C}

Se we can calculate B’dB(s) multiplying by the transfer function

{B'}_{dB}(s)=\dfrac {s}{s+{\alpha} \cdot C} \cdot A_{dB}(s) \pm \dfrac {s}{s+{\alpha} C}

And knowing that the first term is BdB(s), the expression will be the next

{B'}_{dB}(s)-B_{dB}(s)=\pm \dfrac {s}{s+{\alpha} C}=\pm 1 \mp \dfrac {{\alpha} C}{s+{\alpha} C}

The above equation links the new envelope B’dB(s) with the former BdB(s). And being a transient response, applying the inverse transformation it is got

{B'}_{dB}(t)-B_{dB}(t)=\pm {\delta}(t) \mp {{\alpha} C e^{-{\alpha} C t}}

Lt’s study this result: When 1 dB (instant t=0) is increased, the expresion is b’dB(t)–bdB(t)=+δ(t)=+1, because at t=0 the filter h(t) has not worked yet. Therefore, at this time the difference between the new and the initial envelope is 1 dB. When t is increasing, there is an decreasing exponential response due to the second term of the previous expression, ans when the time is increasing more, the difference between b’dB(t) and bdB(t) is decreasing (inicially b’dB(t)>bdB(t)) until both are equal.

Conversely, decreasing the input envelope 1dB, then b’dB(t)–bdB(t)=-δ(t)=-1, and the final envelope decreases this value for the same reason, and the operation is the inverse of the previous case.

From this it follows that when the input envelope rises or falls 1 dB, the output envelope, at the initial moment, tends to rise or fall following the variation of the input envelope, but when time passes, the output envelope stabilizes until it reaches the initial value ydB(t).

The AGC time response is α·C/e es τ=1/α·C, which is a constant time. When this constant is high, the AGC changes slowly, but being low, the AGC changes fastly. A compromise with the AGC response time is required in signals that also contain nominal variations for their content, such as analogue audio or video signals, so as not to confuse a level variation with a variation of that content.


In this entry we have been able to verify what is the theoretical behavior of the AGC block diagram, studying its response in the Laplace domain and in the temporal domain. We have reached a transfer relationship that allows us to relate the variations of the output signal to the input signal and how we can calculate the AGC response time, which we will have to include through the integrating filter and the study of the variation constant of the amplifier gain.

In the next post we will study this system using SIMULINK.


  1. Benjamin C. Kuo; “Automatic Control Systems”; 2nd ed.; Englewood Cliffs, NJ; Prentice Hall; 1975
  2. Pere Matí i Puig; “Subsistemas de radiocomunicaciones analógicos”;Universitat Oberta de Catalunya;2010

La simulación multifísica en la moderna ingeniería

La ingeniería moderna ha avanzado mucho, y por ello requiere de herramientas potentes y de métodos analíticos fiables. En la entrada sobre simulación usando el método de los elementos finitos (FEM), analizamos cómo se podían resolver problemas electromagnéticos tridimensionales a través de métodos matemáticos matriciales que resolvían la ecuación de Helmholtz en estructuras complejas. Pero los métodos resolutivos de cálculo estructural han avanzado mucho en estos últimos años, hasta el punto en que hoy día una buena labor de ingeniería no se entiende sin acudir a estas potentes herramientas de computación. Una labor importante de la Física en los últimos años ha sido el poder elaborar modelos físicos que puedan ser evaluados por diferentes métodos de computación, y a través de ellos, resolver problemas. Pero mientras antes sólo se podían resolver problemas puntuales o muy aproximados, en la actualidad y con los medios de computación modernos, se pueden acoplar diferentes formas de fenómenos físicos y lograr resultados espectaculares, impensables hace 20 años.

Como ya sabéis todos, mi mundo dentro de la Física ha sido la simulación. Por este motivo, soy especialista en modelado. Durante años me he dedicado a ello y ya hice una entrada por este motivo. Como en otras entradas he dicho, la Física es la ciencia de la medida: nos dedicamos a medir y a corroborar leyes, y a elaborar modelos que nos permitan calcular con más fiabilidad los fenómenos físicos que antes teníamos que hacer en una pizarra grande, ecuación tras ecuación, hasta llegar al resultado. Así resolvía los problemas de Termodinámica uno de los profesores que tuve en la Facultad de Ciencias, empezando a llenar de cálculos la pizarra desde la esquina superior de la izquierda hasta la esquina inferior de la derecha.

No era posible evaluar complejas ecuaciones integro-diferenciales en esos momentos, salvo por métodos numéricos. La llegada del computador y la creación del lenguaje de programación de alto nivel FORTRAN (que es el acrónimo de FOrmula TRAslation) creado por IBM en 1953 permitió a los físicos, matemáticos e ingenieros disponer de una potente herramienta para poder resolver problemas matemáticos complejos a través de la programación. Con él se podían realizar programas numéricamente intensivos y resolver ecuaciones integro-diferenciales. En el caso de la electrónica, el primer programa de simulación realizado en FORTRAN fue SPICE (Simulation Program with Integrated Circuits Emphasis), que ha llegado a ser tan popular que tiene multitud de programas basados en este primer simulador de Berkeley.

La simulación ha ido avanzando a medida que se generaban más modelos, Estos modelos empezaban a necesitar potentes máquinas para calcular, pero se centraban solamente en su problema concreto. Así, un simulador de transferencia de calor sólo resolvía su física correspondiente. O un simulador electromagnético, las ecuaciones de Maxwell. Y un simulador climático, sólo tenía en cuenta su física manteniendo las variables de entrada fijas y sin que otra física las modificase o perturbase. Así que una vez verificados que los modelos físicos funcionaban y que permitían estimaciones, el siguiente paso fue acoplarlos, puesto que las leyes físicas no actúan de forma aislada, sino que interactúan entre ellas, y no es posible entender un problema físico sin que haya otro que le esté modificando, sobre todo, en los sistemas caóticos. Gracias a esta interacción de los problemas físicos, los modelos se superponen y se puede establecer una correlación entre ambos. De vital importancia son los métodos usados para resolver las complejas ecuaciones integro-diferenciales, que en estructuras sencillas, son relativamente fáciles de resolver, pero que al final se tornan complejas cuando la estructura lo es también. Y ahí es donde trabajan los diferentes métodos de resolución.


Existen varios métodos de resolución de ecuaciones complejas en estructuras complejas. Los más utilizados son, sin duda, el método de los momentos (MoM), el método de los elementos finitos (FEM), el método de los contornos (BEM) y el método de las diferencias finitas en el dominio del tiempo (FDTD). Los más populares son el FEM y el FDTD, aunque todos se basan en lo mismo: tomar una estructura, dividirla en elementos finitos de tipo tetraédrico o hexaédrico, y considerando que las soluciones tienen que ser continuas en los vértices de los elementos, generar un sistema matricial para resolver el problema.

Por tanto, el punto de partida es el mallado, o la generación de la malla que definirá a la geometría. Normalmente conocida como mesh en su palabra original inglesa, la estructura debe ser dividida en diferentes elementos, triangulares o cuadráticos cuando la estructura es bidimensional, y tetraédricos o hexaédricos cuando es tridimensional.

En la figura siguiente se puede ver un ejemplo de mallado de una estructura bidimensional que consta de tres rectángulos y dos círculos. La fiabilidad en los resultados residirá en la calidad del mallado, por tanto, antes de ponerse a simular estructuras, hay que estudiar la malla donde se resolverán las ecuaciones.

Mallado de una estructura bidimensional

Fig. 1 Mallado de una estructura bidimensional

Una estructura tridimensional será más compleja. Recordando la entrada anterior, donde se simulaba un ortomodo, veíamos que la malla se torna en 3 dimensiones.

Fig. 2 Malla en una estructura analizada por elementos finitos

Con la malla ya elegida y optimizada, el siguiente paso es elegir el método de resolución.


El método más popular es el método de los elementos finitos (FEM). Con este método resolvemos las ecuaciones diferenciales que definen una determinada física en un dominio Ω, rodeado por un contorno Γ, como se puede ver en la figura 3. El dominio es mallado mediante triángulos (3-a) y las ecuaciones se resuelven en los vértices del triángulo (3-b)

Fig. 3 Triangulización del dominio y elemento finito

Este problema se resuelve a través de un análisis matricial en el que suponemos que en cada vértice de los triángulos del mallado la solución es lineal, del tipo

u_i \left( x_i, y_i \right) = a + b \cdot x_i + c \cdot y_i

Por tanto se trata de encontrar los coeficientes a, b y c de esa solución lineal. Si usamos notación matricial, entonces tenemos que la solución en cada elemento es

\begin{pmatrix} u_1 \\ u_2 \\ u_3 \end{pmatrix} = \begin{bmatrix} 1 & x_1 & y_1 \\ 1 & x_2 & y_2 \\ 1 & x_3 & y_3 \end{bmatrix} \cdot \begin{pmatrix} a \\ b \\ c \end{pmatrix}

y de este modo podemos extraer la solución global u a través de

u = \begin{pmatrix} 1 & x & y \end{pmatrix}  {\begin{bmatrix} 1 & x_1 & y_1 \\ 1 & x_2 & y_2 \\ 1 & x_3 & y_3 \end{bmatrix}}^{-1} \cdot \begin{pmatrix} u_1 \\ u_2 \\ u_3 \end{pmatrix} 

Una vez tenemos todos los elementos, se realiza un ensamblado de las matrices y de este modo se obtiene la solución final.

Fig. 4 Ensamblado de elementos


En el ejemplo que vamos a estudiar en esta ocasión, analizaremos un cristal piezoeléctrico similar al que analizamos en la entrada Estudio del comportamiento de un material piezoeléctrico (II). En aquella entrada usamos el modelo de Mason para estudiar el comportamiento eléctrico y relacionarlo con el mecánico, mediante un simulador de circuitos. La solución de la impedancia obtenida para este piezoeléctrico era de la forma

Fig. 5 Impedancia del resonador piezoeléctrico

El piezoeléctrico está formado por varias capas: dos electrodos de Molibdeno, que encierran a un piezoeléctrico de Nitruro de Aluminio. En una de las secciones se añaden 4 capas compuestas de Óxido de Silicio y Tungsteno, que forman un reflector de Bragg para las ondas acústicas. De este modo, los dominios a modelar son los que aparecen en la Fig. 6

Fig. 6 Dominios del piezoeléctrico

Sobre estos dominios se hace un mallado, no sin antes conformar una serie de particularidades en los dominios de izquierda y derecha, que consideraremos dominios adaptados.

Fig. 7 Mallado de los dominios

Sobre éste material vamos a resolver varias físicas. Una de ellas es la Mecánica de Sólidos, en la que se resuelven las siguientes ecuaciones diferenciales

-\rho \cdot \omega^2 \cdot u = \vec \nabla \cdot \vec S

para los materiales elásticos lineales como el Molibdeno, el Óxido de Silicio y el Tungsteno. En el dominio del Nitruro de Aluminio se resuelve misma ecuación, pero se añade el desplazamiento eléctrico a través del Teorema de Gauss

\vec \nabla \cdot \vec D =\rho

ya que el piezoeléctrico está relacionado con el campo eléctrico a través de las ecuaciones constitutivas



Esta física se resuelve sobre todos los dominios. Para limitar los resultados, a los contornos se les ponen restricciones: a los contornos de izquierda y derecha se les pone la restricción de desplazamiento nulo, mientras que al superior se le pone la condición asociada a la impedancia acústica del aire (415 Rayl) y al inferior la condición asociada a la impedancia acústica del Silicio (8 MRayl).

Esta física se asocia a la física electrostática, pero en este caso sólo se considera el dominio del piezoeléctrico

Fig. 8 Física electrostática sobre el piezoeléctrico

En este caso, se tiene que resolver


que es la segunda ecuación constitutiva de los piezoeléctricos. A los contornos superior e inferior les aplicamos una diferencia de potencial, y a los contornos laterales, la condición de carga nula. Y de este modo, ya tenemos modelado el dispositivo.


Analizando en frecuencia el dispositivo, se obtiene el siguiente resultado

Fig. 9 Impedancia del piezoeléctrico analizada por FEM

y si comparamos con la Fig. 5, la respuesta obtenida es muy similar a la obtenida mediante el modelo de Mason.

Lo bueno que tiene, además, el análisis multifísico de estructuras es que podemos ver cómo se comporta físicamente el dispositivo, analizando el desplazamiento mecánico del piezoeléctrico cuando se aplica una tensión, que en este caso, es del orden de 5.25 nm sobre la estructura inicial

Fig. 10 Desplazamiento mecánico del piezoeléctrico

Esta simulación a través de elementos finitos se muestra virtualmente más potente que la realizada a partir del modelo de Mason, debido a que el material piezoeléctrico siempre tiene una dependencia espacial de forma tensorial. Sin embargo, en términos de impedancia, el modelo de Mason se ajusta bastante al dispositivo a modelar y es válido para analizar, a priori, el comportamiento de un dispositivo más complejo como un filtro de onda acústica (SAW y BAW) y otros dispositivos como micrófonos, sensores o dispositivos de energy harvesting.


Está claro que la simulación multifísica es una herramienta potente para la ingeniería moderna. El acoplamiento de diversas físicas puede mostrar resultados muy cercanos a la realidad, gracias a los métodos de análisis y a la potencia de computación moderna. Sin embargo, acarrea una dificultad, que es la necesidad de equipos con mucha capacidad de cálculo. En el ejemplo simulado hay 20426 elementos de dominio. Esto significa 20426 triángulos donde hay que ensamblar matrices.

El rango de estas matrices es inferior al del número de elementos, porque en los vértices compartidos tiene que haber continuidad. La calidad del mallado también influirá en el resultado: a mayor mallado, menor serán los errores relativos y más preciso será el cálculo. El inconveniente es la capacidad de computación y la necesidad de memoria, por lo que muchos de estos programas tienen que trabajar en multitarea, compartiendo resolvedores para que la solución sea convergente. También requiere mucho tiempo de computación, por lo que las simulaciones complejas pueden durar varias horas antes de tener un resultado, que puede no ser el apetecido. Sin embargo, es un recurso cada vez más eficaz para resolver problemas complejos. El modelado y la interpretación de resultados, sin embargo, sigue dependiendo de humanos.


  1. Feynman, R; “Simulating Physics with Computers”; International Journal of Theoretical Physics, 1982, Vols. 21, Issue 6-7, pp. 467-488, DOI: 10.1007/BF02650179.
  2. Gibson, Walton C., “The Method of Moments in Electromagnetics”, Segunda Edición, CRC Press, 2014, ISBN: 978-1-4822-3579-1.
  3. Reddy, J.N, “An Introduction to the Finite Element Method”, Segunda Edición,  McGraw-Hill, 1993, ISBN: 0-07-051355-4.
  4. Mason, Warren P., “Electromechanical Transducers and Wave Filters”, Segunda Edición, Van Nostrand Reinhold Inc., 1942, ISBN: 978-0-4420-5164-8.
  5. Dong, S. Shim and Feld, David A., “A General Nonlinear Mason Model of Arbitrary Nonlinearities in a Piezoelectric Film”, IEEE International Ultrasonics Symposium Proceedings, 2010, pp. 295-300.
  6. W.P. Mason, Electromechanical Transducers and Wave Filters”, Princeton NJ, Van Nostrand, 1948
  7. J. F. Rosenbaum, “Bulk Acoustic Wave Theory and Devices”, Artech House, Boston, 1988.
  8. R. Krimholtz, D.A. Leedom, G.L. Mathaei, “New Equivalent Circuit for Elementary Piezoelectric Transducers”, Electron. Lett. 6, pp. 398-399, June 1970.

La importancia de una divulgación seria y contrastada

Ni que decir tiene que la divulgación científica o tecnológica debe de ocupar un lugar importante en nuestra sociedad. Y es tarea de los medios de comunicación ofrecer una información lo más asequible posible a aquellas personas cuya formación técnica no les permite comprender totalmente los hechos descubiertos. Esto, desgraciadamente, no ocurre, buscando un titular sensacionalista y desechando cualquier mínimo rigor en la noticia. En esta entrada vamos a analizar un reciente “paper” publicado en la revista NATURE, cómo lo han tratado los diferentes medios y cómo en realidad tendría que haber sido un análisis riguroso del artículo publicado.

Por mi profesión, tengo que ser consumidor compulsivo de “papers”. Está en mi ADN profesional. Y por ese hecho tengo que estar alerta a las últimas novedades que se puedan dar en el “estado del arte”. Es algo complicado teniendo en cuenta que diariamente se publican cientos de artículos, unos en revistas de impacto y otros en páginas y blogs con menos importancia, además de aquellos que se pueden publicar en revistas y boletines de asociaciones científicas mundiales. El mundo del “paper” científico no es un mundo, precisamente, pequeño.

A veces llegas a un artículo de impacto gracias a los medios de comunicación, gracias a sus secciones técnicas y científicas. Sin embargo, últimamente estas secciones están dejando mucho que desear en cuanto a la presentación del artículo, a su relevancia y a lo más importante, qué representa realmente.

Como mi especialidad es el Electromagnetismo, recientemente he encontrado una serie de noticias con las que, en realidad, no sé qué quedarme. El “paper” en cuestión [1] está escrito por un equipo del MIT (Instituto de Tecnología de Massachusetts, considerado como uno de los centros tecnológicos más prestigiosos del mundo), dirigido por el Prof. Tomás Palacios y en el que han intervenido un nutrido grupo de ingenieros y tecnólogos mundiales.

Este artículo muestra el diseño de una rectena que se puede usar para captar la energía electromagnética presente en la banda de WiFi (2.45 GHz, 5.8 GHz), mediante una antena flexible y un semiconductor de muy bajo perfil. Ante todo, lo que representa el artículo es la posibilidad de hacer antenas flexibles con espesores muy finos, con buena eficiencia, frente a las actuales rectenas usando semiconductores convencionales. En el artículo, los ingenieros han usado un semiconductor basado en el disulfuro de molibdeno (MoS2), un material muy usado en aplicaciones como lubricantes y refinación petrolífera. El hecho de que tenga una banda prohibida entre la banda de conducción y la de valencia hace que este material pueda ser usado en la construcción de dispositivos semiconductores como los diodos.

Sin embargo, el disulfuro de molibdeno tiene una movilidad electrónica baja frente a los semiconductores convencionales de silicio o arseniuro de galio, lo que limita la banda de frecuencias en el que se puede usar. Lo que los autores del “paper” han logrado es llegar a una frecuencia de corte usando este semiconductor como diodo rectificador de 10 GHz. Lo cual es un logro evidente. La cuestión es ¿cómo se trata en los medios este avance?


Pongo sólo dos artículos encontrados en los medios, como referencia, aunque por supuesto tenemos muchos más y casi todos han caído en el mismo sensacionalismo. El artículo de El Mundo [2] titula “Un científico español crea una antena capaz de convertir en electricidad la señal WiFi”. Si bien es cierto que el Prof. Palacios, además de ser español, es el director del equipo multinacional de ingenieros del MIT que han conseguido el logro del que hablaba antes, hay que indicar al redactor de la noticia que todas las antenas, desde que se utilizan, convierten la señal WiFi (o la de radio, o la de TV, es lo mismo) en señal eléctrica PORQUE SON SEÑALES ELÉCTRICAS. No son ectoplasmas, ni algo esotérico que viaja por el aire. Se generan mediante equipos eléctricos y por tanto, son susceptibles de ser captadas por otros equipos eléctricos. Si no, no habría comunicaciones inalámbricas como las que llevamos emitiendo desde que Hertz hiciera su primera transmisión radiada en 1887 (ya ha llovido desde entonces). El titular, que también reproduce Vozpopuli [2] con la misma intención (y casi todos han reproducido lo mismo), demuestra que no se ha hecho una verdadera revisión de estilo y menos se ha consultado éste con expertos en el tema.

El artículo de El Mundo parece que pretende ser una entrevista con el Prof. Palacios. Pasa lo mismo con el de Vozpopuli, aunque dudo mucho que ningún medio español haya acudido al MIT a entrevistar al director de este equipo de tecnólogos. Más bien creo que están usando alguna entrevista realizada al ingeniero y de esa forma desarrollan la noticia. Aunque la proximidad de la publicación del “paper” en Nature (todo se publica el mismo día 28 de enero) me muestra que habrán buscado una publicación americana y habrán traducido con el Google Translate. No sería la primera vez.

En el artículo de El Mundo hay una frase que todavía rechina en mis oídos: “Los ingenieros han conseguido desarrollar una antena que captura las ondas electromagnéticas, incluidas las que se transmiten en una conexión inalámbrica, en forma de corriente alterna”. Habría que decirle al autor que todas las antenas son capaces de capturar las ondas electromagnéticas, INCLUIDAS LAS QUE SE TRANSMITEN EN UNA CONEXIÓN INALÁMBRICA PORQUE SON ONDAS ELECTROMAGNÉTICAS. De hecho, su router inalámbrico tiene antenas, ya sean externas (ésas se ven) o internas (para verlas hay que desmontar el equipo). Pero toda onda electromagnética radiada se capta con antenas, no sólo la WiFi, sino la radio convencional, la TV y las señales de satélite.

Vozpopuli tampoco trata con rigor el “paper”. Iniciando con un “Imagine un mundo en el que los teléfonos móviles, los ordenadores portátiles y el resto de dispositivos se cargaran sin baterías y de manera remota”, cometen un despropósito del tamaño de un camión: si los móviles no tienen baterías… ¿qué vas a cargar? Lo que se cargan son las baterías, la electrónica de un móvil necesita una alimentación de DC para poder funcionar y eso se lo proporciona la batería. Y ya hay cargadores inalámbricos para móviles, usados precisamente para cargar la batería. Lo que pasa es que esos cargadores se basan en acoplamientos inductivos en campo cercano y no en la energía radiada en el espacio libre. Lo coherente hubiese sido decir Imagine un mundo en el que su móvil no tenga batería y se alimente a través de la emisión de radio presente en el espacio. Muy futurista e hiperoptimista (mucho tienen que bajar los consumos de los móviles para poder alimentar con energías tan bajas los dispositivos electrónicos que contienen), pero por lo menos se ajustaría más a lo que es el “paper” publicado.

Otro de los despropósitos de Vozpopuli se da cuando dicen que los dispositivos capaces de convertir ondas electromagnéticas de corriente alterna en electricidad se conocen como “rectennas” y hasta ahora eran rígidas y basadas en materiales demasiado caros para producirlos a gran escala. Que son rígidas, es cierto, pero que están basadas en materiales demasiado caros para producirlos a gran escala es una patraña. La mayor parte de las rectenas que aparecen en los cientos de “papers” publicados mundialmente suelen ser semiconductores de uso general, y bastante más baratos que el tratamiento industrial del disulfuro de molibdeno como semiconductor. De hecho, no hay semiconductores electrónicos en el mercado industrial hechos con disulfuro de molibdeno, por lo que, por ahora, la tecnología desarrollada en el MIT, hasta que no se logre un escalado industrial, es como los coches de Elon Musk: caros, con poca autonomía y con plazos de entrega al cliente de eones.

Pero El Mundo no le anda a la zaga cuando dice que en concreto la antena ha llegado a producir unos 40 microvatios de potencia, expuesta a niveles de potencia típicos de las señales WiFi -en torno a 150 microvatios-, una cantidad que según los autores es más que suficiente para iluminar una pantalla de móvil o activar chips de silicio. Aunque de momento son prudentes, sus creadores esperan que la nueva tecnología se pueda materializar en los próximos años. Sí, 40 μW pueden mantener en modo SLEEP un microprocesador sin consumir la batería del dispositivo móvil, permitiendo que se active cuando se necesita usar (entonces tirará de la corriente de la batería), pero para nada será suficiente cuando se quiera activar el amplificador que tiene que emitir la señal GSM, con un pico de emisión de 4 W. Ahí, los 40 μW son como tratar de subir 1000 veces seguidas el Everest. En este caso, lo más lógico es indicar que se obtiene una eficiencia bastante alta con señales muy bajas, ya que si la señal generada en la antena por el campo radiado por un router WiFi es 150 μW (-8,2 dBm) , la eficiencia es del 27% y eso se logra en las rectenas actuales de silicio y arseniuro de galio.

En fin, el tratamiento dado a la noticia es un cúmulo de incorrecciones que se podrían haber solventado publicando la noticia al día siguiente o incluso con dos días, pero bien publicada y con un lenguaje cercano al profano, pero asesorado por un técnico. Mi lenguaje es demasiado técnico y es labor del periodista traducirlo a un lenguaje entendible por su público, no acostumbrado a temas técnicos.


Para tratar la noticia en la justa medida, primero hay que leerse el “paper”, para comprender lo que en realidad se ha logrado. En realidad, el “paper” no presenta sueños etéreos de un futuro en el que las paredes de casa van a ser enormes antenas. Con su lenguaje técnico, muestra una serie de experimentos realizados sobre una rectena hecha en perfiles flexibles, y esto es un logro porque los materiales que se habían usado hasta el momento para hacer rectenas flexibles no llegaban a la frecuencia de corte a la que han llegado los tecnólogos del MIT. Con este logro, se puede captar la señal eléctrica que hay en el ambiente y lograr optimizar el consumo de baterías, de modo que el móvil no quite carga a la batería mientras está en modo SLEEP, y estas rectenas pueden ser integradas en dispositivos móviles en las próximas generaciones.

Obviamente hay que procesar debidamente el MoS2 para conseguir el escalado industrial necesario, ya que antenas en formato flexible se fabrican en la actualidad y hay para todos los gustos: de banda estrecha, de banda ancha, multibanda, etc. Pero aunque en los artículos hablen de que con esta tecnología ya no necesitaremos extraer litio para las baterías, hay que recordar también que el disulfuro de molibdeno es un mineral y hay que extraerlo de la tierra, que no crece en los árboles.

Por supuesto que felicito al Prof. Palacios y a su equipo por el logro conseguido, recordando también que la ciencia no tiene nacionalidad y que no es una competición. Tampoco es bueno tratar estas noticias como si hubiese ganado Nadal un Grand Slam o Alonso las 24 horas de Le Mans. El equipo es multinacional como todo lo que se hace en el mundo investigador: recurres a los mejores, sin importar la nacionalidad, porque sus resultados contribuyen al cuerpo del conocimiento y al estado del arte.


    1. Zhang, Xu et al.,”Two-dimensional MoS2-enabled flexible rectenna for Wi-Fi-band wireless energy harvesting“, Nature, Ene. 28, 2019, DOI: 10.1038/s41586-019-0892-1
    2. Herrero, Amado, “Un científico español crea una antena capaz de convertir en electricidad la señal WiFi“, El Mundo, Ene. 28, 2019
    3. Un ingeniero español crea la primera antena que convierte el WiFi en electricidad“, Vozpopuli, Ene. 28, 2019

Analizando dispositivos de microondas por elementos finitos

La simulación por el método de elementos finitos (FEM) permite el análisis de estructuras en varias dimensiones, en las que hay que tener en cuenta las características del material utilizado. Este tipo de análisis se está extendiendo a casi todas las ramas de la ingeniería a una velocidad vertiginosa, hasta el punto que ya hay varias ofertas de este tipo de software de ayuda a la ingeniería. Como expliqué en la entrada sobre simulación, publicada en marzo, estas herramientas de ayuda al diseño han evolucionado hasta el punto de combinar diferentes condiciones físicas y resolver problemas complejos que involucren a varias disciplinas. En esta entrada vamos estudiar un dispositivo electrónico muy común en telecomunicaciones vía satélite, que es el ortomodo (OMT). Analizaremos su comportamiento usando un simulador FEM y los resultados obtenidos.

La transmisión de servicios full-duplex (equipos de emisión y recepción simultánea) a través de propagación radiada se hace mediante la polarización del campo electromagnético. El aislamiento entre las bandas de emisión y recepción se obtiene gracias a la ortogonalidad conseguida polarizando los campos electromagnéticos,ya en modo de polarización lineal (horizontal o vertical) o circular (dextrógira o levógira) en función de la dirección de vibración del campo eléctrico.

Considerando el eje tridimensional cartesiano, la polarización horizontal (H-Pol) se produce en el eje Z de una antena, mientras que la vertical (V-Pol) se produce en el eje Y, siendo la propagación en el eje X.El campo eléctrico lejano vibra en el eje Z o en el Y ya que se trata de una onda plana. En el caso de que usásemos coordenadas esféricas (una antena isótropa), las componentes del campo serían THETA para la vertical y PHI para la horizontal. Esto proporciona un aislamiento importante que permite que en el mismo espectro de emisión o recepción podamos usar varios canales, debido a la ortogonalidad de las ondas.

Un dispositivo muy común, cuando se usan transceivers en bandas muy altas, es el ortomodo. Es un dispositivo que trabaja como un diplexor y que proporciona aislamientos muy fuertes en las polaridades contrarias. El resto del aislamiento lo proporciona la transición usada para conectar con los transmisores y los receptores.

La figura anexa muestra un ortomodo en banda Ku, usado en sistemas VSAT para conexión telefónica o de internet satélite. Consiste en un dispositivo de una entrada en guía de onda circular y dos salidas en guía de onda rectangular, orientada su anchura en ejes perpendiculares. Considerando que la guía circular está dibujada en el plano YZ, el eje Y será el eje horizontal (corresponderá al H-pol de la antena) y el Z el vertical (V-pol). La banda de frecuencias de polarización horizontal, en este estudio, será la banda baja de Ku (12÷12,5 GHz), usadas para la recepción en los dispositivos terrestres, mientras que la banda de frecuencias de la vertical será la banda alta de Ku (14,5÷14,75 GHz), que suelen ser usadas para la transmisión.

Las antenas usadas en estas bandas suelen ser de tipo parabólico, por lo que la alimentación de la antena es a través de una guía de onda circular por la que viaja el modo TE11, su primer modo de propagación, en el que el campo eléctrico se propaga en el plano YZ, siendo horizontal si el modo de vibración máximo está en el eje Y y vertical si está en el eje Z, mientras que el campo magnético tiene componente en la dirección de propagación X. El vector de propagación se define como \vec S = \vec E \times \vec H y es perpendicular al plano de propagación de \vec E.

Por tanto, el ortomodo tiene una entrada en guía circular, que tiene que adaptarse a una guía cúbica cuyas aristas sean el doble de la longitud de onda de corte, que es la máxima longitud de onda a la que funcionan las guías rectangulares. Esta dimensión es A en la figura siguiente

A partir de ahí, el ortomodo se adapta en la dirección principal (V-pol) usando una transición de impedancia, mientras que la dirección secundaria (H-pol) se extiende con las aperturas de la guía cúbica interna

De estas estructuras internas, se acaba en una guía WR75, que es la estándar para la banda Ku.


El OMT se analiza usando un simulador de diferencias finitas (FEM), obteniendo los siguientes resultados:

Para la polarización horizontal, se excita en la guía de onda circular un modo TE11 con el campo principal vibrando en el eje Y, siendo el puerto 1 el que se excita en esta guía. Los puertos de salida son el puerto 2 para la polarización vertical y el puerto 3 para la horizontal. Tal y como tiene que funcionar el ortomodo, discriminando los modos de propagación, para el modo TE11 excitado en la guía circular tiene que verse un modo TE10 (modo dominante en una guía rectangular) en el puerto 3 y aislamiento en el puerto 2.


El resultado que se puede ver en la figura muestra cómo la propagación del campo eléctrico llega al espacio central, se refleja en la guía correspondiente al puerto 2, y se propaga a través de la guía del puerto 3. El modo de propagación en este puerto es el TE10, vibrando en el eje Y (corresponde a la polarización vertical). La banda más favorecida en este ortomodo es la banda Ku baja (12÷12,5GHz).

Cambiando la orientación del modo de propagación en la guía circular, con el campo orientado en el eje Z, correspondiente a la polarización vertical, el campo excitado tiene que verse, en este caso, en la puerta 2, quedando la puerta 3 aislada. El modo en la puerta 2 será de nuevo un TE10, pero en este caso vibrando en el eje Z. La siguiente figura nos muestra la propagación de la polarización vertical.

La transmisión es directa hacia el puerto 2, quedando el puerto 3 aislado por reflexión en su guía de onda de salida, por lo que estamos discriminando ambas polarizaciones. En este caso, la banda que usa la polarización vertical es la banda alta de Ku (14,25÷14,75 GHz).

Los resultados obtenidos, en términos de parámetros S, son los siguientes:

Pol Freq (GHz) S11 (dB) S21 (dB) V-pol S31 (dB) H-pol
H 12,25 -17,95 -52,24 -0,07
V 14,50 -12,81 -0,23 -68,17

donde se puede comprobar que en la polarización horizontal hay más de 50 dB de rechazo a la vertical y en la vertical hay más de 65 dB de rechazo a la horizontal, lo que convierte al dispositivo en un excelente discriminador, realizado simplemente con un cuerpo mecánico. Representando los parámetros en la carta de Smith, se obtiene

Las excelentes pérdidas de retorno en la polarización horizontal proporcionan unas pérdidas de paso muy bajas, por lo que la figura de ruido del receptor no se ve apenas tocada en poco menos de una décima. Sin embargo, las pérdidas de retorno de la polarización vertical hacen que las pérdidas de paso sean algo mayores que dos décimas.


Calculando los campos, también podemos obtener la disipación de energía en el OMT. El cuerpo metálico del OMT es aluminio,y excitando ambas polarizaciones con 10kW, las pérdidas electromagnéticas obtenidas en el metal son las siguientes:

Pol Freq (GHz) Disipación de potencia total (mW)
H 12,25 148,64
V 14,25 128,18

donde se puede ver que la disipación de potencia que sufre el dispositivo diseñado es menor que 250 mW, con una alta potencia de entrada, lo que le hace un dispositivo idóneo para aplicaciones de mezcla de señales.


Generalmente, las polaridades en los equipos de satélite se intercambian. Se mantiene, sin embargo, que si la polarización del receptor es horizontal, la del transmisor es vertical. Y a la inversa.

Como el dispositivo es un dispositivo geométrico, para cambiar las bandas de las polaridades basta con rotar el dispositivo 90 deg. De este modo, lo que antes era polaridad horizontal y correspondía a la banda baja de Ku, pasa ahora a ser vertical, manteniendo las mismas características.


En esta entrada, una vez más, vemos la importancia que tiene la simulación para obtener un diseño lo más adecuado posible a las características que deseamos. Otra vez analizamos los resultados obtenidos gracias al método de los elementos finitos (simulación FEM) en un dispositivo muy utilizado en telecomunicaciones de satélite. En este caso, las características a obtener son muy críticas, debido a la distancia entre terminal y satélite, necesitando minimizar las pérdidas de inserción a valores inferiores a una décima de dB para lograr el máximo rendimiento del dispositivo.


  1. Robert E. Collin, “Field Theory of Guided Waves”, Wiley-IEEE Press, Dec 1990, 2nd Edition, 864 pages, ISBN 978-0-879-42237-0
  2. O. A. Peverini, R. Tascone, A. Olivieri, M. Baralis, R. Orta and G. Virone, “A microwave measurement procedure for a full characterization of ortho-mode transducers,” IEEE Transactions on Microwave Theory and Techniques, vol. 51, no. 4, pp. 1207-1213, April 2003.
    doi: 10.1109/TMTT.2003.809629

Basis of Microwave Heating

Microwave oven has become very popular in recent years, and has become an essential appliance in any kitchen. However, microwave heating seems an esoteric, almost magical, issue for many people who have the oven at their home. In this post we are going to explain the basis of microwave heating, not only for the food heating, but also for industrial heating and HDW (hot domestic water).

In 1946, a British researcher from the Raytheon Corporation, Mr. Percy Spencer, working on RADAR applications, discovered that a candy bar in his pocket was melted. He was testing a magnetron and began experimenting, confining the EM field inside a metal cavity. He tested first with corn and then with a chicken egg. This latter one exploded.

He verified that a high intensity EM field affected food due to the presence of water inside. Water is a bad propagator of radio waves, because it has a high dielectric constant and losses. Being a polar molecule, when a variable EM field is applied, the dipole tends to be oriented in the direction of the field, and that makes the water molecule is agitated, increasing its temperature. The popular belief is that this only happens at 2,4 GHz, but it actually happens throughout the microwave band. This frequency is used by the ovens because it is a frequency within a free emission band known as ISM (short for Industrial, Scientific and Medical). However, there are heating processes at 915MHz and another frequencies..

First, the water, like almost all dielectrics, has under normal conditions a complex dielectric constant ε=ε’−jε”. When this complex dielectric constant is introduced into the Maxwell equations, the complex term means a dielectric conductivity, by the next expression

\sigma = \omega \epsilon" \epsilon_0

This conductivity is not produced by the mobility of electrons, but by the mobility of the polar molecules of water. Therefore, it is higher as the frequency is increased.

On the other hand, the presence of this conductivity limits the microwaves penetration in the water, attenuating the EM intensity with distance. It is related to the depth of penetration, expressed by

\delta_p=\dfrac {\lambda \sqrt{\epsilon'}}{2 \pi \epsilon"}

and therefore at higher frequency, lower penetration depth. If the intensity of the electric field is |E|, and, by the Ohm’s law, the volumetric power is given by

Q=\omega \epsilon" \epsilon_0 |E|^2

This volumetric power will affect a specific region of the water, causing heating.

On the other hand, there is a heat transfer effect due to thermal conductivity, such that the surface heat flux is

\dfrac {dQ_s}{dt}=-k \displaystyle \int_s {\vec \nabla T d \vec S}

Applying the divergence theorem, the variation of heat per unit volume will be

\dfrac {dQ_V}{dt}=-k \nabla^2 T

This flow distributes the temperature inside the volumetric element, lossing energy, and therefore its sign is negative.


Under macroscopic conditions, the energy per unit volume that must be applied to water increasing its temperature is given by

E_v=\rho_m c_e \Delta T

with ρM the water density and ce its specific heat, being ΔT the increasing of the temperature. Speaking in terms of power, we will have to

Q=\rho_m c_e \dfrac{dT}{dt}

where it must be calculate the global time variation of the temperature, and being a fluid that can be in movement, it must be applied the material derivative, an operator that includes the time variation and the convection. Applying this operator we may get

\dfrac{dT}{dt}=\dfrac{\partial T}{\partial t}+\vec v \vec \nabla T

and the volumetric power is given by

Q=\rho_m c_e \left(\dfrac{\partial T}{\partial t}+\vec v \vec \nabla T \right)-k\nabla^2 T

which is the expression that governs the water heating when a volumetric density of EM power Q is applied.

On the other hand, fluid movement is governed by the Navier-Stokes equations, through

\rho_M \dfrac {\partial \vec v}{\partial t}=-\vec \nabla P+\mu \nabla^2 \vec v + \rho_M \vec g

Where P is the volumetric pressure, μ the fluid viscosity and g the gravitational field.


In the case of a hot domestic water system, there would be two possibilities of heating:

  1. Through a closed circuit system moving a water flow, due to its very low viscosity (10-3 Pa·s).
  2. Using a vessel with rest water and accumulating the heat to transmit it to another areas.

In the first case, the volumetric power necessary to heat a closed circuit system must solve both with the thermal variation and the Navier-Stokes equations, and its efficiency is greater than in the second one, where the expression of the thermal increase is given by

Q+k\nabla^2 T=\rho_m c_e \dfrac{\partial T}{\partial t}

This equations can be solved using the FEM method, as we saw in the post about the simulation.

In any case, although both methods are possible, the first method will always be cheaper than the second, since the second can only be applied to raise the temperature of another fluid in motion and will need more energy due to the losses due to that transfering of heat..


Normally, any material that has losses by dielectric constant can be capable of being heated using microwaves, if these losses do not raise the electrical conductivity to values that cancel the electric field (in a perfect conductor, the electric field is zero). If we write the expression obtained in terms of electric field we get

\omega \epsilon" \epsilon_0 |E|^2+k\nabla^2 T=\rho_m c_e \left(\dfrac{\partial T}{\partial t}+\vec v \vec \nabla T \right)

and therefore, we can obtain a relationship between ε” and the increase of temperature at a given electric field |E|.


The human body is another dielectric which contains mostly by water. Therefore, the effect of the EM radiation on our body should cause heating. Let’s study what would be the field that would increase our temperature above 50o C in one minute, reducing the expressions to

\omega \epsilon" \epsilon_0 |E|^2=\rho_m c_e \dfrac{\Delta T}{\Delta t}

Taking ε”=4,5 (water at 2,4 GHz), knowing that the average human density is 1100 kg/m3 and its specific heat, 14,23 kJ/kg o C, it is got the next

|E|=\sqrt {\dfrac {1100 \cdot 14230 \cdot \left(\dfrac{50-33}{60} \right)}{2 \pi \cdot 2,4 \cdot 10^9 \cdot 4,5 \cdot 8,85 \cdot 10^{-12}}}=3,1 kV/m

and a WIFI router emits with less than 2 V/m field strength at 1 m. of distance. Therefore, a WIFI router will not cause heating in our body or even if we are close by it..

And a mobile phone? These devices are already powerful … Well, at its emission peak either, since at most it will emit with 12 V/m, and we need 3100 V/m, about 260 times more. So the mobile does not warm our ear either. And keeping in mind the depth of penetration, as much the EM radiation gets to penetrate about 2 cm, attenuating the field strength in half and power to the fourth part, due to the dielectric conductivity of our body. That without keeping in mind that each of our tissues has a different attenuation capacity depending on its composition and structure.


This post tries to explain the microwave heating phenomenon based on the ones that produce this heating, and its possible industrial applications, apart from those already known as the popular oven that almost every kitchen already has as part of its home appliance furniture. One of the most immediate applications is in the HDW, although applications have also been achieved in other industrial areas. And although the microwaves produce that heating, the necessary field strengths are very far from the radiation we receive from mobile communications.


  1. Menéndez, J.A., Moreno, A.H. “Aplicaciones industriales del calentamiento con energía microondas”. Latacunga, Ecuador: Editorial Universidad Técnica de Cotopaxi, 2017, Primera Edición, pp 315. ISBN: 978-9978395-34-9
  2. D. Salvi, Dorin Boldor, J. Ortego, G. M. Aita & C. M. Sabliov “Numerical Modeling of Continuous Flow Microwave Heating: A Critical Comparison of COMSOL and ANSYS”, Journal of Microwave Power and Electromagnetic Energy, 2016, 44:4, 187-197, DOI: 10.1080/08327823.2010.11689787

El calentamiento por microondas

El horno microondas se ha vuelto muy popular en los últimos años, y se ha convertido en un electrodoméstico imprescindible en cualquier cocina. Sin embargo, el calentamiento por microondas parece un tema esotérico, casi mágico, para muchos que tienen el horno en casa. En esta entrada vamos a adentrarnos en el mundo del calentamiento por microondas, no sólo para el calentamiento de alimentos, sino también para el calentamiento industrial y de ACS (agua caliente sanitaria).

En 1946, un investigador británico de la Raytheon Corporation, Mr. Percy Spencer, trabajando sobre las aplicaciones del RADAR, descubrió que una chocolatina que tenía en el bolsillo se había derretido. Estaba probando un magnetrón comenzó a hacer experimentos, confinando el campo en una cavidad metálica. Primero con maíz y luego con un huevo de gallina. Este último, le estalló.

Comprobó que un campo electromagnético de una intensidad elevada afectaba a los alimentos debido a la presencia de agua en su interior. El agua es un mal propagador de las ondas de radio, debido a su alta constante dieléctrica y a la conductividad dieléctrica que tiene. Al ser la molécula de agua polar, en presencia de un campo variable con el tiempo el dipolo hidrógeno-oxigeno tiende a orientarse en el sentido del campo, y eso hace agitarse a la molécula de agua, por lo que incrementa su temperatura. La creencia popular es que ésto sucede sólo a 2,4 GHz, pero en realidad ocurre en toda la banda de microondas. La frecuencia de 2,4 GHz es utilizada por los hornos debido a que es una frecuencia dentro de la banda de emisión libre conocida como ISM (abreviatura de Industrial, Scientific and Medical). Sin embargo hay procesos de calentamiento a 915MHz y a otras frecuencias.

En primer lugar hay que indicar que el agua (como casi todos los dieléctricos) tiene, en condiciones normales, una constante dieléctrica ε=ε’−jε”. Cuando se introduce esta constante dieléctrica en las ecuaciones de Maxwell aparece una conductividad definida por

\sigma = \omega \epsilon" \epsilon_0

Esta conductividad no es producida por la movilidad de electrones, sino por la movilidad de las moléculas polares del agua. Por tanto, es mayor a medida que aumentamos la frecuencia.

Por otro lado, la presencia de esta conductividad limita la penetración de las microondas en el agua, ya que van atenuándose con la distancia. Está relacionado con el término de profundidad de penetración expresado por

\delta_p=\dfrac {\lambda \sqrt{\epsilon'}}{2 \pi \epsilon"}

y por tanto a mayor frecuencia menor profundidad de penetración. Si la intensidad del campo eléctrico aplicado es |E|, por la ley de Ohm, la potencia por unidad de volumen que proporciona el campo se puede obtener por

Q=\omega \epsilon" \epsilon_0 |E|^2

Esta potencia afectará a una zona volumétrica concreta del agua, provocando calentamiento.

Por otro lado, hay un efecto de transmisión del calor que está regido por la conductividad térmica, de tal manera que el flujo de calor por unidad de superficie es

\dfrac {dQ_s}{dt}=-k \displaystyle \int_s {\vec \nabla T d \vec S}

Aplicando el teorema de la divergencia, la variación de calor por unidad de volumen será

\dfrac {dQ_V}{dt}=-k \nabla^2 T

Este flujo de calor tiende a distribuir la temperatura dentro del elemento volumétrico y por eso su signo negativo.


En condiciones macroscópicas, la cantidad de energía que hay que aplicar, por unidad de volumen, al agua para que incremente su temperatura viene dada por la expresión

E_v=\rho_m c_e \Delta T

con ρM la densidad del agua y ce su calor específico, siendo ΔT el incremento de temperatura. Si hablamos en términos de potencia, tendremos que

Q=\rho_m c_e \dfrac{dT}{dt}

donde hay que calcular la derivada de la temperatura con respecto al tiempo, y al tratarse de un fluido que puede estar en movimiento, hay que aplicar la derivada sustancial que vimos en la entrada sobre la magnetohidrodinámica.

\dfrac{dT}{dt}=\dfrac{\partial T}{\partial t}+\vec v \vec \nabla T

Así, aplicando la derivada sustancial tendremos que

Q=\rho_m c_e \left(\dfrac{\partial T}{\partial t}+\vec v \vec \nabla T \right)-k\nabla^2 T

que es la expresión que rige el mecanismo de calentamiento del agua cuando se aplica una densidad volumétrica de potencia electromagnética Q.

Por otro lado, no debemos olvidar que el movimiento de un fluido está regido por la ecuación de Navier-Stokes, a través de

\rho_M \dfrac {\partial \vec v}{\partial t}=-\vec \nabla P+\mu \nabla^2 \vec v + \rho_M \vec g

donde P es la presión, μ la viscosidad del fluido y g el campo gravitatorio.


En el caso de un sistema de agua caliente sanitaria, habría dos posibilidades de calentamiento:

  1. Mediante un circuito cerrado que mueva un flujo de agua, que es además un fluido con una viscosidad muy baja (10-3 Pa·s).
  2. Mediante un contenedor que contenga agua que no esté en movimiento y acumule el calor para transmitirlo a otras direcciones.

En el primer caso, la cantidad de potencia volumétrica necesaria para calentar un circuito cerrado debe de resolver tanto la ecuación del incremento térmico como la de Navier-Stokes, y ésta es mayor que en el segundo caso, donde la expresión del incremento térmico queda

Q+k\nabla^2 T=\rho_m c_e \dfrac{\partial T}{\partial t}

Estas ecuaciones se pueden resolver usando el método de diferencias finitas que ya comentamos en la entrada referente a la simulación.

En todo caso, aunque ambos métodos son posibles, el primer método siempre será más económico que el segundo, ya que el segundo sólo se puede aplicar a elevar la temperatura de otro fluido en movimiento y necesitará más energía debido a las pérdidas debidas a esa transferencia de calor.


En principio, cualquier material que tenga pérdidas por constante dieléctrica puede ser susceptible de ser calentado usando microondas, si éstas pérdidas no elevan la conductividad eléctrica a valores que anulen el campo eléctrico (en un conductor perfecto, el campo eléctrico es nulo). Si escribimos la expresión obtenida en términos de campo eléctrico tenemos que

\omega \epsilon" \epsilon_0 |E|^2+k\nabla^2 T=\rho_m c_e \left(\dfrac{\partial T}{\partial t}+\vec v \vec \nabla T \right)

y por tanto, podremos obtener una relación entre ε” y el incremento de temperatura a un campo |E| dado.


El cuerpo humano es otro dieléctrico, formado en su mayor parte por agua. Por tanto, el efecto de una radiación electromagnética en nuestro cuerpo debería provocar calentamiento. Vamos a estudiar cuál sería el campo que incrementaría nuestra temperatura por encima de 50o C en un minuto, reduciendo la expresión a los siguientes términos

\omega \epsilon" \epsilon_0 |E|^2=\rho_m c_e \dfrac{\Delta T}{\Delta t}

Si tomamos ε”=4,5 (la del agua a 2,4 GHz), sabiendo que la densidad media humana es 1100 kg/m3 y su calor específico es de 14,23 kJ/kg o C, tendremos que

|E|=\sqrt {\dfrac {1100 \cdot 14230 \cdot \left(\dfrac{50-33}{60} \right)}{2 \pi \cdot 2,4 \cdot 10^9 \cdot 4,5 \cdot 8,85 \cdot 10^{-12}}}=3,1 kV/m

y un router WIFI radia con una intensidad de campo, a 1 m. del mismo, de menos de 2 V/m. Por tanto, un router WIFI no provocará calentamiento en tu cuerpo ni aunque te pongas pegado a él.

¿Y qué decir de un teléfono móvil? Estos aparatos son ya potentes… Pues en su pico de emisión tampoco, ya que como mucho tendrás 12 V/m, y se necesitan 3100 V/m, unas 260 veces más. Así que el móvil tampoco te calienta la oreja. Y teniendo en cuenta la profundidad de penetración, como mucho la radiación electromagnética llega a penetrar unos 2 cm, atenuándose la intensidad de campo a la mitad y la potencia a la cuarta parte, por efecto de la conductividad dieléctrica de nuestro cuerpo. Eso sin tener en cuenta que cada uno de nuestros tejidos tiene una capacidad de atenuación diferente en función de su composición y estructura.


En esta entrada se trata de explicar el fenómeno del calentamiento a base de microondas a partir de los fenómenos que producen ese calentamiento, y sus posibles aplicaciones industriales, aparte de las ya conocidas como el popular horno que casi toda cocina ya tiene como parte de su mobiliario electrodoméstico. Una de las aplicaciones más inmediatas está en el ACS, aunque también se han logrado aplicaciones en otros apartados industriales. Y a pesar de que las microondas producen ese calentamiento, las intensidades de campo necesarias están muy alejadas de la radiación que recibimos de las comunicaciones móviles.


  1. Menéndez, J.A., Moreno, A.H. “Aplicaciones industriales del calentamiento con energía microondas”. Latacunga, Ecuador: Editorial Universidad Técnica de Cotopaxi, 2017, Primera Edición, pp 315. ISBN: 978-9978395-34-9
  2. D. Salvi, Dorin Boldor, J. Ortego, G. M. Aita & C. M. Sabliov “Numerical Modeling of Continuous Flow Microwave Heating: A Critical Comparison of COMSOL and ANSYS”, Journal of Microwave Power and Electromagnetic Energy, 2016, 44:4, 187-197, DOI: 10.1080/08327823.2010.11689787

Simulation on Physical Systems

I take a long time writing many post about the simulation. Main reason is because I have learned for many years the value of using computers for physical system analysis. Without these tools, I would never be able to get reliable results, because of the amount of calculations I would have to do. Modern simulators, able to solve complex calculations using the computers capacity, allow us to get a more realistic behavior for a complex system, knowing its structures. Physics and Engineering work every day with simulations to get better predictions and take decisions. In this post, I am going to show what are the most important parts we should be kept in mind about the simulation.

In 1982, physicist Richard Feynman published an article where he talked about the analysis of physical systems using computers (1). In those years, computer technology had progressed to a high level that it was possible to achieve a greater calculation capacity. New programming languages worked with complex formulas, such as FORTRAN, and allowed the calculations on systems by complex integro-differential equations, which resolution usually needed numerical methods. So, in those first years, physicists began to do simulations with programs able to solve the constitutive system equations, although not always with simple descriptions.

A great step forward in electronics was the SPICE program, at the beginning of 70s (2). This program, FORTRAN-based, was able to compute non-linear electronic circuits, removing the radiation effects, and solve the time-domain integral-differential equations. Over the years, the Berkeley’s SPICE became the first reference on simulation programs and its success being such that almost all the simulation programs developed along last years have its base on the Nagel and Pederson algorithms, developed in 70s.

From 80s, and searching to solve three-dimensional problems, the method of moments (MoM) was developed. It was come to solve systems raised as integral equations in the boundaries (3), being very popular. It was used in Fluid Mechanics, Acoustic Waves and Electromagnetism. Today, this one is still used to solve two-dimensional electromagnetic structures.

But the algorithms have got a huge progress, with the emergence of new finite element methods (FEM, frequency-domain) and time-domain finite differences (FDTD, time-domain) in 90s, based on the resolution of systems formulated by differential equations, important benchmarks on the generation of new algorithms able to solve complex systems (4). And with these new advances, the simulation contribution in Physics came to take spectacular dimensions.


When we are studying any physical phenomenon, we usually invoke a model. Whether an isolated phenomenon or within an environment, whether in Acoustic Waves, Electromagnetism or Quantum Mechanics, having a well-characterized model is essential to get its behavior, in terms of its variables. Using an accurate model increases our certainty on the results.

However, modeling is complex. It is needed to know what are the relationships between variables and from here, determine a formulation system that defines the behavior within a computer.

A model example is a piezoelectric material. In Electronics, piezoelectric materials are commonly used as resonators and it is usually to see these electronic devices (quartz or any other resonant material based on this property).

A piezoelectric model, very successful in the 40s, was developed by Mason (5). Thanks to the similarity between the Electromagnetic and Acoustic waves, he got to join both properties using transmission lines, based in the telegraphist’s equations, writing the constitutive equations. In this way, he developed a piezoelectric model which is still used today. This model can be seen in Fig. 1 and it has already been studied in previous posts.

Fig.1 - Mason Model

Fig.1 – Modelo de piezoeléctrico de Mason

This model practically solved the small signal analysis in frequency domain, getting an impedance resonance trace as it is shown in Fig. 2

Fig.2 – Resultados del análisis del modelo de Mason

However, the models need to expand their predictive capacity.

The Mason model describes the piezoelectric behavior rightly when we are working in a linear mode. But it has faults when we need to know the large signal behavior. So new advances in the piezoelectric material studies included the non-linear relationships in its constitutive equations (6).

Fig. 3 – Modelo tridimensional de una inducción

In three-dimensional models, we must know well what are the characteristics that define the materials to have an optimal results. In the induction shown in Fig. 3, CoFeHfO is being used as a magnetic material. It has a frequency-dependent complex magnetic permeability that must be defined in the libraries.

The results will be better as the model is defined better, and this is the fundamental Physicist task: getting a reliable model from the studies on the phenomena and the materials.

The way to extract a model is usually done by direct measurement or through the derived magnitudes, using equations systems. With a right model definition, the simulation results will be more reliable.


Once the model is rightly defined, we can perform an analysis by simulation. In this case, we will study the H-field inside the inductor, at 200 MHz, using the FEM analysis, and we are going to draw this one, being shown in Fig. 4.

Fig. 4 – Excitación magnética en el interior del inductor

The result is drawn in a vector mode, since we have chosen that representation to see the H-field direction inside the inductor. We can verify, first, that the maximum H-field is inside the inductor, to the positive section on Y axis in the upper area, while in the lower part the orientation the inverse. The maximum H-field level obtained is 2330 A/m with 1 W excitation between the inductor electrodes.

The behavior is precisely that of an induction whose value can also be estimated by calculating its impedance and drawiing it on Smith’s chart, Fig. 5.

Fig. 5 – Impedancia del inductor sobre carta de Smith

The Smith’s chart trace clearly shows an inductive impedance, which value decreases when the frequency increases, because of losses of the CoFeHfO magnetic material. Besides, these losses contribute to the resistance increasing with frequency. There will be a maximum Q in the useful band

Fig. 6 – Factor de calidad del inductor

Having a induction with losses a quality factor Q, we can draw it as a function of the frequency in Fig. 6.

Therefore, with the FEM simulation we have been able to analyze the physical parameters on a modeled structure that would have cost us much more time and effort to get by means of complex calculations and equations. This shows, as Feynman pointed out in that 1982 conference, the simulation powerful when there are accurate models and proper software to perform these analyzes.

However, the simulation has not always had the chance to get the best results. Precisely is the previous step, the importance of having an accurate model, which faithfully defines the physical behavior of any structure, which will ensure the reliability of the results.


The best way to check if the simulation is valid is to resort getting experimental results. Fortunately, the simulation performed on the previous inductor is got from (7), and, in this reference, the authors show experimental results that validate the results of the inductor model. In Fig. 7 and 8 we can see the inductance and resistance values, and adding the quality factor, can be compared with the experimental results of the authors.

Fig. 7 – Valor de la inductancia en función de la frecuencia

Fig. 8 – Valor de la resistencia efectiva en función de la frecuencia

The results obtained by the authors, using HFSS for the simulation of the inductor, can be seen in Fig. 9. The authors have done the simulation on the structure with and without core, and show the simulation against the experimental result . Seeing the graphs, it can be concluded that the results got in the simulation have a high level of concordance with those obtained through the experimental measurements.

This shows us that the simulation is effective when the model is reliable, and that a model is accurate when the results obtained through the simulation converge with the experimental results. In this way, we have a powerful analysis tool that will allow us to know in advance the behavior of a structure and make decisions before moving on to the prototyping process.

Fig. 9 – Resultados experimentales

In any case, convergence is also important in a simulation. The FEM simulation needs that the mesh is so accurate as getting a good convergence. A low convergence level gives results far from the optimum, and very complex structures require a lot of processing speed, a high RAM use and, sometimes, must even perform a simulation on several processors. To more complex structures, the simulation time increases considerably, and that is one of its main disadvantages.

Although the FEM simulators allow the optimization of the values ​​and even today the integration with other simulators, they are still simulators that require, due to the complexity of the calculations to be carried out, powerful computers that allow to make those calculations with reliability.


Once again, we agree with Feynman when, in that 1982 seminar, he chose precisely a topic which seemed to have no interest for the audience. Since that publication, Feynman’s article has become a classic of Physics publications. The experience that I have got over the years with several simulators, shows me that the way opened by them will have a considerable advance when quantum computers are a reality and their processing speed raises, allowing that these tools get reliable results in a short space of time.

The simulation in the physical systems has been an important progress to get results without needing to realize previous prototypes and supposes an important saving in the research and development costs.


  1. Feynman, R; “Simulating Physics with Computers”; International Journal of Theoretical Physics, 1982, Vols. 21, Issue 6-7, pp. 467-488, DOI: 10.1007/BF02650179.
  2. Nagel, Laurence W. and Pederson, D.O. “SPICE (Simulation Program with Integrated Circuit Emphasis)”, EECS Department, University of California, Berkeley, 1973, UCB/ERL M382.
  3. Gibson, Walton C., “The Method of Moments in Electromagnetics”, Segunda Edición, CRC Press, 2014, ISBN: 978-1-4822-3579-1.
  4. Reddy, J.N, “An Introduction to the Finite Element Method”, Segunda Edición,  McGraw-Hill, 1993, ISBN: 0-07-051355-4.
  5. Mason, Warren P., “Electromechanical Transducers and Wave Filters”, Segunda Edición, Van Nostrand Reinhold Inc., 1942, ISBN: 978-0-4420-5164-8.
  6. Dong, S. Shim and Feld, David A., “A General Nonlinear Mason Model of Arbitrary Nonlinearities in a Piezoelectric Film”, IEEE International Ultrasonics Symposium Proceedings, 2010, pp. 295-300.
  7. Li, LiangLiang, et al. 4, “Small-Resistance and High-Quality-Factor Magnetic Integrated Inductors on PCB”, IEEE Transactions on Advanced Packaging, Vol. 32, pp. 780-787, November 2009, DOI: 10.1109/TADVP.2009.2019845.

La importancia de la simulación en los sistemas físicos

Dedico muchas entradas de este blog a la simulación. Esto es debido a que a lo largo de los años he aprendido de la importancia del uso de computadores para el estudio y análisis de sistemas, circuitos y estructuras que, sin estas herramientas, no lograría a priori reproducir, debido a la cantidad de cálculos que hay que realizar. Los modernos simuladores, que son capaces de resolver cuestiones complejas gracias a la capacidad de cálculo de los computadores, nos permiten evaluar el comportamiento de un sistema complejo a través de la definición de las estructuras. Varias disciplinas de la Física y la Ingeniería recurren de forma habitual a la simulación para realizar sus cálculos previos y poder tomar decisiones y elecciones. En esta entrada deseo mostrar cuáles son las partes más importantes que se deben tener en cuenta a la hora de simular.

En el año 1982, Richard Feynman publicó un artículo en el que hablaba del análisis de los sistemas físicos a través de computadores (1). En aquellos años, la tecnología de los computadores había avanzando a un nivel tan alto que era posible conseguir una mayor capacidad de procesado. La generación de lenguajes de programación que pudiesen contener fórmulas complejas, como FORTRAN, permitía el cálculo y evaluación de sistemas que estuviesen definidos por complejas ecuaciones integro-diferenciales, cuya resolución en muchas ocasiones requería de métodos numéricos. De este modo, en los primeros años, los físicos podían hacer simulaciones a través de programas capaces de resolver las ecuaciones constitutivas del sistema, aunque no siempre con descripciones sencillas.

En el caso de la electrónica, la simulación de circuitos tuvo su principal baluarte en SPICE, a principios de los años 70 (2). El programa, basado en FORTRAN, era capaz de simular circuitos electrónicos no lineales, sin tener en cuenta los efectos de radiación, y resolver las complejas ecuaciones integro-diferenciales en el dominio del tiempo. Con los años, el SPICE de Berkeley se convirtió en la referencia absoluta de los programas de simulación, siendo su éxito tal que casi todos los simuladores desarrollados en los últimos años basan gran parte de sus algoritmos en los desarrollados por Nagel y Pederson en los años 70.

A partir de los 80, y buscando resolver problemas tridimensionales, fue muy popular el método de los momentos (MoM), que era capaz de resolver sistemas que han sido planteados como ecuaciones integrales en los límites (3). Fue de aplicación en mecánica de fluidos, acústica y electromagnetismo. Hoy en día el método se sigue utilizando para resolver problemas electromagnéticos en dos dimensiones.

Pero sin duda los algoritmos y los métodos han ido avanzando, apareciendo en los 90 los métodos de elementos finitos (FEM, para el dominio de la frecuencia) y de diferencias finitas en el dominio del tiempo (FDTD, para el dominio del tiempo), basados en la resolución de sistemas formulados por ecuaciones diferenciales, referencias importantes dentro una explosión de algoritmos destinados a la resolución de sistemas complejos (4). Y con estos avances, la contribución de la simulación al mundo de la Física cobra dimensiones espectaculares.


Cuando se estudia un fenómeno, en Física recurrimos habitualmente a trasladar ese fenómeno a un modelo. Se trate de un fenómeno aislado o dentro de un entorno, sea en Acústica, Electromagnetismo o Mecánica Cuántica, tener bien caracterizado un modelo es esencial para poder determinar el comportamiento del fenómeno en función de sus variables y de las relaciones entre ellas. Con un modelo adecuado aumenta nuestra certidumbre en los resultados.

Sin embargo, modelar es complejo. Hay que conocer cuáles son las relaciones entre las variables y a partir de ahí, establecer un sistema que reproduzca el comportamiento dentro de un computador.

Un ejemplo de modelo es el material piezoeléctrico. En Electrónica, los materiales piezoeléctricos son de uso común y es habitual ver dispositivos electrónicos que contengan cristales de cuarzo o cualquier otro material resonante basado en esta propiedad.

Un modelo de piezoeléctrico que tuvo mucho éxito en los años 40 fue el desarrollado por Mason (5). Gracias a la similitud entre los campos electromagnéticos y los acústicos, combinó ambas propiedades a través de líneas de transmisión definidas por las ecuaciones del telegrafista, extraídas de las ecuaciones constitutivas. De este modo desarrolló un modelo para el material piezoeléctrico que hoy en día se sigue utilizando. El modelo se puede ver en la Fig. 1 y ya se estudió en entradas anteriores.

Fig.1 – Modelo de piezoeléctrico de Mason

Este modelo resolvía prácticamente el análisis en frecuencia del material en pequeña señal, obteniendo la curva de resonancia en la impedancia que presentan habitualmente este tipo de componentes y que se puede ver en la Fig. 2

Fig.2 – Resultados del análisis del modelo de Mason

Sin embargo, los modelos necesitan evolucionar y ampliar su capacidad predictiva.

El modelo de Mason describe correctamente el comportamiento del piezoeléctrico cuando trabaja en forma lineal. Sin embargo, falla cuando se quiere conocer el comportamiento cuando se aplica un potencial intenso entre sus electrodos. Así que nuevos avances en el comportamiento del material llevaron a incluir el comportamiento no lineal en las ecuaciones constitutivas (6).

Fig. 3 – Modelo tridimensional de una inducción

En el caso de los modelos tridimensionales, hay que conocer bien cuáles son las características que definen a los materiales para tener un resultado óptimo. En el caso de la inducción de la Fig. 3, se está utilizando como material magnético CoFeHfO, con una permeabilidad magnética compleja dependiente de la frecuencia que hay que introducir en la librería de materiales.

Los resultados serán mejores cuanto mejor esté definido el modelo, y esa es la labor primordial del Físico: obtener modelos fiables a partir de los estudios realizados sobre los fenómenos y los materiales.

La forma de extraer el modelo suele realizarse mediante la medición directa de sus parámetros fundamentales o bien a través de las magnitudes derivadas, en forma de sistemas de ecuaciones. Con una correcta definición del modelo, los resultados obtenidos a través de la simulación serán fiables.


Una vez se tiene correctamente definido el modelo, podemos realizar el análisis mediante simulación. En este caso, vamos a estudiar la excitación magnética H que se obtiene a 200 MHz en el inductor, usando el análisis FEM, y representando la excitación magnética en el interior de la inducción. La Fig. 4 nos muestra esa excitación magnética.

Fig. 4 -Excitación magnética en el interior del inductor

El resultado obtenido se representa de forma vectorial, ya que hemos elegido esa representación para ver el sentido de la excitación magnética en el espacio. Podemos comprobar, primero, que la excitación magnética máxima se produce en el interior del inductor, y que en su parte superior la orientación es hacia la zona positiva de eje Y, mientras que en la parte inferior la orientación es a la inversa. El nivel máximo de campo obtenido es de 2330 A/m para una excitación de 1 W entre los extremos del inductor.

El comportamiento observado es precisamente el de una inducción cuyo valor puede también ser estimado calculando su impedancia y representándola sobre la carta de Smith, Fig. 5.

Fig. 5 – Impedancia del inductor sobre carta de Smith

La curva mostrada en la carta de Smith muestra claramente una impedancia inductiva, cuyo valor va disminuyendo cuando aumenta la frecuencia, debido a las pérdidas del material magnético CoFeHfO utilizado. Estas pérdidas, además, contribuyen a que la resistencia aumente con la frecuencia. Habrá un Q máximo en la banda útil

Fig. 6 – Factor de calidad del inductor

Como una inducción con resistencia de pérdidas tiene un factor de calidad Q, representamos éste en función de la frecuencia en la Fig. 6.

Por tanto, con la simulación FEM hemos logrado analizar parámetros físicos en una estructura que nos hubiese costado mucho más tiempo y esfuerzo reproducir mediante complejos cálculos y ecuaciones. Esto demuestra, tal y como Feynman apuntó en aquella conferencia de 1982, el potencial que la simulación proporciona cuando se tienen buenos modelos y un software adecuado para poder realizar estos análisis.

Sin embargo, la simulación no ha tenido siempre las de ganar. Precisamente es el paso anterior, la importancia de tener un buen modelo que reproduzca fielmente el comportamiento físico de una estructura, el que nos va a garantizar la fiabilidad de los resultados.


El mejor modo de comprobar si la simulación es válida es recurrir a obtener resultados experimentales. Afortunadamente, la simulación realizada sobre el inductor está obtenida de (7), y en esta referencia los autores muestran resultados experimentales que validan los resultados del modelo obtenido. En las Fig. 7 y 8 podemos ver los valores de inductancia y resistencia obtenidas, que junto con el factor de calidad, pueden ser comparadas con los resultados experimentales que los autores indican en su artículo.

Fig. 7 – Valor de la inductancia en función de la frecuencia

Fig. 8 – Valor de la resistencia efectiva en función de la frecuencia

Los resultados obtenidos por los autores, que han usado HFSS para hacer la simulación del inductor, se pueden ver en la Fig. 9. Los autores han hecho la simulación sobre la estructura sin núcleo y con núcleo, y representan la simulación frente al resultado experimental. De las gráficas presentadas se puede concluir que los resultados obtenidos en la simulación tienen un alto nivel de concordancia con los obtenidos mediante las medidas experimentales.

Esto nos demuestra que la simulación es efectiva cuando el modelo es fiable, y que un modelo es fiable cuando los resultados obtenidos a través de la simulación convergen con los resultados experimentales. De este modo, tenemos una potente herramienta de análisis que nos permitirá conocer de antemano el comportamiento de una estructura y tomar decisiones antes de pasar al proceso de prototipado.

Fig. 9 – Resultados experimentales

En todo caso, en la simulación es importante también la convergencia. La simulación FEM requiere que el mallado que se realice sobre la estructura sea tan eficaz como para hacer converger las soluciones. Un bajo nivel de convergencia da resultados alejados del óptimo, y estructuras muy complejas requieren de mucha velocidad de procesado, mucha memoria RAM e incluso en ocasiones realizar una simulación sobre varios procesadores. A estructuras más complejas, el tiempo de simulación aumenta considerablemente, y esa es una de sus principales desventajas.

Aunque los simuladores FEM permiten la optimización de los valores e incluso hoy la integración con otros simuladores, siguen siendo simuladores que requieren, por la complejidad de los cálculos a realizar, computadores potentes que permitan hacer esos cálculos con fiabilidad.


Una vez más damos la razón a Feynman cuando en aquel seminario de 1982 eligió precisamente un tema que parecía que no tenía interés ninguno para los asistentes. Desde la publicación de esa charla, el artículo de Feynman se ha convertido en un clásico de las publicaciones de Física. La experiencia que he adquirido a lo largo de los años con simuladores de casi todos los tipos me indica que el camino abierto por éstos sufrirá un avance considerable cuando los computadores cuánticos sean una realidad, y la velocidad de procesado que se pueda obtener permitan a estas herramientas obtener resultados fiables en un corto espacio de tiempo.

La simulación en los sistemas físicos ha sido un avance considerable para poder conseguir resultados sin necesidad de realizar prototipos previos y supone un importante ahorro en los costes de investigación y desarrollo.


  1. Feynman, R; “Simulating Physics with Computers”; International Journal of Theoretical Physics, 1982, Vols. 21, Issue 6-7, pp. 467-488, DOI: 10.1007/BF02650179.
  2. Nagel, Laurence W. and Pederson, D.O. “SPICE (Simulation Program with Integrated Circuit Emphasis)”, EECS Department, University of California, Berkeley, 1973, UCB/ERL M382.
  3. Gibson, Walton C., “The Method of Moments in Electromagnetics”, Segunda Edición, CRC Press, 2014, ISBN: 978-1-4822-3579-1.
  4. Reddy, J.N, “An Introduction to the Finite Element Method”, Segunda Edición,  McGraw-Hill, 1993, ISBN: 0-07-051355-4.
  5. Mason, Warren P., “Electromechanical Transducers and Wave Filters”, Segunda Edición, Van Nostrand Reinhold Inc., 1942, ISBN: 978-0-4420-5164-8.
  6. Dong, S. Shim and Feld, David A., “A General Nonlinear Mason Model of Arbitrary Nonlinearities in a Piezoelectric Film”, IEEE International Ultrasonics Symposium Proceedings, 2010, pp. 295-300.
  7. Li, LiangLiang, et al. 4, “Small-Resistance and High-Quality-Factor Magnetic Integrated Inductors on PCB”, IEEE Transactions on Advanced Packaging, Vol. 32, pp. 780-787, November 2009, DOI: 10.1109/TADVP.2009.2019845.

Studying slotline transmission lines

PCB transmission lines are an optimal and low cost solution to make guided propagation at very high frequencies. The most popular lines are microstrip and coplanar waveguide. These transmission lines are easily realizable in a printed circuit board and whose impedance can be calculated from their dimensions. In these lines, TEM modes (transverse electromagnetic) are propagated, in which there is no component in the direction of propagation. However, there are other very popular lines that can also be used at high frequencies and are known as slotlines. In this post, we are going to study the electrical behavior of slotlines and some microwave circuits that can be done with them.

At high frequencies, lines usually behave like distributed transmission lines. Therefore, it is necessary to know its impedance so that there are no losses during propagation.

The microstrip and coplanar waveguides are very popular, since they are easily implemented on a printed circuit board, they are cheap and can be easily calculated. In both lines, the propagation mode is TEM, there are no field components in the direction of propagation, and their characteristic impedance Zc and wavelength λg depend on the line dimensions and the dielectric substrate which supports them.

There is another type of line, which is usually used at very high frequencies: the slotline. This line is one slot on the copper plane through which a transverse electric mode is propagated (specifically the TE01 mode, as shown in the following figure).

Fig. 1 –  TE01 mode on a slotline

The field is confined near the slot so that the propagation has the minimum possible losses, and as the microstrip lines, there is a discontinuity due to the dielectric substrate and air. It is used as a transmission line with substrates with a high dielectric constant (around εr≥9.2), in order to confine the fields as close as possible to the slot, although they can be used as couplings on substrates with lower dielectric constants. In this way, flat antennas can be fed with the slotlines.

In this post, we will pay attention to its use as transmission lines (with high dielectric constants), and the microwave circuits that we can make with them, studying the transitions between both technologies (slotline to microstrip).


Being a transmission line and like the other lines, the slotline has a characteristic impedance Zc and a wavelength λs. But besides, using the TE01 propagation mode, the electric field component which is propagated, in cylindrical coordinates, is Eφ, as it is shown in the next figure

Fig. 2 – Eφ component

This component is calculated from the magnetic components Hr and Hz, considering the Z-axis the propagation direction, which is perpendicular to the electric field. From here, we get an expression for the propagation constant kc which is

E_{\varphi}=\dfrac {j{\omega}{\mu_0}}{k_c^2}\dfrac {\partial H_z}{\partial r}=-{\eta} \dfrac {\lambda_s}{\lambda_0}H_r

k_c=\dfrac {2{\pi}}{\lambda_0} \sqrt {1- \left( \dfrac {\lambda_0}{\lambda_s} \right)^2}

where λ0 is the wavelength of the propagated field. The first thing is deduced from the expression of kc is that we will find a cuttoff wavelength λs, from which the field propagates as mode TE01, since λ0≤λs so that kc is real and there is propagation. This means that there will be a cuttoff thickness for the substrate which will depend on the dielectric constant εr. The expression for that cuttoff thickness, where there is no propagation at TE01 mode, is

{\left( \dfrac {h}{\lambda_0} \right)}_c=\dfrac {1}{4\sqrt{{\epsilon_r}-1}}

With these expressions, Gupta (see [1], page 283) got the expressions for the line impedance Zc and the line wavelength λs, which will allow us to typify the transmission line, making microwave circuits with slotlines.


As the microstrip and coplanar waveguides, slotline can be analyzed using a FEM electromagnetic simulator. We are going to study one transmission line on an RT/Duroid 6010 substrate, which dielectric constant is εr=10,8, with 0,5mm thickness. The slot width is 5mil. According to the impedance calculations, Zc is 68,4Ω and λs, 14,6mm, at 10GHz. In a 3D view, the slotline is the next

Fig. 5 – Slotline 3D view

The next graph shows the S parameters at 50Ω impedance of generator and load.

Fig. 6 – Slotline S parameters

On the Smith chart

Fig. 7 – Slotline impedance on Smith Chart

where the impedance is 36,8-j·24,4Ω at 10GHz.

It is possible to show the propagated surface current on the line in 3D view

Fig. 8 – Slot surface current, in A/m

where it can be seen that the surface current is confined as near as possible the slot. From this current, the H-field can be derived and therefore the E-field which only has a transversal component. It can be also seen two maxima on the current magnitude, which shows that the slot distance is λs.

The FEM simulation allows us to analyze the slotline lines and build microwave circuits, knowing the characterization shown in [1].


Like the slotline is one slot made on a copper plane, transitions can be made from slotline to microstrip. One typical transition is the next

Fig. 9 – Slotline-to-microstrip transitions

Microstrip lines finish in a λm/4 open circuit stub, so the current is minimal at the open circuit and maximum at the transition location. In the same way, the slotline finishes in a λs/4 short circuit stub, with the minimum surface current at the transition location. Then, the equivalent circuit for each transition is

Fig. 10 -Equivalent circuit for a slotline-to-microstrip transition

Using the FEM simulator it is possible to study how a transition behaves. The next graph shows its S parameters. The transition has been made on RT/Duroid 6010, with 70mil thickness and 25mil slot widths. The microstrip width is 50mil and the working band is 0,7÷2,7GHz.

Fig. 11 – Transition S parameters

and showing the surface current on the transition, it ts the next

Fig. 12 – Current on the transition.

where it can be seen the coupling of the current and its distribution on the slotline.


The slotline is a versatile line. Combined with microstrip (the microstrip ground plane can include slots), it allows us to make a series of interesting circuits, such as those shown in fig. 13

Fig. 13 – Microwave circuits with slotline and microstrip.

The 13 (a) circuit shows a balum with slotline and microstrip technology, where the microstrip is shorted to ground in the transition. The balanced part is the slotline section, since both ground planes are working like differential ports, while the unbalanced part is the microstrip, referring to the ground plane where the slots are placed. With this circuit it is possible to build frequency mixers or balanced mixers. Another interesting circuit is shown in 13 (b), a “rat-race” where the microstrip circuit is not closed, but is coupled through a slot to get the coupling. In 13 (c), a “branchline” coupler is shown, using a slotline and, finally, in 13 (d), a Ronde coupler is shown. This last circuit is ideal to equalize the odd/even mode phase velocities.


In this post, we have analyzed the slotline used like a microwave transmission line, compared with another technologie. Besides we have made a small behavior analysis using an FEM simulator, checking the possibilities of the line analysis (S parameters and surface current analysis) and we have shown some circuits that can be made with this technology, verifying the versatility of this transmission line.


  1. Gupta, K.C., et al. “Microstrip Lines and Slotlines”. 2nd. s.l. : Artech House, Inc, 1996. ISBN 0-89006-766-X.

Estudiando líneas de transmisión slotline

Las líneas de transmisión sobre PCB son una solución óptima y de bajo coste para poder realizar propagación guiada a muy altas frecuencias. Las más populares son las líneas microstrip y las coplanares, líneas de transmisión fácilmente realizables en un circuito impreso y cuya impedancia puede ser calculada a partir de sus dimensiones. En estas líneas suelen propagarse modos TEM (transversales electromagnéticos), en los que no hay componente en la dirección de propagación. Sin embargo, existen otro tipo de líneas muy populares que también se pueden utilizar a altas frecuencias y que se conocen como slotlines (líneas de ranura). En esta entrada vamos a estudiar el comportamiento eléctrico de las líneas de ranura y algunos circuitos que se pueden hacer con ellas.

En altas frecuencias, las pistas comienzan a comportarse como líneas de transmisión distribuidas. Por tanto, es necesario conocer su impedancia para que no haya pérdidas durante la propagación.

Son muy populares las líneas microstrip y las coplanares, ya que son fácilmente implementables sobre un circuito impreso a través de la serigrafía del cobre, son económicas y se pueden calcular fácilmente. En ambas líneas, la propagación es TEM, no existiendo componentes de los campos en la dirección de propagación, y su impedancia característica Zc y longitud de onda λg dependen de las dimensiones de la línea y del substrato dieléctrico que las soporta.

Otro tipo de línea, que suele usarse en frecuencias muy elevadas, es la slotline. Esta línea consiste en una ranura sobre un plano de cobre, por la que se propaga, en este caso, un modo transversal eléctrico (concretamente el modo TE01, tal y como se ve en la siguiente figura

Fig. 1 – Modo TE01 en una slotline

El campo queda confinado cerca de la ranura para que la propagación tenga las mínimas pérdidas posibles, y como sucede en las líneas microstrip, hay una discontinuidad debida al substrato dieléctrico y al aire. Su uso como línea de transmisión suele necesitar substratos con alta constante dieléctrica (del orden de εr≥9,2), para lograr confinar los campos lo más cerca posible de la ranura, aunque se pueden usar como acoplamientos en substratos con constantes dieléctricas más bajas. De este modo, se pueden alimentar antenas planas gracias a las slotlines.

En esta entrada nos ceñiremos a su uso como líneas de transmisión (con constantes dieléctricas altas), y los circuitos de microondas que pueden realizarse con ellas, realizando un estudio sobre transiciones entre ambas tecnologías (slotline a microstrip).


Siendo una línea de transmisión, la slotline tiene, como el resto de líneas, una impedancia característica Zc y una longitud de onda λs. Pero además, siendo el modo de propagación el TE01, la componente de campo que se va a propagar, en cilíndricas, es la Eφ, como se muestra en la figura

Fig. 2 – Componente Eφ de campo eléctrico

Esta componente se calcula a partir de las componentes Hr y Hz del campo magnético, considerando Z la dirección de propagación de la línea, perpendicular al campo eléctrico. De aquí obtenemos una expresión para la constante de propagación kc que es

E_{\varphi}=\dfrac {j{\omega}{\mu_0}}{k_c^2}\dfrac {\partial H_z}{\partial r}=-{\eta} \dfrac {\lambda_s}{\lambda_0}H_r

k_c=\dfrac {2{\pi}}{\lambda_0} \sqrt {1- \left( \dfrac {\lambda_0}{\lambda_s} \right)^2}

siendo λ0 la longitud de onda del campo propagado. Lo primero que deducimos de la expresión de kc es que vamos a encontrarnos una longitud de onda de corte λs, a partir de la cual el campo se propaga como modo TE01, ya que λ0≤λs para que kc sea real y exista propagación. Esto significa que va a haber un espesor de corte para el sustrato que va a depender de la constante dieléctrica εr. La expresión para ese espesor de corte, donde no hay propagación en forma de modo TE01,es

{\left( \dfrac {h}{\lambda_0} \right)}_c=\dfrac {1}{4\sqrt{{\epsilon_r}-1}}

Con estas expresiones, Gupta (ver [1], pág. 283)  extrajo unas expresiones que permiten el cálculo de la impedancia de la línea Zc y la longitud de onda de la línea λs, que nos permitirá caracterizar la línea de transmisión, y con esa caracterización, realizar circuitos de microondas con slotlines.


Como las líneas microstrip y las coplanares, las líneas slotline pueden ser analizadas usando un simulador electromagnético FEM. Vamos a estudiar una línea de transmisión en un substrato RT/Duroid 6010, que tiene una εr=10,8, con un espesor de 0,5mm, y una anchura de ranura de 5mil. Según los cálculos de impedancia, la línea tiene una Zc=68,4Ω y una λs=14,6mm a 10GHz. Vista en 3D, la slotline es

Fig. 5 – Slotline en 3D

La siguiente gráfica muestra los parámetros S de la línea de transmisión a 50Ω de generador y de carga.

Fig. 6 – Parámetros S de la slotline

Si representamos ahora los parámetros S en la carta de Smith

Fig. 7 – Impedancia de la slotline

donde tenemos una impedancia de 36,8-j·24,4Ω a 10GHz.

Para ver el campo propagado, usamos la visualización 3D, y representamos la corriente superficial en la ranura

Fig. 8 – Corriente superficial en la ranura, en A/m

donde se puede ver que la corriente superficial queda confinada cerca de la ranura. De esta corriente deriva el campo H y por tanto el campo E, que sólo tiene componente transversal. También se pueden ver la presencia de dos máximos, lo que indica que la distancia de la ranura coincide con la λs.

Gracias a la simulación FEM podemos analizar las líneas slotline y construir circuitos de microondas, sabiendo la caracterización que nos muestra [1].


Como la slotline es una ranura practicada sobre un plano de cobre, se pueden hacer transiciones desde slotline a línea microstrip. Una transición típica es

Fig. 9 – Transición slotline a microstrip

Las líneas microstrip finalizan en un stub en circuito abierto λm/4, de modo que la corriente es mínima en el extremo del circuito abierto y máxima en la posición de la transición. Del mismo modo, la slotline acaba en sendos stub λs/4 en cortocircuito, siendo la corriente superficial mínima en la posición de la transición. El circuito equivalente por cada transición se puede representar de la forma

Fig. 10 – Circuito equivalente de una transición slotline a microstrip

Vamos a estudiar con el simulador electromagnético cómo se comporta una transición como la de la figura adjunta. En este caso, se trata de una transición que funciona en una banda entre 700MHz y 2,7GHz, construida sobre un substrato RT/Duroid 6010, con un espesor de 70mil, y anchuras de ranura de 25mil y microstrip de 50mil. Los parámetros S de la transición son

Fig. 11 – Parámetros S de la transición

y si representamos la corriente superficial en la transición, obtenemos

Fig. 12 – Corrientes en la transición.

donde se puede ver el acoplamiento de la corriente en la transición y la distribución sobre la slotline.


La slotline es una línea versátil. Combinada con microstrip (el plano de masa de la microstrip puede albergar las ranuras) nos permite realizar una serie de circuitos interesantes, como los mostrados en la fig. 13

Fig. 13 – Circuitos que se pueden implementar con slotline y microstrip.

El circuito de la fig. 13 (a) muestra un balum con tecnología slotline y microstrip, cortocircuitando la línea microstrip en la transición. La parte balanceada es la de la línea slotline, ya que ambos planos de tierra son puertos diferenciales, mientras que la parte no balanceada es la línea microstrip, referida al plano de masa donde se construye la slotline. Con este circuito es posible construir dobladores de frecuencia o mezcladores balanceados. Otro circuito interesante es el “rat-race” de la fig. 13 (b), donde el circuito microstrip no está cerrado, sino que se acopla a la slotline para realizar la función. En la fig. 13 (c) es posible ver un acoplador “branchline” usando una slotline y por último, el acoplador de Ronde (fig. 13 (d)), que es un circuito idóneo para ecualizar las velocidades de fase de los modos par e impar.


En la entrada hemos analizado la línea slotline como línea de transmisión de microondas, comparada con otras tecnologías como la microstrip y la coplanar. Además, hemos hecho un pequeño análisis del comportamiento de la línea usando un simulador electromagnético FEM, en el que hemos podido comprobar las posibilidades de análisis de la línea, tanto en su comportamiento con parámetros S como en análisis de campos, y hemos mostrado algunos de los circuitos que se pueden realizar con esta tecnología, comprobando la versatilidad de la línea de transmisión.


  1. Gupta, K.C., et al. “Microstrip Lines and Slotlines”. 2nd. s.l. : Artech House, Inc, 1996. ISBN 0-89006-766-X.