SHARENG Divulgación

Inicio » Física

Category Archives: Física

Simulando transiciones en guía de onda

adapterLas guías de onda son líneas de transmisión muy utilizadas en aplicaciones de muy alta frecuencia como elementos de propagación guiada. Sus mayores ventajas son la reducción de pérdidas en la propagación, debido al uso de un sólo conductor y aire, en lugar de usar dieléctricos como en el cable coaxial, un mayor capacidad para usar potencias elevadas y una construcción sencilla. Sus principales inconvenientes suelen ser que son dispositivos voluminosos, que no pueden funcionar por debajo de su frecuencia de corte y que las transiciones de guía a otras tecnologías (como coaxial o microstrip) suelen tener pérdidas. La simulación por el método de los elementos finitos (FEM), permite, no obstante, estudiar y optimizar las transiciones que se pueden realizar con estos dispositivos, obteniendo muy buenos resultados. En esta entrada vamos a estudiar las guías de onda usando un simulador FEM como HFSS, que es capaz de analizar los campos electromagnéticos en 3D.

Las guías de onda son muy populares en los circuitos de muy alta frecuencia, debido a la facilidad de construcción y bajas pérdidas. Los campos propagados, a diferencia de las guías coaxiales, son transversales eléctricos o magnéticos (campos TE o TM), por lo que tienen una componente de campo magnético (los TE) o campo eléctrico (los TM) en la dirección de propagación. Estos campos son resultado de la solución de la ecuación de Helmholtz bajo determinadas condiciones de contorno

Fig. 1 – Ecuación de Helmholtz para ambos modos

mmque resolviendo por separación de variables, y aplicando las condiciones de contorno de un recinto rectangular donde todas las paredes son paredes eléctricas (conductores, en las que la componente tangencial del campo eléctrico se anula)

Fig. 2 – Condiciones de contorno de la guía rectangular

obtenemos un conjunto de soluciones para el campo electromagnético en el interior de la guía, partiendo de la solución obtenida para las expresiones de la fig. 1.

Fig. 3 – Tabla de campos electromagnéticos y parámetros en guías rectangulares

Por tanto, los campos electromagnéticos se propagan en forma de modos de propagación, denominados TEmn, si son transversales eléctricos (Ez=0), o TMmn, si son transversales magnéticos (Hz=0). De la constante de propagación Kc obtenemos una expresión para la frecuencia de cortefc, que es la frecuencia más baja a la que se pueden propagar campos dentro de la guía, y cuya expresión es

Fig. 4 – Frecuencia de corte de una guía rectangular

El modo más bajo se da cuando m=0, ya que a aunque la función tiene extremos para m,n=0, no existen los modos TE00 o TM00. Y como a>b, la frecuencia de corte más baja de la guía se da en el modo TE10. Ese es el modo que vamos a analizar mediante simulación FEM en 3D.

SIMULACIÓN DE UNA GUÍA RECTANGULAR POR EL MÉTODO DE LOS ELEMENTOS FINITOS

En un simulador 3D es muy sencillo modelar una guía rectangular, ya que basta dibujar un rectángulo de las dimensiones adecuadas a y b. En este caso vamos a usar a=3,10mm y b=1,55mm. El modo TE10 se comenzará a propagar a 48GHz y el segundo modo, el  TE01, a 97GHz, así que vamos a analizar la guía a 76HGz, que es donde queremos hacerla funcionar. La guía, dibujada en un simulador como HFSS, se ve así

Fig. 5 – Guía rectangular. Modelo en HFSS

El prisma rectangular interior se asigna al vacío como medio material, y en los laterales se asignan paredes eléctricas como condiciones de contorno. A los rectángulos de los planos -z/2 y +z/2 se les asignan sendas fuentes de excitación, con el primer modo de propagación.

El campo eléctrico propagado a lo largo de la guía es de la forma

Fig. 6 – Campo eléctrico en el interior de la guía

Analizando los parámetros S de la guía, de 40 a 90GHz, obtenemos

Fig. 7 – Parámetros S de la guía rectangular

donde podemos ver  que es a partir de 48,5GHz cuando comienza a haber propagación en la guía.

A partir de 97GHz, el modo TE01 se comenzaría a propagar también, no interesándonos y centrándonos en los 76GHz, que es donde se quiere hacer funcionar la guía.

TRANSICIONES EN GUIAS DE ONDA

Las transiciones más comunes son aquellas que van de la guía a coaxial, o de guía a línea microstrip, para poder utilizar la energía propagada en otro tipo de aplicaciones. Para ello, lo que se hace es colocar una sonda en la dirección del campo eléctrico (en el modo TE01 es la dirección y), para que la energía que está asociada a ese campo se acople directamente a la sonda

Fig. 8 – Posición de la sonda

La sonda consiste en una antena resonante de cuarto de longitud de onda a la frecuencia que queremos acoplar. En el eje x, el máximo del campo eléctrico se encuentra en x=a/2, mientras que para encontrar el máximo en la dirección de propagación z, cerramos con un cortocircuito la guía, de modo que el campo E es mínimo en la pared de la guía, siendo máximo a un cuarto de onda de la longitud de onda de la guía, que es

Fig. 9 – Longitud de onda de la guía

y en nuestro caso, a 76GHz, λ es 3,95mm mientras que λg es 5,11mm. Por tanto, la longitud de la sonda será 0,99mm y la distancia al cortocircuito 2,56mm.

En transiciones coaxiales, basta con poner un coaxial cuyo conductor interno emerja en λ/4 a λg/4 del cortocircuito. Pero en transiciones a microstrip se usan dieléctricos como soporte de las pistas de metal, por lo que hay que tener en cuenta el efecto del dieléctrico sobre la longitud de onda del material.

Nuestra transición puede ser modelada en HFSS asignando diferentes materiales. Construimos la sonda sobre substrato Rogers RO3003, de baja constante dieléctrica y bajas pérdidas, realizando la transición a línea microstrip. Todo el contorno lateral, así como las líneas de metal, se asignan a paredes eléctricas (conductores perfectos), mientras que el soporte de la línea es RO3003. El interior de la guía y la cavidad donde se aloja la transición es vacío. En el extremo de la transición asignamos un puerto.

Fig. 10 – Transición guía rectangular a microstrip

y ahora realizamos la simulación para ver cuáles son los campos y la respuesta de la transición.

Fig. 11 – Campo eléctrico en la transición

donde se puede ver cómo la sonda es excitada por el campo eléctrico y acopla este a la línea microstrip.

Fig. 12 – Parámetros S de la transición

Viendo la respuesta de los parámetros S, podemos ver que el acoplamiento con menos pérdidas de retorno se produce en la banda de 76÷78GHz, que es donde deseábamos que nuestra transición funcionase.

OTROS DISPOSITIVOS EN GUIA DE ONDA: LA T MÁGICA

Dentro de los componentes populares que se pueden realizar en guía de onda, uno de los más populares es la T mágica, un combinador especial que puede ser usado como divisor  como combinador y como sumador/restador de señales.

Fig. 13 – T Mágica

El funcionamiento es muy sencillo: cuando se excita un campo electromagnético por el puerto 2, la señal sale dividida y en fase por los puertos 1 y 3. El puerto 4 queda aislado porque su plano E es perpendicular al plano E del puerto 2. En cambio, si el campo se excita desde el puerto 4, éste se divide en los puertos 1 y 3 en contrafase (180deg) mientras que el puerto 2 queda aislado.

Vamos a usar la simulación FEM para analizar la T mágica, y excitamos la potencia por el puerto 2, obteniendo

Fig. 14 – Campo eléctrico dentro de la T mágica  excitando desde el puerto 2.

donde se puede ver que la potencia es repartida en los puertos 1 y 3 mientras que el puerto 4 queda aislado. Haciendo lo mismo desde el puerto 4, obtenemos

Fig. 15 – Campo eléctrico en el interior de la T mágica excitando desde el puerto 4.

donde ahora es el puerto 2 el que queda aislado.

Para poder ver las fases, es necesario recurrir a un diagrama vectorial del campo eléctrico

Fig. 16 – Campo eléctrico vectorial excitando desde el puerto 2

donde se ve que el campo en los puertos 1 y 3 tiene la misma orientación y por tanto están en fase. Excitando desde el puerto 4

Fig. 17 – Campo eléctrico vectorial excitando desde el puerto 4

en la que se ve que las señales en el puerto 1 y 3 son del mismo nivel, pero están en contrafase (180deg entre ellas).

La simulación FEM nos permite analizar el comportamiento del campo electromagnético desde diferentes puntos de vista, ya que podemos cambiar las excitaciones. Por ejemplo, si introducimos por 2 una señal en fase con la que introducimos en 4, ambas señales se sumarán en fase en 3 y se anularán en 1.

Fig. 18 – Campo eléctrico en el interior de la guía excitando desde 2 y 4 en fase.

mientras que si invertimos la fase en 2 o en 4, las señales se sumaran en 1 y se anularán en 3.

Fig. 19 – Campo eléctrico en el interior de la guía excitando desde 2 y 4 en contrafase

con lo que estamos haciendo un sumador/restador de señales.

CONCLUSIONES

El objeto de la entrada era el análisis del comportamiento eléctrico de las guías de onda a través de un simulador 3D que usa el método de los elementos finitos (FEM). La ventaja del uso de estos simuladores es que permiten analizar con buena precisión los campos electromagnéticos en estructuras tridimensionales, siendo el modelado la parte más importante para definir correctamente la estructura a estudiar, ya que un simulador tridimensional requiere realizar un mallado en la estructura, y este mallado, a medida que necesita más tetraedros para lograr una buena convergencia, tiende también a necesitar más memoria de máquina y capacidad de procesado.
Las estructuras analizadas, debido a su simplicidad, no han requerido de tiempos largos de simulación y capacidad de procesado relevantes, pero a medida que se hacen más complejos los modelos, la capacidad de procesado aumenta, si se desea conseguir una buena precisión.

En posteriores entradas analizaremos otros métodos para lograr reducir el modelado en estructuras complejas, a través del uso de planos de simetría que permiten dividir la estructura y reducir considerablemente el mallado.

REFERENCIAS

  1. Daniel G. Swanson, Jr.,Wolfgang J. R. Hoefer; “Microwave Circuit Modeling Using Electromagnetic Field Simulation”; Artech House, 2003, ISBN 1-58053-308-6
  2. Paul Wade, “Rectangular Waveguide to Coax Transition Design”, QEX, Nov/Dec 2006
Anuncios

Diseñando con la Carta de Smith 3D

La Carta de Smith es una herramienta habitual en el diseño de circuitos de RF. Desarrollada por Phillip Smith en 1939, se ha convertido en el método gráfico más popular para representar impedancias y resolver de forma sencilla operaciones con números complejos. Tradicionalmente la Carta de Smith se ha usado en su forma polar, para dos dimensiones, en un círculo de radio 1. Sin embargo, la carta en su formato 2D presenta algunas restricciones cuando se trata de representar impedancias activas de osciladores o círculos de estabilidad de amplificadores, ya que estas últimas representaciones suelen salirse de la carta. En los últimos años se ha popularizado el uso de la Carta de Smith tridimensional. Los avances en el software de representación 3D posibilitan su uso para el diseño. En esta entrada se va a tratar de conocer el manejo de la Carta de Smith tridimensional y su aplicación a un secillo amplificador de baja figura de ruido.

Cuando Phillip Smith estaba trabajando en los Laboratorios Bell, se encontró con la necesidad de tener que adaptar una antena y para ello buscó una forma de resolver el problema gráficamente. Mediante las expresiones matemáticas que rigen las impedancias en las líneas de transmisión, logró representar el plano complejo de impedancias mediante círculos de resistencia y reactancia constante. Estos círculos le facilitaban el poder representar cualquier impedancia en un espacio polar, con la máxima adaptación situada en el centro de la carta y el círculo exterior representando la reactancia pura. Tradicionalmente, la carta de Smith ha sido representada en forma polar tal y como se observa a continuación.

Fig. 1 – Carta de Smith tradicional

Las impedancias se representan normalizadas, esto es, se representa la relación entre la impedancia que se quiere representar y la impedancia de generador. El centro de la carta es la resistencia pura unidad (máxima adaptación) mientras que el círculo periférico que limita la carta es la reactancia pura. El extremo izquierdo de la carta representa el cortocircuito puro y el extremo derecho, el circuito abierto puro. La carta se hizo enseguida muy popular para poder realizar cálculos de adaptación de impedancias con líneas de transmisión usando el método gráfico. Sin embargo,las dificultades de diseño con la carta empezaron a producirse cuando se quería analizar dispositivos activos como amplificadores, para estudiar su estabilidad, y osciladores.

Obviamente, la carta limita a las impedancias de parte real positiva, pero la carta puede representar, mediante extensión del plano complejo a través de la transformación de Möbius, impedancias con parte real negativa [1]. Esta carta expandida al plano de parte real negativa se puede ver en la siguiente figura

Fig. 2-Carta de Smith expandida a parte real negativa

Esta carta, sin embargo, tiene dos inconvenientes: 1) aunque nos permite representar todas las impedancias, existe el problema del infinito complejo, por lo que sigue limitada y 2) la carta toma unas dimensiones grandes que la hacen difícil de manejar en un entorno gráfico, incluso tratándose de un entorno asistido por computador. Sin embargo, su ampliación es necesaria cuando se desean analizar los círculos de estabilidad en amplificadores, ya que en muchas ocasiones, los centros de estos círculos están situados fuera de la carta de impedancias pasivas.

En un entorno gráfico por computador, representar los círculos ya lo realiza el propio programa a través de sus cálculos, pudiendo limitar la carta a la carta pasiva y dibujando sólo una parte del círculo de estabilidad. Pero con osciladores se sigue teniendo el problema del infinito complejo, cosa que se resuelve a través de la esfera de Riemann.

ESFERA DE RIEMANN

La esfera de Riemann es la solución matemática para representar todo el plano complejo, incluido el infinito. Toda la superficie compleja se representa en una superficie esférica mediante una proyección estereográfica de dicho plano.

Fig. 3 – Proyección del plano complejo a una esfera

En esta representación el hemisferio sur de la esfera representa el origen, el hemisferio norte representa el infinito y el ecuador el círculo de radio unidad. La distribución de los valores complejos en la esfera se puede ver en la siguiente figura

Fig. 4 – Distribución de los valores complejos en la esfera

De este modo, es posible representar cualquier número del espacio complejo en una superficie manejable.

REPRESENTANDO LA CARTA DE SMITH EN UNA ESFERA DE RIEMANN

Como la Carta de Smith es una representación compleja, se puede proyectar del mismo modo a una esfera de Riemann [2], tal y como se muestra en la figura siguiente

Fig. 5 – Proyección de la Carta de Smith sobre una esfera de Riemann

En este caso, el hemisferio norte corresponde a la impedancias de parte resistiva positiva (impedancias pasivas), en el hemisferio sur se representan las impedancias con resistencia negativa (impedancias activas), en el hemisferio este se representan las impedancias inductivas y en el oeste las impedancias capacitivas. El meridiano principal se corresponde con la impedancia resistiva pura.

Así, se se desea representar una impedancia cualquiera, ya sea activa o pasiva, se puede representar en cualquier punto de la esfera, facilitando notablemente su representación. Del mismo modo, se pueden representar los círculos de estabilidad de cualquier amplificador sin tener que expandir la carta. Por ejemplo, si queremos representar los círculos de estabilidad de un transistor cuyos parámetros S a 3GHz son

S11=0,82/-69,5   S21=5,66/113,8   S12=0,03/48,8  S22=0,72/-37,6

el resultado en la carta de Smith convencional sería

Fig. 6 – Representación tradicional de los círculos de estabilidad

mientras que en la carta tridimensional sería

Fig. 7 – Círculos de estabilidad en la carta tridimensional

donde se pueden ver ubicados ambos círculos, parte en el hemisferio norte y parte en el sur. Como se puede ver, se ha facilitado enormemente su representación.

UNA APLICACIÓN PRÁCTICA: AMPLIFICADOR DE BAJO RUIDO

Vamos a ver una aplicación práctica de la carta tratando de conseguir que el amplificador de la sección anterior esté adaptado a la máxima ganancia estable y mínima figura de ruido, a 3GHz. Usando los métodos tradicionales, y conociendo los datos del transistor, que son

S11=0,82/-69,5   S21=5,66/113,8   S12=0,03/48,8  S22=0,72/-37,6

NFmin=0,62  Γopt=0,5/67,5 Rn=0,2

Representamos en la carta de Smith tridimensional esos parámetros S y dibujamos los círculos de estabilidad del transistor. Para una mejor representación usamos 3 frecuencias, con un ancho de banda de 500MHz.

Fig. 8 – Parámetros S y círculos de estabilidad del transistor (S11 S21 S12 S22 Círculo se estabilidad de entrada Círculo de estabilidad de salida)

y podemos ver los parámetros S, así como los círculos de estabilidad, tanto en el diagrama polar convencional como en la carta tridimensional. Como se puede observar, en el diagrama polar convencional los círculos se salen de la carta.

Para que un amplificador sea incondicionalmente estable, los círculos de estabilidad deberían estar situados en la zona externa de impedancia pasiva de la carta (en la carta tridimensional, en el hemisferio sur, que es la región expandida) bajo dos condiciones: si los círculos son externos a la carta pasiva y no la rodean, la zona inestable se encuentra en el interior del círculo. Si rodean a la carta, las cargas inestables se encuentran en el exterior del círculo.

Fig. 9 – Posibles situaciones de los círculos de estabilidad en la región activa

En nuestro caso, al entrar parte de los círculos a la región de impedancias pasivas, el amplificador es condicionalmente estable. Entonces las impedancias que podrían desestabilizar el amplificador son las que se encuentran en el interior de los círculos. Esto es algo que todavía no se puede ver con claridad en la carta tridimensional, no parece que lo calcule y sería interesante de incluir en posteriores versiones, porque facilitaría enormemente el diseño.

Vamos ahora a adaptar la entrada para obtener el mínimo ruido. Para ello hay que diseñar una red de adaptación que partiendo de 50Ω llegue al coeficiente de reflexión Γopt y que representa una impedancia normalizada Zopt=0,86+j⋅1,07. En la carta de Smith tridimensional abrimos el diseño y representamos esta impedancia

Fig. 10 – Representación de Γopt

Ahora usando la admitancia, nos desplazamos en la región de conductancia constante hasta que obtengamos que la parte real de la impedancia sea 1. Esto lo hacemos tanteando y obtenemos una subsceptancia de 0,5,. Como hemos tenido que incrementar 0,5–(-0,57)=1,07, esto equivale a una capacidad a tierra de 1,14pF.

Fig. 11 – Transformación hasta el círculo de impedancia con parte real unidad.

Ahora sólo queda colocar un componente que anule la parte imaginaria de la impedancia (reactancia), a resistencia constante. Como la reactancia obtenida es -1,09, hay que añadir 1,09, por lo que el valor de reactancia se anula. Esto equivale a una inducción serie de 2,9nH.

Fig. 12 – Impedancia de generador adaptada a Γopt

Ya tenemos la red de adaptación de entrada que nos consigue la mínima figura de ruido. Como el dispositivo es activo, al colocar esta red de adaptación nos cambian los parámetros S del transistor. Los nuevos parámetros son:

S11=0,54/-177   S21=8,3/61,1   S12=0,04/-3,9  S22=0,72/-48,6

que representamos en la carta de Smith para ver sus círculos de estabilidad.

Fig. 13 – Transistor con entrada adaptada a Γopt y sus círculos de estabilidad

Las regiones inestables son las internas, por lo que el amplificador sigue siendo estable.

Ahora hay que adaptar la salida para obtener la máxima ganancia, por lo que hay que cargar a S22=0,72/-48,6 un coeficiente de reflexión ΓL adaptación conjugada, pasando de 50Ω a un coeficiente de reflexión ΓL=0,72/48,6. Esta operación se realiza del mismo modo que operamos en la adaptación de la entrada. Haciendo esta operación y obteniendo los parámetros S del conjunto completo, con redes de adaptación en entrada y salida, obtenemos

S11=0,83/145   S21=12/-7.5   S12=0,06/-72,5  S22=0,005/162

La ganancia es 20·log(S21)=21,6dB, y la figura de ruido obtenida es 0,62dB, que corresponde a su NFmin. Ahora sólo queda representar en la carta de Smith tridimensional estos parámetros para observar sus círculos de estabilidad.

Fig. 14 – Amplificador de bajo ruido y sus círculos de estabilidad

En este caso, la región estable del círculo de estabilidad de entrada es la interior, mientras que en el círculo de estabilidad de salida es la exterior. Como ambos coeficientes de reflexión, S11 y S22 se encuentran en la región estable, el amplificador es entonces estable.

CONCLUSIONES

En esta entrada hemos tenido la primera toma de contacto con la Carta de Smith tridimensional. El objetivo de la entrada era estudiar su potencial respecto a una herramienta ya tradicional en la ingeniería de Microondas como es la Carta de Smith tradicional. Se observan novedosas ventajas sobre ésta en cuanto a que podemos representar los valores infinitos de la transformada de Möbius sobre una esfera de Riemann y de este modo tener una herramienta gráfica tridimensional donde se pueden representar prácticamente todas las impedancias, tanto pasivas como activas, y parámetros difíciles de representar en la carta tradicional como los círculos de estabilidad.

En su versión 1 la herramienta, que se puede encontrar en la página web 3D Smith Chart / A New Vision in Microwave Analysis and Design, presenta bastantes opciones de diseño y configuración, aunque se echa de menos algunas aplicaciones que, sin duda, irán incorporándose en futuras versiones. En este caso, una de las aplicaciones más ventajosas para la carta, al haber estudiado los círculos de estabilidad de un amplificador, es la ubicación de las regiones de estabilidad de forma gráfica. Aunque esto lo podemos resolver por cálculo, siempre es más ventajosa la imagen visual.

La aplicación tiene un manual de usuario con ejemplos explicados de forma sencilla, de modo que el diseñador se familiarice enseguida con ella. En mi opinión profesional, es una herramienta idónea para los que estamos acostumbrados a usar la carta de Smith para realizar nuestros cálculos de redes de adaptación.

REFERENCIAS

  1. Müller, Andrei; Dascalu, Dan C; Soto, Pablo; Boria, Vicente E.; ” The 3D Smith Chart and Its Practical Applications”; Microwave Journal, vol. 5, no. 7, pp. 64–74, Jul. 2012
  2. Zelley, Chris; “A spherical representation of the Smith Chart”; IEEE Microwave, vol. 8, pp. 60–66, July 2007
  3. Grebennikov, Andrei; Kumar, Narendra; Yarman, Binboga S.; “Broadband RF and Microwave Amplifiers”; Boca Raton: CRC Press, 2016; ISBN 978-1-1388-0020-5

Ajustando filtros mediante el método de Dishal

filtroEn Telecomunicaciones es usual tener que usar filtros para poder eliminar frecuencias indeseadas. Estos filtros suelen ser de bandas muy estrechas y se suelen utilizar técnicas de líneas acopladas, por lo que en la mayor parte de los diseños se debe recurrir a la simulación electromagnética para verificar el diseño. La simulación electromagnética, aunque es una potente herramienta, suele ser lenta si se desea optimizar mediante algoritmos convencionales. Aunque estos algoritmos están incluidos en la mayor parte de los simuladores electromagnéticos, ya sea en 2D o en 3D, si la respuesta del filtro está muy alejada de la deseada, la optimización suele ser muy lenta, por lo que se requieren otros métodos que permitan ajustar previamente antes de realizar una optimización final. Uno de los métodos es el de Dishal, en el que se puede sintonizar un filtro de varias secciones a base de sintonizar cada una de ellas. En esta entrada, sintonizaremos un filtro microstrip de tipo HAIRPIN, de resonadores λ/2 acoplados, usando un simulador electromagnético como HPMomentum.

Los filtros son los dispositivos más comunes que se usan en Telecomunicaciones. Eliminan las frecuencias interferentes y el ruido, pudiendo procesar la señal recibida o transmitida de una forma más eficiente. Tienen bastante literatura para su diseño, y existen muchas combinaciones para obtener su respuesta. Sin embargo, es uno de los dispositivos en los que es más difícil obtener un óptimo resultado. Su sintonía física requiere habilidad y entrenamiento, y su sintonía en simulación paciencia y tiempo. Sin embargo, existen técnicas que permiten la optimización de un filtro a base de usar metodologías de ajuste que permita acercarse a los parámetros ideales del filtros. Una de metodología que permite sintonizar un filtro de forma sencilla es el método de Dishal y es el que vamos a usar para sintonizar un filtro paso banda HAIRPIN para la banda de subida de LTE-UHF.

Esta metodología permite realizar el ajuste de un filtro paso banda acoplado sintonizando tanto de los factores de calidad Qi y Qo que necesita el filtro para ser cargado, como de los factores de acoplamiento Mi,i+1 que acoplarán las diferentes etapas, de forma independiente. Estos parámetros son calculados a través de los parámetros del filtro prototipo, que se pueden obtener ya sea a través de las tablas presentes en cualquier libro de diseño de filtros como en programas de cálculo como MatLab. Las expresiones para calcular los parámetros fundamentales de un filtro paso banda acoplado son

formulas

donde fh y fl son las frecuencias de corte de la banda pasante, f0 es la frecuencia central y FBW el ancho de banda fraccional. Los valores g0..gn son los coeficientes del filtro prototipo normalizado. Con estos valores obtendremos los parámetros de acoplamiento de nuestro filtro.

FILTRO PASO BANDA HAIRPIN DE 5 SECCIONES

Vamos a desarrollar un filtro paso banda en tecnología microstrip, usando una configuración HAIRPIN de resonadores λ/2 acoplados. En este filtro, la línea resonante es una línea λ/2, que se acopla al siguiente resonador mediante la sección λ/4. O más concretamente, entre un 85 y un 95% de λ/4. Su denominación HAIRPIN es debida a que tiene forma física de peine. Nuestro filtro va a tener las siguientes características fundamentales:

  • Banda pasante : 791÷821MHz (banda de UHF para LTE de subida)
  • Número de secciones: 5
  • Tipo de filtro: Chebychev 1
  • Factor de rizado: 0,1dB
  • Impedancias de generador y carga: 50Ω

Con estos valores acudimos a las tablas para obtener los coeficientes g0..g6 del filtro prototipo y aplicando las expresiones anteriores obtenemos que

  • Qi=Qo=30,81
  • M12=M45=0,0297
  • M23=M34=0,0226

Con estos coeficientes se pueden calcular las impedancias Zoe y Zoo que definirán las líneas acopladas, así como la posición de los feeds de entrada y salida. En este último caso, esta posición se puede obtener a partir de

feed

Como soporte vamos a usar un substrato Rogers, el RO3006, que tiene una εr=6,15, usando un espesor de 0,76mm y 1oz de cobre (35μm). Con este substrato, el filtro obtenido es:

filter

y con estos valores, pasaremos a la simulación.

SIMULACIÓN DEL FILTRO PASO BANDA

Usando HPMomentum, el simulador electromagnético de ADS, vamos a poder simular la respuesta de este filtro, que se puede ver en la siguiente gráfica

Resultado de la simulación del filtro

Resultado de la simulación del filtro

que, la verdad sea dicha, no se nos parece ni por asomo a lo que pretendíamos realizar. El filtro está cerca de la frecuencia f0, tiene un ancho de banda de 30MHz, pero ni está centrado ni el rizado es, ni de lejos, 0,1dB. Por tanto, habrá que recurrir a una sintonía usando el método de Dishal y así llevar el filtro a la frecuencia deseada, con el acoplamiento deseado.

Buscando la posición del alimentador

Buscando la posición del alimentador

AJUSTANDO EL Q EXTERNO

En primer lugar vamos a ajustar los factores de calidad de los resonadores de generador y de carga, que tienen que ser de 30,81. Como ambos son iguales, la sintonía obtenida servirá para los dos. Para ajustar los Qi y Qo, tendremos que buscar la posición adecuada de la alimentación para que el valor sea el deseado.

Para calcular el Qext, se evalúa el coeficiente de reflexión del resonador y se obtiene su retardo de grupo. El factor de calidad será

qext Cuando hacemos la primera simulación y representamos Qext, obtenemos

qext2

donde se puede comprobar que ni el filtro está centrado ni su factor de calidad es el deseado. Para centrar el filtro, aumentamos la distancia entre las líneas en 1,1mm y recortamos las líneas resonantes en 0,34mm. De este modo, obtenemos

qext2_2

en el que ya están centradas las líneas, siendo el Qext de 37,28. Ahora aumentamos la distancia del feed al extremo de la pista en 0,54mm y obtenemos el Qext deseado.

qext2_3

Ya tenemos centrado el filtro y con el Qext requerido. Ahora tocaría ajustar los acoplamientos.

AJUSTE DE LOS ACOPLAMIENTOS

Para ajustar los acoplamientos, primero separamos el feed unos 0,2mm de la línea, y hacemos un espejo de la misma para que quede como sigue

coup_1

En este caso, para medir el acoplamiento usamos los picos que salen en la transmisión (S21), y aplicamos la expresión

coup_2

El resultado de la simulación, para el primer acoplo, es

coup_3

que como podemos comprobar está en el valor requerido.

En el caso del segundo acoplo

coup_4

que también está cerca de su valor requerido. Por tanto, con los cambios obtenidos, simulamos el filtro total y obtenemos

Filtro después de la primera sintonía

Filtro después de la primera sintonía

que ya se acerca al filtro deseado.

REITERANDO LA SINTONÍA

Si reiteramos sobre la sintonía, podremos llegar a mejorar el filtro hasta los valores que deseemos. Así, disminuyendo el Qext obtenemos

Disminución del Qext

Disminución del Qext

que supone ya una mejora importante. Jugando ahora con los acoplamientos, disminuyéndolos, llegamos a obtener

filt_3

Ajuste de los acoplamientos

que podemos dar por válido. Por tanto, el método de Dishal nos ha permitido, a partir de los parámetros calculados, ajustar el filtro hasta obtener las características deseadas.

CONCLUSIONES

Hemos analizado el método de Dishal como herramienta para el ajuste y sintonización de un filtro paso banda de 5 secciones, con óptimos resultados. La sencillez del método permite ajustar los principales parámetros de forma independiente, de manera que el ajuste final u optimización sean más sencillas, cosa de agradecer en simuladores electromagnéticos, que requieren de potencia de cálculo y tiempo de simulación. Vemos que el método, realizado paso a paso, nos permite ir ajustando las características hasta obtener el resultado deseado, por lo que podemos concluir que es un método muy útil en sintonización de filtros, tanto en discretos como en distribuidos, y que bien usado permite acercarse lo suficientemente al resultado final como para que la optimización electromagnética sea innecesaria.

REFERENCIAS

  1. Zverev, Anatol I., “Handbook of Filter Synthesys”, Hoboken, New Jersey : John Wiley & Sons Inc., 1967. ISBN 978-0-471-74942-4.

Análisis estadísticos usando el método de Monte Carlo (y III)

imagesCon esta entrada cerramos el capítulo dedicado al análisis de Monte Carlo. En las dos entradas anteriores vimos cómo se podía usar éste método para analizar los eventos que pueden ocurrir en un dispositivo electrónico, sino también lo que sucede cuando tenemos variables correladas y cuando sometemos al circuito a un ajuste posproducción. Estos análisis son estimables, puesto que nos permiten conocer previamente el funcionamiento de nuestro circuito y tomar decisiones acerca del diseño, elegir las topologías y componentes adecuados y realizar un primer diseño en el que se optimice al máximo el comportamiento del nuestro circuito. En esta entrada vamos a ver un ejemplo, incluyendo un factor que suele ser importante y que tampoco se suele tener en cuenta en las simulaciones, y que es el análisis térmico. En este caso, utilizaremos un amplificador de potencia diseñado para trabajar en conmutación, que alimenta a una carga. El objetivo es encontrar el componente más sensible en el amplificador y poder elegir la topología o componente adecuados para que el circuito siga funcionando en todas las condiciones definidas.

Hemos visto lo útil que puede llegar a ser el análisis de Monte Carlo para elegir topologías y componentes, e incluso para definir el ajuste que tenemos que hacer en el caso de que se produzca defectivo durante un proceso de fabricación. Este análisis reduce el tiempo de desarrollo físico, porque proporciona de antemano una información importante de cómo se va a comportar nuestro diseño, antes de montarlo y evaluarlo. No obstante, hay que llegar más allá, rizando el rizo, y añadiendo el comportamiento térmico.

Los dispositivos electrónicos están no sólo sometidos a variaciones de valores nominales, debidas a su estructura física, sino que también presentan variaciones térmicas en función de la temperatura a la que estén sometidos en su funcionamiento. Los dispositivos que más suelen sufrir estas variaciones térmicas suelen ser aquellos que disipan elevadas cantidades de potencia, como las fuentes de alimentación, los microprocesadores y los amplificadores. Las variaciones térmicas desgastan el componente y comprometen su vida útil, reduciendo su vida media cuando trabajan al límite. Si hacemos estos análisis previamente, podemos marcar las pautas para lograr el mejor funcionamiento posible y obtener un diseño que garantice una vida media suficiente.

Estudio sobre un amplificador de potencia

A continuación vamos a estudiar el efecto producido sobre un amplificador de potencia en clase E, como el de la figura.

Amplificador clase E con MOSFET

Amplificador clase E con MOSFET

Este amplificador proporciona a una carga de 6+j⋅40Ω, a 1,5MHz, una potencia de AC de 23W, con una eficiencia del 88% sobre la potencia DC entregada por la fuente de alimentación. El MOSFET, que es el elemento que más se calienta cuando está disipando la potencia de conmutación, que es del orden de 2,5W, es el elemento más crítico del sistema, ya que hay que garantizar una extracción del calor que haga que su unión no se rompa por superar la temperatura de unión. El valor máximo que puede alcanzar dicha temperatura es 175ºC, pero se establece una temperatura de seguridad de 150ºC. Por tanto, el diseño realizado debe de ser capaz de soportar cualquier variación de potencia AC que pueda superar la temperatura máxima, no sólo en condiciones normales (a temperatura ambiente de 25ºC), sino incluyendo las variaciones que se puedan producir en el consumo del dispositivo activo debido a las tolerancias de los componentes.

En este circuito, los componentes más críticos, aparte de la dispersión que presenta el propio MOSFET, son los componentes pasivos. Estos componentes forman parte de la red de adaptación, que transmite la máxima energía desde la alimentación a la carga y provocan una variación en la respuesta del drenador que influye en su consumo. Siendo potencias considerables, con valores superiores a 10W, la variación de carga provocará variaciones importantes en la potencia disipada en el MOSFET y su estudio nos mostrará las necesidades para la extracción del calor generado en el MOSFET por efecto Joule.

Análisis estadístico en condiciones normales

Lo primero que tenemos es que analizar el circuito en condiciones normales de laboratorio (25ºC, 760mmHg, 50-70% de humedad relativa) y ver las variaciones que presenta, sólo por tolerancias. Consideramos tolerancias gaussianas de ±5% en valores límite, y analizamos exclusivamente las tolerancias en estas condiciones, para un 500 eventos. De esta manera podemos ver cómo afectan los componentes a la respuesta del circuito a través de la siguiente gráfica

Potencia

Potencia de DC y potencia en la carga, frente a número de eventos

El histograma azul representa la potencia de DC suministrada por la carga, cuyo valor central máximo es de 26,4W, mientras que el histograma rojo es la potencia transferida a la carga, cuyo valor central máximo es de 23,2W. Esto representa un 87,9% de eficiencia en la entrega de potencia. La desviación estándar de la potencia de carga es ±1,6%, lo que significa una tolerancia de ±6,5% en los valores límite. Bajo estas condiciones, podemos representar la potencia disipada del MOSFET, que se puede ver en la siguiente gráfica

Potencia disipada en el MOSFET vs. número de eventos

Potencia disipada en el MOSFET, frente al número de eventos

donde obtenemos una potencia media de 2,9W y una desviación estándar de 1,2W. Esto significa que la potencia máxima puede llegar a ser del orden de 7,8W.

Si calculamos con estos valores la diferencia entre la temperatura de la unión y la ambiente, teniendo en cuenta que las resistencias térmicas Rth-JC=1,7K/W y Rth-CH=0,7K/W, y usando un disipador con una resistencia térmica en condiciones de ventilación no forzada de Rth-HA=10K/W, se puede obtener, para una Tamb=25ºC

temp

Por tanto, a 25ºC, con una refrigeración no forzada, la temperatura de la unión está a 118,95ºC en el valor límite de potencia consumida por el MOSFET, proporcionándonos un margen suficiente sobre los 150ºC máximos a los que la unión se rompe.

Análisis estadístico para tres temperaturas

El análisis anterior nos garantiza un correcto funcionamiento en condiciones normales, pero, ¿qué ocurre cuando subimos o bajamos la temperatura? Vamos a analizar bajo tres condiciones de temperatura: 0ºC, 25ºC y 50ºC, y para representarlo usaremos un histograma multidimensional, en el que agruparemos todos los eventos sin discernir temperaturas. De este modo obtenemos

Potencia de DC y potencia en la carga, frente a número de eventos y temperatura

Potencia de DC y potencia en la carga, frente a número de eventos y temperatura

donde la potencia media entregada a la carga, en todas las condiciones, es 22,6W, para todas las condiciones térmicas, y la eficiencia media es del 86,6%, cubriendo el rango de temperaturas entre 0ºC y 50ºC.

Analizando ahora la potencia disipada por el MOSFET, en las mismas condiciones

temp_mos_power

Potencia disipada en el MOSFET, frente al número de eventos y la temperatura

donde calculando el valor medio, se obtiene 2,9W, con un máximo de 7,8W. Estos valores, similares al calculado anteriormente, muestran que la máxima temperatura de la unión va a ser 143,95ºC, a 7ºC de la temperatura máxima de seguridad de 150ºC, y por tanto a 32ºC de la temperatura máxima de la unión.

Por tanto, podemos concluir del análisis que el circuito diseñado, bajo las condiciones de temperatura ambiente de 0ºC a 50ºC, y siempre con un disipador con una resistencia térmica en ventilación no forzada de Rth-HA=10K/W, presentará un funcionamiento óptimo para el rango de potencia de carga.

CONCLUSIÓN

Con esta entrada finalizamos el capítulo dedicado al análisis usando el método de Monte Carlo. Con los análisis realizados, hemos cubierto la optimización de características a través de diferentes topologías, el ajuste posproducción en un proceso de montaje industrial y el análisis térmico para comprobar los límites de seguridad en los que trabaja un circuito de potencia. No obstante, el método proporciona muchas más posibilidades que se pueden explorar a partir de estos sencillos experimentos.

REFERENCIAS

  1. Castillo Ron, Enrique, “Introducción a la Estadística Aplicada”, Santander, NORAY, 1978, ISBN 84-300-0021-6.
  2. Peña Sánchez de Rivera, Daniel, “Fundamentos de Estadística”, Madrid,  Alianza Editorial, 2001, ISBN 84-206-8696-4.
  3. Kroese, Dirk P., y otros, “Why the Monte Carlo method is so important today”, 2014, WIREs Comp Stat, Vol. 6, págs. 386-392, DOI: 10.1002/wics.1314.

Análisis estadísticos usando el método de Monte Carlo (II)

Art02_fig01En la anterior entrada mostramos con una serie de ejemplos simples cómo funciona el método de Monte Carlo para realizar análisis estadísticos. En esta entrada vamos a profundizar un poco más, haciendo un análisis estadístico más profundo sobre un sistema algo más complejo, analizando una serie de variables de salida y estudiando sus resultados desde una serie de ópticas que resultarán bastante útiles. La ventaja que tiene la simulación es que podemos realizar una generación aleatoria de variables, y además, podemos establecer una correlación de esas variables para conseguir distintos efectos al analizar el funcionamiento de un sistema. Así, cualquier sistema no sólo se puede analizar estadísticamente mediante una generación aleatoria de entradas, sino que podemos vincular esa generación aleatoria a análisis de lotes o fallos en la producción, así como su recuperación post-producción.

Los circuitos que vimos en la anterior entrada eran circuitos muy sencillos que permitían ver cómo funciona la asignación de variables aleatorias y el resultado obtenido cuando estas variables aleatorias forman parte de un sistema más complejo. Con este análisis, podíamos comprobar un funcionamiento y hasta proponer correcciones que, por sí solas, limitasen las variaciones estadísticas del sistema final.

En este caso, vamos a estudiar el efecto dispersivo que tienen las tolerancias sobre uno de los circuitos más difíciles de conseguir su funcionamiento de forma estable: el filtro electrónico. Partiremos de un filtro electrónico de tipo paso banda, sintonizado a una determinada frecuencia y con una anchura de banda de paso y rechazo determinadas, y realizaremos varios análisis estadísticos sobre el mismo, para comprobar su respuesta cuando se somete a las tolerancias de los componentes.

DISEÑO DEL FILTRO PASO BANDA

Vamos a plantear el diseño de un filtro paso banda, centrado a una frecuencia de 37,5MHz, con un ancho de banda de 7MHz para unas pérdidas de retorno mayores que 14dB, y un ancho de banda de rechazo de 19MHz, con atenuación mayor de 20dB. Calculando el filtro, se obtienen 3 secciones, con el siguiente esquema

Filtro paso banda de tres secciones

Filtro paso banda de tres secciones

Con los valores de componentes calculados, se buscan valores estándar que puedan hacer la función de transferencia de este filtro, cuya respuesta es

Respuesta en frecuencia del filtro paso banda

Respuesta en frecuencia del filtro paso banda

donde podemos ver que la frecuencia central es 37,5MHz, que las pérdidas de retorno están por debajo de 14dB en ±3,5MHz de la frecuencia central y que el ancho de banda de rechazo es de 18,8MHz, con 8,5MHz a la izquierda de la frecuencia central y 10,3MHz a la derecha de la frecuencia central.

Bien, ya tenemos diseñado nuestro filtro, y ahora vamos a hacer un primer análisis estadístico, considerando que las tolerancias de los condensadores son ±5%, y que las inducciones son ajustables. Además, no vamos a indicar correlación en ninguna variable, pudiendo tomar cada variable un valor aleatorio independiente de la otra.

ANÁLISIS ESTADÍSTICO DEL FILTRO SIN CORRELACIÓN ENTRE VARIABLES

Como vimos en la entrada anterior, cuando tenemos variables aleatorias vamos a tener dispersión en la salida, así que lo óptimo es poner unos límites según los cuales podremos considerar el filtro válido, y a partir de ahí analizar cuál es su respuesta. Para ello se recurre al análisis YIELD, que es un análisis que, usando el algoritmo de Monte Carlo, nos permite comprobar el rendimiento o efectividad de nuestro diseño. Para realizar este análisis hay que incluir las especificaciones según las cuales se puede dar el filtro por válido. Las especificaciones elegidas son unas pérdidas de retorno superiores a 13,5dB entre 35÷40MHz, con una reducción de 2MHz en la anchura de banda, y una atenuación mayor de 20dB por debajo de 29MHz y por encima de 48MHz. Haciendo el análisis estadístico obtenemos

Análisis estadístico del filtro. Variables sin correlación.

Análisis estadístico del filtro. Variables sin correlación.

que, sinceramente, es un desastre: sólo el 60% de los posibles filtros generados por variables con un ±5% de tolerancia podrían considerarse filtros válidos. El resto no serían considerados como válidos en un control de calidad, lo que significaría un 40% de material defectivo que se devolvería al proceso de producción.

De la gráfica se puede ver, además, que son las pérdidas de retorno las principales responsables de que exista tan bajo rendimiento. ¿Qué podemos hacer para mejorar este valor? En este caso, tenemos cuatro variables aleatorias. Sin embargo, dos de ellas son del mismo valor (15pF), que cuando son montadas en un proceso productivo, suelen pertenecer al mismo lote de fabricación. Si estas variables no presentan ninguna correlación, las variables pueden tomar valores completamente dispares. Cuando las variables no presentan correlación, tendremos la siguiente gráfica

Condensadores C1 y C3 sin correlación

Condensadores C1 y C3 sin correlación

Sin embargo, cuando se están montando componentes de un mismo lote de fabricación, las tolerancias que presentan los componentes varían siempre hacia el mismo sitio, por tanto hay correlación entre dichas variables.

ANÁLISIS ESTADÍSTICO DEL FILTRO CON CORRELACIÓN ENTRE VARIABLES

Cuando usamos la correlación entre variables, estamos reduciendo el entorno de variación. En este caso, lo que analizamos no es un proceso totalmente aleatorio, sino lotes de fabricación en los cuales se producen las variaciones. En este caso, hemos establecido la correlación entre las variables C1 y C3, que son del mismo valor nominal y que pertenecen la mismo lote de fabricación, por lo que ahora tendremos

Condensadores C1 y C3 con correlación

Condensadores C1 y C3 con correlación

donde podemos ver que la tendencia a la variación en cada lote es la misma. Estableciendo entonces la correlación entre ambas variables, estudiamos el rendimiento efectivo de nuestro filtro y obtenemos

Análisis estadístico con C1, C2 variables correladas

Análisis estadístico con C1, C2 variables correladas

que parece todavía más desastroso. Pero ¿es así? Tenemos que tener en cuenta que la correlación entre variables nos ha permitido analizar lotes completos de fabricación, mientras que en el análisis anterior no se podía discernir los lotes. Por tanto, lo que aquí hemos obtenido son 26 procesos de fabricación completos exitosos, frente al caso anterior que no permitía discernir nada. Por tanto, esto lo que nos muestra es que de 50 procesos completos de fabricación, obtendríamos que 26 procesos serían exitosos.

Sin embargo, 24 procesos completos tendrían que ser devueltos a la producción con todo el lote. Lo que sigue siendo, realmente, un desastre y el Director de Producción estaría echando humo. Pero vamos a darle una alegría y a justificar lo que ha intentado siempre que no exista: el ajuste post-producción.

ANÁLISIS ESTADÍSTICO CON AJUSTE POST-PRODUCCIÓN

Como ya he dicho, a estas alturas el Director de Producción está pensando en descuartizarte poco a poco, sin embargo, queda un as en la manga, recordando que las inducciones las hemos puesto de modo que sean ajustables. ¿Tendrá esto éxito? Para ello hacemos un nuevo análisis, dando valores variables en un entorno de ±10% sobre los valores nominales, y activamos el proceso de ajuste post-producción en el análisis y ¡voilà! Aun teniendo un defectivo antes del ajuste muy elevado, logramos recuperar el 96% de los filtros dentro de los valores que se habían elegido como válidos

Análisis estadístico con ajuste post-producción

Análisis estadístico con ajuste post-producción

Bueno, hemos ganado que el Director de Producción no nos corte en cachitos, ya que el proceso nos está indicando que podemos recuperar la práctica totalidad de los lotes, eso sí, con el ajuste, por lo que con este análisis podemos mostrar no sólo el defectivo sino la capacidad de recuperación del mismo.

Podemos representar cómo han variado las inducciones (en este caso las correspondientes a las resonancias en serie) para poder analizar cuál es la sensibilidad del circuito frente a las variaciones más críticas. Este análisis permite establecer un patrón de ajuste para reducir el tiempo en el que se debe de tener un filtro exitoso.

Análisis de los patrones de ajuste en las inducciones de las resonancias serie

Análisis de los patrones de ajuste en las inducciones de las resonancias serie

Así, con este tipo de análisis, realizado en el mismo momento del diseño, es posible tomar decisiones que fijen los patrones posteriores de la fabricación de los equipos y sistemas, pudiendo establecer patrones fijos de ajuste post-producción sencillos al conocer de antemano la respuesta estadística del filtro diseñado. Una cosa muy clara que he tenido siempre, es que cuando no he hecho este análisis, el resultado es tan desastroso como muestra la estadística, así que mi recomendación como diseñador es dedicarle tiempo a aprender cómo funciona y hacerle antes de que le digas a Producción que tu diseño está acabado.

CONCLUSIONES

En esta entrada hemos querido mostrar un paso más en las posibilidades del análisis estadístico usando Monte Carlo, avanzando en las posibilidades que muestra el método a la hora de hacer estudios estadísticos. El algoritmo nos proporciona resultados y nos permite fijar condicionantes para realizar diversos análisis y poder optimizar más si se puede cualquier sistema. Hemos acudido hasta a un ajuste post-producción, a fin de calmar la ira de nuestro Director de Producción, que ya estaba echando humo con el defectivo que le estábamos proporcionando. En la siguiente entrada, abundaremos un poco más en el método con otro ejemplo que nos permita ver más posibilidades en el algoritmo.

REFERENCIAS

  1. Castillo Ron, Enrique, “Introducción a la Estadística Aplicada”, Santander, NORAY, 1978, ISBN 84-300-0021-6.
  2. Peña Sánchez de Rivera, Daniel, “Fundamentos de Estadística”, Madrid,  Alianza Editorial, 2001, ISBN 84-206-8696-4.
  3. Kroese, Dirk P., y otros, “Why the Monte Carlo method is so important today”, 2014, WIREs Comp Stat, Vol. 6, págs. 386-392, DOI: 10.1002/wics.1314.

 

¡Feliz cumpleaños, Teoría Electromagnética!

maxwell-finHace 150 años, en 1865, el escocés James C. Maxwell publicó “A Dynamical Theory of the Electrodynamic Field”, una Teoría que marcó un hito en el naciente mundo de la Física Moderna, ya que estableció las bases para la unificación de dos campos que, hasta ese momento, se trataban de forma independiente: el Campo Eléctrico y el Campo Magnético. Con esta unificación, Maxwell puso las bases para comprender el comportamiento de los fenómenos electromagnéticos y su propagación, siendo la base hoy día del funcionamiento de nuestras comunicaciones. Desde esta entrada, queremos dar a conocer estas ecuaciones, su significado y su importancia, y rendir homenaje a uno de los científicos más importantes de los últimos tiempos.

No es una casualidad que este año los Físicos celebremos el Año Internacional de la Luz, puesto que fue hace 150 años cuando un físico escocés publicó las bases para la Teoría Electromagnética, marcando un antes y un después en el conocimiento de los fenómenos eléctricos y magnéticos y logrando la primera unificación en una sola Teoría de dos campos que, hasta ese momento, eran tratados de formas diferentes: el Campo Eléctrico y el Campo Magnético.

Hasta este momento, se conocían ciertas interrelaciones entre ambos fenómenos. Conocíamos, a través de la Electrostática, la Ley de Coulomb y el Teorema de Gauss, que el campo eléctrico era generado por cargas que interaccionaban entre ellas, y a través de la Ley de Biot-Savart y la Ley de Ampère, que los campos magnéticos eran generados por corrientes (cargas en movimiento) y que generaban interacciones entre ellos, a través de la fuerza de Lorenz. Sin embargo, todas las leyes y axiomas de los campos de los campos Eléctrico y Magnético se trataban como algo independiente, no había una unificación que mostrase de forma contundente las interrelaciones hasta que Maxwell las unificó.

Al principio se trataba de una veintena de ecuaciones integro-diferenciales, aunque en realidad se podían reducir a las ecuaciones actuales, debido a que Maxwell las escribió para cada eje de coordenadas. Usando el operador diferencial diferencial ∇ y las interrelaciones matemáticas entre las integrales y dicho operador, al final las ecuaciones quedaron descritas tal y como se conocen hoy, tanto en su forma integro-diferencial como en su más popular descripción diferencial vectorial.

Ecuaciones de Maxwell y sus leyes

Ecuaciones de Maxwell y sus leyes

Este conjunto de cuatro ecuaciones establecen la unificación de los campos Eléctrico y Magnético en una nueva Teoría que se llama la Teoría Electromagnética, la primera gran unificación de campos realizada en la Física y una de las más bellas descripciones que existen en la disciplina.

No vamos a ir desgranando una a una las ecuaciones, ya que en varias ocasiones lo hemos hecho en otras entradas, pero uno de los detalles más evidentes que se sacan de las ecuaciones, y que las hace interesantes, es su asimetría. Esta asimetría, debida precisamente a la diferencia entre el comportamiento de ambos campos, se hace patente dos a dos: en la Ley de Gauss de ambos campos, y entre la Ley de Faraday y la de Ampère.

Asimetría de la Ley de Gauss

La Ley de Gauss o Teorema de la Divergencia está relacionada con las fuentes y sumideros de las líneas de fuerza del campo, y muestra hacia dónde divergen estas líneas de interacción. En el caso del campo eléctrico, las líneas divergen hacia las cargas, que son las fuentes o sumideros de las líneas de campo. Gráficamente se puede expresar como

350px-LineasCampo

Divergencia de las líneas de capo eléctrico a las cargas

Por tanto, las líneas del campo eléctrico nacen y mueren en las cargas.

En el caso del campo magnético podemos observar que la divergencia es nula, esto es, no hay fuentes o sumideros a los cuales las líneas de campo magnético diverjan. Por tanto, no existen los monopolos magnéticos. El campo magnético rota sobre el origen del mismo, que lo establece la Ley de Ampère y que son las corrientes ocasionadas por cargas en movimiento. Y su expresión más gráfica es

Campo magnético rotando alrededor de una línea de corriente

Campo magnético rotando alrededor de una línea de corriente

Esta asimetría muestra que ambos campos son diferentes en su origen, lo que se muestra muy claramente cuando los campos son estáticos. No obstante, la no dependencia temporal de estas ecuaciones las hace válidas no sólo para los campos estáticos, sino también para los campos dinámicos. Es la otra asimetría, la de las leyes de Faraday y Ampère, la que introduce, además, el dominio temporal.

Asimetría de las Ley de Faraday y Ampère

Las leyes del campo están relacionadas con los campos dinámicos, aquellos que varían de forma temporal. La primera dice que la variación de un flujo magnético con el tiempo genera una fuerza electromotriz, o llanamente, que la variación de un campo magnético genera un campo eléctrico. Es el principio de las dinamos y los generadores eléctricos, en los que, al variar el flujo de un campo magnético mediante medios mecánicos, son capaces de generar un campo eléctrico.

En la Ley de Faraday también está presente la Ley de Lenz, que indica que ese campo eléctrico tiende a oponerse a la variación del campo magnético, y por eso el signo negativo en la expresión.

La segunda, la Ley de Ampère, parte de la ley de la magnetostática, que dice que la circulación de un campo magnético a través de una línea cerrada es proporcional a la corriente que encierra ese contorno. Esta Ley de la Magnetostática fue generalizada por Maxwell al introducir los campos eléctricos variables con el tiempo, mostrando un resultado que, en su forma diferencial, guarda similitud con la Ley de Faraday, salvo que introduce la densidad de corriente para que se mantenga coherente con la Ley de Ampère de la Magnetostática. La conclusión, por tanto, es que los campos eléctricos variables con el tiempo generan campos magnéticos y los campos magnéticos variables con el tiempo, eléctricos.

A pesar de la asimetría de las expresiones, que es la que genera, bajo mi punto de vista, la belleza de la descripción del escocés, de ellas se deduce una de las conclusiones más importantes de la Teoría Electromagnética, y es que los campos electromagnéticos son ondas que se propagan en cualquier medio material dieléctrico, no necesitando de soportes físicos, a diferencia de otros tipos de ondas como las acústicas, que presentan características similares en la formulación de los campos asociados. Esta conclusión es la que nos permite asociar fenómenos como la propagación luz, que presenta una dualidad partícula-onda ya que es un campo electromagnético formado por partículas llamadas fotones. Y al poder propagarse en el vacío, puede transmitir de un lugar a otro la información, que en el caso de la luz, es la visión de un fenómeno que haya ocurrido en el Universo a través de su observación.

Los campos electromagnéticos como ondas que se propagan en el espacio

De resolver las ecuaciones, se puede llegar a las ecuaciones de onda de Helmholz, tanto para el campos eléctrico como para el magnético.

Ecuaciones de onda para el campo eléctrico y magnético

Ecuaciones de onda para el campo eléctrico y magnético

En estas ecuaciones la asimetría que presentan las ecuaciones de Maxwell desaparece, y se pueden resolver como una onda propagándose por un medio material, incluido el vacío, en el que la velocidad de propagación es la velocidad de la luz, c, siendo ésta la máxima velocidad a la que se puede propagar la onda.

Resolviendo esta ecuación de onda, obtendremos la forma en la que se propaga un campo electromagnético en el medio, como una onda compuesta por un campo eléctrico y un campo magnético variables con el tiempo.

El campo electromagnético como onda de propagación

El campo electromagnético como onda de propagación

donde en azul tenemos el campo eléctrico, en rojo el campo magnético y en negro la dirección de propagación de la onda.

Influencia de la Teoría Electromagnética en nuestras vidas

Es evidente que la Teoría Electromagnética de Maxwell ha tenido una influencia notable en nuestras vidas, afectando en muchos aspectos, pero donde más influencia ha tenido es en la comunicación. Los seres humanos necesitamos comunicarnos, y la Teoría Electromagnética de Maxwell nos abre las puertas a un campo en el que las comunicaciones casi no tienen límites. Las comunicaciones modernas no se podrían entender sin esta notable contribución del escocés, y este año no celebraríamos el Año Internacional de la Luz si no hubiese existido todavía esta unificación de campos. Hoy día la Teoría Electromagnética forma parte habitual de nuestras vidas y costumbres, a través de las comunicaciones a larga distancia, ya sean inalámbricas, por cable o por fibra óptica. Recibimos imagen y sonido gracias a ella, así como podemos comunicarnos a larga distancia gracias a la transmisión por radio y enviar datos a cualquier parte del mundo. Es una de las cuatro interacciones de la naturaleza, junto a la gravedad y a las interacciones fuerte y débil del mundo atómico, y por tanto, por ese motivo podemos decir con orgullo ¡Feliz cumpleaños, Ecuaciones de Maxwell!

Referencias

  1. John R. Reitz, Frederick J. Milford, Robert W. Christy, “Foundations of Electromagnetic Theory”, Addison-Wesley Publishing Company, Inc., Massachusetts (USA), 1979

Influencia de los campos electromagnéticos en la dinámica de los fluidos

la_caza_del_submarino_rusoAunque parezca lo contrario, en esta entrada no vamos a hablar de novelas de espías, pero sí vamos a usar un argumento de la trama de una conocida novela de espionaje para presentar la teoría magnetohidrodinámica. Ésta es una disciplina de la física, que forma parte de la teoría de campos y analiza el movimiento de fluidos con carga eléctrica en presencia de un campo electromagnético y sus posibles aplicaciones. Comprendiendo los principios de la dinámica de fluidos, llegaremos a las ecuaciones que constituyen la base de la teoría, sus conclusiones y su actual utilización.

Los que conozcan la trama de la novela de Tom Clancy “The hunt of Red October”, sabrán que trata sobre la deserción de un submarino soviético de la clase Typhoon, dotado de un sistema de propulsión silencioso y difícilmente detectable por el sonar. En la novela, se le describe como “propulsión magnetohidrodinámica” y consiste en generar flujo de corriente hidráulica a lo largo de la nave usando campos magnéticos. Este flujo permite su desplazamiento sin usar los motores convencionales, aprovechando las características conductivas del agua salada. Este sistema de propulsión silenciosa convertía a la nave en algo letal y peligroso de verdad, puesto que podría acercarse a la costa de los EE.UU. sin ser detectado y lanzar un ataque con cabezas nucleares sin que nadie lo pudiese evitar. Esta es la trama, pero, ¿cuánto hay de cierto en la misma? ¿Existe un método de propulsión o un sistema que provoque el movimiento de un fluido por la presencia de un campo electromagnético? ¿Y a la inversa? ¿Podemos generar un campo electromagnético sólo usando el movimiento de un fluido cargado?

Aunque pueda parecer que, al tratarse de una novela de espías y acostumbrados como estamos a la tendencia de la ficción a crear ciertas bases argumentales, a veces ilusorias, para dotar de cierto dramatismo a la trama, lo cierto es que la teoría magnetohidrodinámica es muy real. Tanto, que el primer efecto destacable de la misma lo podemos comprobar simplemente con la presencia del campo magnético terrestre. Este es fruto del movimiento del núcleo interno de la tierra, compuesto de una capa de hierro líquido (fluido) que envuelve a una gran masa de hierro sólido. Este núcleo , que se mueve acompasado por la rotación de la Tierra, tiene cargas en movimiento que generan una corriente eléctrica, y esa corriente eléctrica genera el campo magnético que protege a la Tierra de los embates de partículas de alta energía que proceden de nuestra estrella, el Sol.

El propio Sol, que es una nube de gas en estado de plasma, tiene poderosos campos magnéticos que determinan el movimiento de las partículas que constituyen el plasma en su interior. Por tanto, la teoría magnetohidrodinámica que usa Clancy en esa trama es muy real. Vamos entonces a desvelar sus bases.

DINÁMICA DE FLUIDOS: LAS ECUACIONES DE NAVIER–STOKES

Un fluido es un medio material continuo formado por moléculas donde sólo hay fuerzas de atracción débil, que se encuentra en uno de estos tres estados de la materia: líquido, gaseoso o plasma. La dinámica de fluidos es la parte de la física que se ocupa del estudio del movimiento de estos medios en cualquiera de estos estados, siendo la masa del fluido la parte que se desplaza de un punto a otro.

Del mismo modo que en campos electromagnéticos definíamos la corriente eléctrica como la variación de la carga con el tiempo, en los fluidos hablaremos de un flujo de corriente ψ que es la variación de la masa M del fluido respecto del tiempo.

Si tomamos una superficie donde hay ni partículas de masa mi que se mueven a una velocidad vi, podemos definir una densidad de flujo de corriente ℑ, que se expresa como

Flujo de corriente debida a partículas de masa m

Flujo de corriente debida a partículas de masa m

Vamos a considerar, como se muestra en la figura, que nuestro fluido es un medio material que tiene todas las partículas de la misma masa, por lo que el producto ni⋅mi se puede extraer del sumatorio, quedando entonces una velocidad v  que es la suma vectorial de todas las velocidades de las partículas del fluido.

La relación entre el flujo de corriente y la densidad de flujo de corriente es una integral a lo largo de una superficie S. Si integramos el flujo de corriente total en una superficie cerrada, por la conservación de la masa, tendremos que es igual  es la variación de la masa con respecto al tiempo, y siendo la densidad la masa por unidad de volumen, podemos escribir que

continuity1

Como este flujo de corriente se opone a la variación de la masa respecto del tiempo, y la masa es la integral de volumen de la densidad del fluido ρMy aplicando el teorema de la divergencia, podemos escribir esta expresión en su forma diferencial

continuity2

que es la ecuación de continuidad de un fluido y que representa la conservación de la masa neta dentro del fluido. Esta es una de las ecuaciones de Navier-Stokes, primordial para comprender el movimiento de las partículas del fluido.

Para la otra ecuación, debemos de recurrir a la derivada sustancial. Esta es una descripción que incluye no sólo la variación con respecto al tiempo de la magnitud física del fluido, sino que además incluye la variación de la misma respecto de la posición. La expresión de la derivada sustancial es

sustancial

donde v es la velocidad del fluido y  el operador diferencial que ya vimos en la entrada sobre radioenlaces. Como el momento lineal del fluido se conserva, cuando interviene la fuerza de la gravedad , actúa además una presión P en sentido contrario al movimiento en el fluido y contraponiéndose a las deformaciones una viscosidad μobtenemos que

Esta es la ecuación del movimiento de un fluido, y es no lineal debido a la derivada sustancial. Por tanto, en un fluido intervienen no sólo las fuerzas aplicadas en el fluido, sino también la presión de éste y su viscosidad. Si el fluido no presentase viscosidad, y aplicando la derivada sustancial  a la ecuación anterior, podemos obtener un caso particular

noviscoso

que nos define la ecuación del movimiento de un fluido no viscoso.

DINÁMICA DE FLUIDOS: MAGNETOHIDRODINÁMICA

Si el fluido presenta partículas cargadas y aplicamos un campo electromagnético, con componentes E y B, la fuerza que interviene en este caso no es la gravedad, sino la fuerza de Lorenz que aplica el campo magnético

florenz

donde J es la densidad de corriente eléctrica en el fluido y B el campo magnético aplicado. En la expresión desarrollada, obtenida a partir del desarrollo de la Ley de Ampere y una de las identidades del operador diferencial , obtenemos dos términos. El primero es una fuerza de tensión magnética mientras que el segundo término se asemeja a una presión magnética producida por la densidad de energía magnética del campo. Sustituyendo F en la expresión obtenida en el apartado anterior y considerando un fluido no viscoso, tendremos que

movimiento2

Teniendo en cuenta que, según las ecuaciones de Maxwell, la divergencia del campo magnético es nula, si consideramos un campo magnético unidireccional, las variaciones espaciales de la divergencia son perpendiculares al campo, por lo que la fuerza de tensión magnética se anula y la expresión anterior queda

movimiento3

Si el fluido está en estado de plasma, tenemos que la Ley de Ohm se puede escribir como

ohm

debido a que en este estado la conductividad tiende a ser infinita y para mantener el flujo de corriente, la fuerza aplicada debe ser lo más baja posile. De este modo, la Ley de Faraday queda como

faraday

CONCLUSIONES DE LAS ECUACIONES

Como hemos podido comprobar, la magnetohidrodinámica es, en realidad, una consecuencia de aplicar campos electromagnéticos a fluidos que poseen carga eléctrica, y en esto se basaba Clancy para “propulsar” su Octubre Rojo. No obstante, los intentos de generar un propulsor naval de estas características se han quedado en prototipos construidos en los años 60 puesto que las inducciones magnéticas que requerían eran elevadas (del orden de más de 5 Tesla) en compartimientos muy voluminosos (centenares de m3). Por tanto, el submarino de la clase Typhoon cumplía con las exigencias de proporcionar el debido dramatismo a la novela, sin despreciar por ello la base científica en la que se basaba, debido al tamaño de este tipo de naves, considerados por los EE.UU. como colosos de las profundidades debido al desplazamiento de toneladas que eran capaces de propulsar.

No quiere decir que la aplicación de la magnetohidrodinámica esté actualmente aparcada. Debido a ella, los astrofísicos han logrado generar modelos basados en estas ecuaciones para determinar las trayectorias de las partículas en el Sol y predecir erupciones solares. Y los geofísicos, comprender mejor la estructura de los núcleos de los planetas.

Además, estas técnicas son utilizadas desde hace años también en metalurgia: a medida que calentamos un metal transformándolo en un fluido, incrementamos notablemente su conductividad, de modo que se puede aplicar la Ley de Ohm para los plasmas. Esto evita, en los procesos de fundición y generación de aleaciones, que el metal entre en contacto con el crisol y adquiera escoria, mejorando notablemente la calidad de la aleación. Es el principio de los altos hornos eléctricos, que vinieron a sustituir a los antiguos que usaban carbón.

También se han encontrado aplicaciones para generar energía eléctrica a partir del movimiento de un gas en presencia de un ampo magnético, así como el confinamiento del estado de plasma para los reactores de energía nuclear de fusión. Por no hablar de los experimentos realizados en el LCH, en Suiza. No obstante, se sigue teniendo el problema de la gran inducción magnética generada y el volumen necesario para mantener los plasmas.

Sin embargo, es una pequeña parte de todo lo que se podría llegar a conseguir con mejor tecnología. A medida que se desarrolle ésta, la magnetohidrodinámica proporcionará mejores aplicaciones.

References

  1. J. R. Reitz, F. J. Milford, R. W. Christy, “Foundations of the Electromagnetic Theory”; Addison-Wesley Publishing Company, Inc, Massachusetts (U.S.A.), 1979
  2. H. Alfvén, “Existence of electromagnetic-hydrodynamic waves“. Nature 150: 405-406, 1942