SHARENG Divulgación

Inicio » Divulgación

Category Archives: Divulgación

Diseñando con la Carta de Smith 3D

La Carta de Smith es una herramienta habitual en el diseño de circuitos de RF. Desarrollada por Phillip Smith en 1939, se ha convertido en el método gráfico más popular para representar impedancias y resolver de forma sencilla operaciones con números complejos. Tradicionalmente la Carta de Smith se ha usado en su forma polar, para dos dimensiones, en un círculo de radio 1. Sin embargo, la carta en su formato 2D presenta algunas restricciones cuando se trata de representar impedancias activas de osciladores o círculos de estabilidad de amplificadores, ya que estas últimas representaciones suelen salirse de la carta. En los últimos años se ha popularizado el uso de la Carta de Smith tridimensional. Los avances en el software de representación 3D posibilitan su uso para el diseño. En esta entrada se va a tratar de conocer el manejo de la Carta de Smith tridimensional y su aplicación a un secillo amplificador de baja figura de ruido.

Cuando Phillip Smith estaba trabajando en los Laboratorios Bell, se encontró con la necesidad de tener que adaptar una antena y para ello buscó una forma de resolver el problema gráficamente. Mediante las expresiones matemáticas que rigen las impedancias en las líneas de transmisión, logró representar el plano complejo de impedancias mediante círculos de resistencia y reactancia constante. Estos círculos le facilitaban el poder representar cualquier impedancia en un espacio polar, con la máxima adaptación situada en el centro de la carta y el círculo exterior representando la reactancia pura. Tradicionalmente, la carta de Smith ha sido representada en forma polar tal y como se observa a continuación.

Fig. 1 – Carta de Smith tradicional

Las impedancias se representan normalizadas, esto es, se representa la relación entre la impedancia que se quiere representar y la impedancia de generador. El centro de la carta es la resistencia pura unidad (máxima adaptación) mientras que el círculo periférico que limita la carta es la reactancia pura. El extremo izquierdo de la carta representa el cortocircuito puro y el extremo derecho, el circuito abierto puro. La carta se hizo enseguida muy popular para poder realizar cálculos de adaptación de impedancias con líneas de transmisión usando el método gráfico. Sin embargo,las dificultades de diseño con la carta empezaron a producirse cuando se quería analizar dispositivos activos como amplificadores, para estudiar su estabilidad, y osciladores.

Obviamente, la carta limita a las impedancias de parte real positiva, pero la carta puede representar, mediante extensión del plano complejo a través de la transformación de Möbius, impedancias con parte real negativa [1]. Esta carta expandida al plano de parte real negativa se puede ver en la siguiente figura

Fig. 2-Carta de Smith expandida a parte real negativa

Esta carta, sin embargo, tiene dos inconvenientes: 1) aunque nos permite representar todas las impedancias, existe el problema del infinito complejo, por lo que sigue limitada y 2) la carta toma unas dimensiones grandes que la hacen difícil de manejar en un entorno gráfico, incluso tratándose de un entorno asistido por computador. Sin embargo, su ampliación es necesaria cuando se desean analizar los círculos de estabilidad en amplificadores, ya que en muchas ocasiones, los centros de estos círculos están situados fuera de la carta de impedancias pasivas.

En un entorno gráfico por computador, representar los círculos ya lo realiza el propio programa a través de sus cálculos, pudiendo limitar la carta a la carta pasiva y dibujando sólo una parte del círculo de estabilidad. Pero con osciladores se sigue teniendo el problema del infinito complejo, cosa que se resuelve a través de la esfera de Riemann.

ESFERA DE RIEMANN

La esfera de Riemann es la solución matemática para representar todo el plano complejo, incluido el infinito. Toda la superficie compleja se representa en una superficie esférica mediante una proyección estereográfica de dicho plano.

Fig. 3 – Proyección del plano complejo a una esfera

En esta representación el hemisferio sur de la esfera representa el origen, el hemisferio norte representa el infinito y el ecuador el círculo de radio unidad. La distribución de los valores complejos en la esfera se puede ver en la siguiente figura

Fig. 4 – Distribución de los valores complejos en la esfera

De este modo, es posible representar cualquier número del espacio complejo en una superficie manejable.

REPRESENTANDO LA CARTA DE SMITH EN UNA ESFERA DE RIEMANN

Como la Carta de Smith es una representación compleja, se puede proyectar del mismo modo a una esfera de Riemann [2], tal y como se muestra en la figura siguiente

Fig. 5 – Proyección de la Carta de Smith sobre una esfera de Riemann

En este caso, el hemisferio norte corresponde a la impedancias de parte resistiva positiva (impedancias pasivas), en el hemisferio sur se representan las impedancias con resistencia negativa (impedancias activas), en el hemisferio este se representan las impedancias inductivas y en el oeste las impedancias capacitivas. El meridiano principal se corresponde con la impedancia resistiva pura.

Así, se se desea representar una impedancia cualquiera, ya sea activa o pasiva, se puede representar en cualquier punto de la esfera, facilitando notablemente su representación. Del mismo modo, se pueden representar los círculos de estabilidad de cualquier amplificador sin tener que expandir la carta. Por ejemplo, si queremos representar los círculos de estabilidad de un transistor cuyos parámetros S a 3GHz son

S11=0,82/-69,5   S21=5,66/113,8   S12=0,03/48,8  S22=0,72/-37,6

el resultado en la carta de Smith convencional sería

Fig. 6 – Representación tradicional de los círculos de estabilidad

mientras que en la carta tridimensional sería

Fig. 7 – Círculos de estabilidad en la carta tridimensional

donde se pueden ver ubicados ambos círculos, parte en el hemisferio norte y parte en el sur. Como se puede ver, se ha facilitado enormemente su representación.

UNA APLICACIÓN PRÁCTICA: AMPLIFICADOR DE BAJO RUIDO

Vamos a ver una aplicación práctica de la carta tratando de conseguir que el amplificador de la sección anterior esté adaptado a la máxima ganancia estable y mínima figura de ruido, a 3GHz. Usando los métodos tradicionales, y conociendo los datos del transistor, que son

S11=0,82/-69,5   S21=5,66/113,8   S12=0,03/48,8  S22=0,72/-37,6

NFmin=0,62  Γopt=0,5/67,5 Rn=0,2

Representamos en la carta de Smith tridimensional esos parámetros S y dibujamos los círculos de estabilidad del transistor. Para una mejor representación usamos 3 frecuencias, con un ancho de banda de 500MHz.

Fig. 8 – Parámetros S y círculos de estabilidad del transistor (S11 S21 S12 S22 Círculo se estabilidad de entrada Círculo de estabilidad de salida)

y podemos ver los parámetros S, así como los círculos de estabilidad, tanto en el diagrama polar convencional como en la carta tridimensional. Como se puede observar, en el diagrama polar convencional los círculos se salen de la carta.

Para que un amplificador sea incondicionalmente estable, los círculos de estabilidad deberían estar situados en la zona externa de impedancia pasiva de la carta (en la carta tridimensional, en el hemisferio sur, que es la región expandida) bajo dos condiciones: si los círculos son externos a la carta pasiva y no la rodean, la zona inestable se encuentra en el interior del círculo. Si rodean a la carta, las cargas inestables se encuentran en el exterior del círculo.

Fig. 9 – Posibles situaciones de los círculos de estabilidad en la región activa

En nuestro caso, al entrar parte de los círculos a la región de impedancias pasivas, el amplificador es condicionalmente estable. Entonces las impedancias que podrían desestabilizar el amplificador son las que se encuentran en el interior de los círculos. Esto es algo que todavía no se puede ver con claridad en la carta tridimensional, no parece que lo calcule y sería interesante de incluir en posteriores versiones, porque facilitaría enormemente el diseño.

Vamos ahora a adaptar la entrada para obtener el mínimo ruido. Para ello hay que diseñar una red de adaptación que partiendo de 50Ω llegue al coeficiente de reflexión Γopt y que representa una impedancia normalizada Zopt=0,86+j⋅1,07. En la carta de Smith tridimensional abrimos el diseño y representamos esta impedancia

Fig. 10 – Representación de Γopt

Ahora usando la admitancia, nos desplazamos en la región de conductancia constante hasta que obtengamos que la parte real de la impedancia sea 1. Esto lo hacemos tanteando y obtenemos una subsceptancia de 0,5,. Como hemos tenido que incrementar 0,5–(-0,57)=1,07, esto equivale a una capacidad a tierra de 1,14pF.

Fig. 11 – Transformación hasta el círculo de impedancia con parte real unidad.

Ahora sólo queda colocar un componente que anule la parte imaginaria de la impedancia (reactancia), a resistencia constante. Como la reactancia obtenida es -1,09, hay que añadir 1,09, por lo que el valor de reactancia se anula. Esto equivale a una inducción serie de 2,9nH.

Fig. 12 – Impedancia de generador adaptada a Γopt

Ya tenemos la red de adaptación de entrada que nos consigue la mínima figura de ruido. Como el dispositivo es activo, al colocar esta red de adaptación nos cambian los parámetros S del transistor. Los nuevos parámetros son:

S11=0,54/-177   S21=8,3/61,1   S12=0,04/-3,9  S22=0,72/-48,6

que representamos en la carta de Smith para ver sus círculos de estabilidad.

Fig. 13 – Transistor con entrada adaptada a Γopt y sus círculos de estabilidad

Las regiones inestables son las internas, por lo que el amplificador sigue siendo estable.

Ahora hay que adaptar la salida para obtener la máxima ganancia, por lo que hay que cargar a S22=0,72/-48,6 un coeficiente de reflexión ΓL adaptación conjugada, pasando de 50Ω a un coeficiente de reflexión ΓL=0,72/48,6. Esta operación se realiza del mismo modo que operamos en la adaptación de la entrada. Haciendo esta operación y obteniendo los parámetros S del conjunto completo, con redes de adaptación en entrada y salida, obtenemos

S11=0,83/145   S21=12/-7.5   S12=0,06/-72,5  S22=0,005/162

La ganancia es 20·log(S21)=21,6dB, y la figura de ruido obtenida es 0,62dB, que corresponde a su NFmin. Ahora sólo queda representar en la carta de Smith tridimensional estos parámetros para observar sus círculos de estabilidad.

Fig. 14 – Amplificador de bajo ruido y sus círculos de estabilidad

En este caso, la región estable del círculo de estabilidad de entrada es la interior, mientras que en el círculo de estabilidad de salida es la exterior. Como ambos coeficientes de reflexión, S11 y S22 se encuentran en la región estable, el amplificador es entonces estable.

CONCLUSIONES

En esta entrada hemos tenido la primera toma de contacto con la Carta de Smith tridimensional. El objetivo de la entrada era estudiar su potencial respecto a una herramienta ya tradicional en la ingeniería de Microondas como es la Carta de Smith tradicional. Se observan novedosas ventajas sobre ésta en cuanto a que podemos representar los valores infinitos de la transformada de Möbius sobre una esfera de Riemann y de este modo tener una herramienta gráfica tridimensional donde se pueden representar prácticamente todas las impedancias, tanto pasivas como activas, y parámetros difíciles de representar en la carta tradicional como los círculos de estabilidad.

En su versión 1 la herramienta, que se puede encontrar en la página web 3D Smith Chart / A New Vision in Microwave Analysis and Design, presenta bastantes opciones de diseño y configuración, aunque se echa de menos algunas aplicaciones que, sin duda, irán incorporándose en futuras versiones. En este caso, una de las aplicaciones más ventajosas para la carta, al haber estudiado los círculos de estabilidad de un amplificador, es la ubicación de las regiones de estabilidad de forma gráfica. Aunque esto lo podemos resolver por cálculo, siempre es más ventajosa la imagen visual.

La aplicación tiene un manual de usuario con ejemplos explicados de forma sencilla, de modo que el diseñador se familiarice enseguida con ella. En mi opinión profesional, es una herramienta idónea para los que estamos acostumbrados a usar la carta de Smith para realizar nuestros cálculos de redes de adaptación.

REFERENCIAS

  1. Müller, Andrei; Dascalu, Dan C; Soto, Pablo; Boria, Vicente E.; ” The 3D Smith Chart and Its Practical Applications”; Microwave Journal, vol. 5, no. 7, pp. 64–74, Jul. 2012
  2. Zelley, Chris; “A spherical representation of the Smith Chart”; IEEE Microwave, vol. 8, pp. 60–66, July 2007
  3. Grebennikov, Andrei; Kumar, Narendra; Yarman, Binboga S.; “Broadband RF and Microwave Amplifiers”; Boca Raton: CRC Press, 2016; ISBN 978-1-1388-0020-5

La estadística y su correcto uso


importancia-graficos-estadistica_image007Una de las herramientas más usadas en la actualidad, sobre todo desde que tenemos máquinas que son capaces de computar muchos datos, es la estadística
. Se trata de una potente herramienta que, bien utilizada, puede proporcionarnos previsiones, sobre todo en sistemas caóticos. Dentro de este tipo de sistemas podemos incluir desde fenómenos atmosféricos a comportamientos de grupos humanos, aunque también se usa para resolver problemas en sistemas deterministas, cuando aparecen fenómenos no previstos que hay que corregir. En estos tiempos, el uso de la estadística se ha extendido a todos los ámbitos, si bien hay que responder a una clara pregunta: ¿de veras sabemos utilizarla? ¿O sólo extraemos las conclusiones que a nosotros nos interesan? En esta entrada voy a tratar de mostrar algunos términos que hay que tener en cuenta en la mecánica estadística y cómo se deberían interpretar sus resultados.

 Por estadística podemos entender dos cosas:

  • Es la herramienta matemática que utiliza conjuntos de datos numéricos, que representan sucesos, para obtener resultados basados en el cálculo de probabilidades.
  • Es el estudio que reúne y clasifica todos los sucesos que posean alguna característica en común, para que con esa clasificación se puedan extraer conclusiones.

En estas dos definiciones tenemos dos conceptos diferentes: el primero, la estadística como disciplina matemática mecánica, con unas reglas claras basadas en la clasificación y el cálculo de probabilidades. Una herramienta que casi todas las disciplinas humanas, ya sean científicas, tecnológicas o sociales, tienen que usar para extraer conclusiones.

Por otro lado, tenemos el estudio estadístico, que no es estadística como disciplina, pero que se suele utilizar dicho término para referirse a él. La segunda definición está englobada en la primera, porque el estudio estadístico es el recuento de determinados sucesos para extraer una conclusión. Por tanto, la estadística, como tal, no muestra resultados, sólo clasifica los sucesos. Sólo nosotros somos los capacitados para interpretarlos.

Una de las frases a las que suelo recurrir muchas veces, cuando alguien me blande estadísticas como hechos incontestables, es un estudio estadístico muestra que las personas comemos un pollo a la semana. Esta semana yo me he comido dos pollos y tú ninguno, así que te deseo que te siente bien el pollo que no has comido. Uno de los mayores errores que se pueden cometer es el considerar a la estadística como un hecho incontestable, cuando sólo son datos agrupados. El hecho, que puede ser incontestable o no, es la interpretación que podamos hacer de esos datos, y ésta puede ser errónea si no aplicamos las reglas mecánicas de la estadística. Estas reglas se encuentran en la Teoría de Probabilidades, donde se definen una serie de herramientas a tratar en la disciplina para lograr obtener mejores interpretaciones. Si estas reglas no son utilizadas, las interpretaciones pueden ser de lo más variopintas.

La importancia de la estadística es tal, que hasta los Estados tienen departamentos exclusivos para trazar los estudios, interpretar los resultados y poder actuar en función de los mismos. El problema radica en cuando se transmiten esos datos a la sociedad, cómo se transmiten, qué porcentajes de error pueden presentar, qué correlación existe entre los sucesos y que conclusiones extrae el que los maneja, que es el que conoce todos los datos y los ha interpretado. Hay que tener en cuenta que la mayor parte de la población no tiene porqué saber más estadística que la estudiada en las matemáticas de la ESO y el Bachillerato, y que la estadística es una mecánica mucho más compleja que contar las caras de un dado y asignar una probabilidad.

Los sucesos, lo único medible de la estadística

Los sucesos, en la estadística, son los datos que se quieren medir. Y los sucesos pueden ser de varios tipos: elementales, compuestos, seguros, imposibles, compatibles, independientes, dependientes y contrarios. Dependiendo de lo que se vaya a estudiar, hay que clasificar los sucesos, que es lo único medible de la estadística.

Los sucesos, de por sí,  no proporcionan conclusiones. Las conclusiones se obtienen de su clasificación. Y la clasificación, para que las conclusiones sean realmente resultado de un estudio estadístico, son fruto de pasar por las reglas establecidas en la mecánica estadística.

Un ejemplo de violación de las reglas estadísticas se pueestudiode ver en el reciente debate de 13-J, donde los cuatro líderes de los partidos principales son sometidos al juicio del público. Según la captura de imagen, uno de los líderes ya era ganador antes de que el suceso medible ocurriese.

En cierto modo, podríamos pensar que la foto está trucada, y es una posibilidad a tener en cuenta, pero teniendo en cuenta también  que dicha estadística no pasa por las reglas establecidas de la estadística, independientemente de que sea o no verdadera la foto, los resultados no se pueden presentar como un estudio estadístico y sus conclusiones posteriores no se pueden tomar como válidas, aunque a algunos les guste el resultado.

Es en este punto cuando la estadística toma su más siniestra utilización: manipulación de los resultados.

El incorrecto uso de la estadística: la manipulación

Debido a que la mayoría de la población desconoce las reglas establecidas para el estudio estadístico (definición de sucesos, tamaño de las muestras, criterios de medición, estimaciones sobre resultados, contrastes de hipótesis, etc.), aquí vuelve otra vez a aparecer mi frase favorita acerca del consumo de pollo por la población: se publican los resultados y no los criterios que han llevado a esos resultados, por lo que aparece un elemento de manipulación evidente, ya que se están utilizando los datos bajo criterios evidentemente orientados a conseguir una respuesta determinada. La estadística no tiene esa función, su función es proporcionarnos los datos para mostrarnos tendencias que permitan corregir aquellas cosas que necesiten corrección, o poder determinar resultados cuando los sistemas son caóticos.

falsa encuestaHemos visto lo que un periódico digital publica antes de tiempo, pero podemos ver otra encuesta en la que también se observa una clara manipulación, ésta cortesía de 13TV. En esta “encuesta” se pregunta a los telespectadores quién ha ganado el debate del pasado lunes. Recordemos que en ese debate había cuatro líderes políticos, y la cadena de la Conferencia Episcopal ha eliminado, de un plumazo, a dos de ellos.

Podemos entender que no son santo de devoción ni de los periodistas de la cadena ni de sus principales accionistas, pero teniendo en cuenta quiénes son esos accionistas, tendrían que pensar en cierto mandamiento que ellos deberían cumplir a rajatabla porque forma parte de su doctrina: “No levantarás falso testimonio ni mentirás”. Parece ser que aquí se vuelve a recurrir al maquiavélico principio de que “el fin justifica los medios”, pero no sabía que la Iglesia Católica española tuviese al célebre escritor renacentista florentino entre sus bases doctrinales.

Podemos poner más ejemplos de encuestas y estudios estadísticos sesgados, más orientados a obtener una respuesta en la población que a analizar un suceso concreto. Osea, se tienen las conclusiones y hay que crear un espacio de sucesos y unos criterios de medición que permitan llegar a esas conclusiones, lo que vulnera las reglas de la estadística y, por tanto, se convierten en mero discurso manipulador para generar un estado de opinión y no una interpretación acertada de la realidad.

La estadística tiene que ser fría

Así es, aunque seamos humanos y tengamos sentimientos y las cosas nos afecten, para hacer un estudio estadístico hay que librarse de juicios previos y de ganas de obtención de resultados que nos den la razón y que se ajusten a nuestros deseos. Los sucesos se deben de obtener mediante la fría medición, sin ninguna intervención sobre ella. Por eso, la definición del espacio de muestras y de los sucesos debe de ser independiente a nuestros deseos y afinidades. Si no es así, el estudio carece de validez y no proporciona nada más que consuelo o euforia, cuando no es engañarnos a nosotros mismos.

Otra cosa es la elaboración de conclusiones e hipótesis, la célebre cocina a la que las empresas de estadística someten los resultados. Pero la validez del estudio sólo será aceptable si son conocidos los criterios para cocinar los resultados. Es una norma estadística básica y que debe de ser conocida y aceptada por el receptor para estimar si las conclusiones son acertadas o simplemente son fruto de una manipulación orientada a volver a obtener algo que nos guste y crear estados de opinión.

Es importante comprender que la estadística, como herramienta que nos ayuda a obtener hipótesis, es una magnífica herramienta. Pero que en malas manos, se transforma en algo odioso y pierde su verdadera utilidad.

 

¿Hacen su labor los medios respecto a la forma de tratar los conocimientos científicos?

trudeauDejando un poco aparte (al menos, hasta el próximo mes) la divulgación técnica pura, recientemente me he encontrado con una noticia en varios medios que me ha parecido, cuanto menos, sorprendente. No porque el Primer Ministro canadiense sepa bastante de Mecánica Cuántica, ya que podría estar sorprendido en el caso de que conociese su trayectoria académica y en ésta no describa si ha estudiado o no sobre el tema, sino por el grado de desconocimiento que algunos periodistas tienen de las personas a las que están preguntando, que pueden provocar patinazos (o como se dice en el argot de Twitter, “zascas en toda la boca”) como el del que se han hecho eco nuestros medios. Por este motivo, me he lanzado a escribir una entrada de opinión sobre el tema, retomando de algún modo uno de los apartados que quise siempre para este blog, que fuese también un lugar de divulgación para todos los públicos y no sólo para los muy técnicos. Con ese compromiso retomo desde hoy la inclusión de entradas no exclusivamente técnicas, que estén relacionadas, como siempre, con el mundo científico y tecnológico y sus avances.

LA ACTITUD DE POLÍTICOS Y PERIODISTAS FRENTE A LOS CONOCIMIENTOS CIENTÍFICOS

Recientemente, la prensa vulgarmente llamada “seria” se ha hecho eco de un hecho que, parece ser, consideran “anormal”: que un Primer Ministro, además de tener ese cargo, dé una clase magistral de Computación Cuántica a un periodista que quiso pasarse de listo, cuando requirió a Justin Trudeau que le explicase algo sobre dicho tema. Ni corto ni perezoso, el mandatario canadiense no sólo le contestó sino que le dio una clase magistral de 35 segundos a un periodista que creyó que ésta era la suya.

Vivimos unos tiempos en los que parece que el pensamiento crítico más elemental ha desaparecido de algunos despachos oficiales y algunas líneas editoriales, y que se juzga más a la gente por un tuit equivocado que por una larga trayectoria, sin que se haga el más mínimo esfuerzo en conocer a quién te diriges cuando le preguntas. Algo que debería ser elemental para cualquier profesional de los medios de comunicación: si quieres saber cómo te va a contestar y si te va a contestar a una pregunta, primero estudia la trayectoria del interrogado, para que sepas hacerle la pregunta.

Parece ser que a los medios les sorprende que Justin Trudeau sepa de Computación Cuántica porque muchos de los lectores eso les suena a chino mandarín, también en parte gracias a la pésima labor de divulgación de algunos medios escritos, que suelen equiparar ciencia con pseudociencia, como si ambas estuviesen en el mismo nivel, alegando esa excusa de que todo el mundo tiene derecho a que se les proporcione información. Lo que pasa es que se les suele olvidar el adjetivo milagroso: veraz.

Cierto es que muchos políticos carecen de conocimientos científicos, y algunos hasta adolecen del más elemental conocimiento acerca de lo que significa el mundo científico y sus avances, usándolo sólo los mismos cuando se trata de hacerse una foto frente a un científico famoso cuando ha ganado algún premio. Un caso paradigmático fue el del Dr. D. Severo Ochoa: cuando ganó el premio Nobel, el régimen imperante en España se acordó de él y le quiso repatriar con promesas de inversiones y laboratorios, cuando unos años antes ese mismo régimen no le concedía ni el pasaporte para poder salir de la Alemania nazi. Muchos políticos adolecen de esa falta, pero también es cierto que otros tienen cultura científica, sin que la prensa les preste atención cuando opinan de algo que no sea la pura palestra política.

¿DE QUÉ NOS EXTRAÑAMOS SI HEMOS TENIDO POLÍTICOS CON DOS TITULACIONES Y HASTA LAS EJERCÍAN?

boyer1-aEsta prensa que hoy está jaleando a Trudeau, convirtiendo en noticia algo que no debería serlo tanto, es la misma prensa que obvió o que no concedió interés a un artículo de Miguel Boyer Salvador, ex-Ministro de Economía del primer gabinete de Felipe González, en el que el recientemente fallecido economista hacía una disertación acerca del dilema que supondría si los resultados obtenidos en el proyecto OPERA en 2011 (neutrinos viajando a una velocidad más alta que la de la luz) se verificaban. En su etapa más joven, Miguel Boyer, Licenciado en Ciencias Económicas y Ciencias Físicas, también opinaba sobre temas científicos y sobre la filosofía de la ciencia. No era, pues, un político inculto científicamente pues de cuando en cuando, el ex-Ministro de Economía se dejaba caer por Universidades de Verano siendo participante o ponente de cursillos que no eran ni estrictamente políticos ni económicos.

Aunque este artículo se hubiese publicado después de la clase magistral de Trudeau, los periodistas hubiesen seguido sin prestarle atención, puesto que el titular era que hay un político que no es inculto y que sabe de Mecánica Cuántica, como si hubiesen probado la existencia de los unicornios, en lugar de haber estudiado antes la biografía de Justin Trudeau y su brillante trayectoria académica, en la que se destaca, aparte de su Licenciatura en Educación, sus estudios de ingeniería en la Politécnica de la Universidad de Montreal y su Maestría en Geografía Medioambiental en la Universidad McGill, lo que viene a mostrar a un hombre que se preocupa por formarse cuando quiere dotarse de una opinión contrastada. Desgraciadamente, aquellos políticos que adolecen de esa falta de rigor, tratando con desdén los conocimientos científicos y a las personas que los generan, tapan la brillantez de otros políticos que sí que se preocupan de su autoformación. Estos últimos los hay, existen, pero no son tan noticia para una prensa que un día publica el descubrimiento del Bosón de Higgs y al día siguiente, en el mismo apartado de Ciencia, una disertación sobre los peligros de las ondas electromagnéticas no ionizantes, si bien es cierto que la camada de políticos más brillantes de la reciente Historia de España se ha dado, precisamente, en la Transición. Hoy en día, muchos políticos lo son de carrera, ascendiendo dentro del propio partido sin haber tenido experiencia previa en otro sitio diferente.

Sin embargo, con el perfil de estos políticos también aparece el perfil del periodista que desdeña la labor de proporcionar esa información veraz. Porque la información tiene que ser eso, veraz, ya que la prensa de hoy día será la fuente de la Historia de mañana, como los autores clásicos del mundo romano nos permiten conocer cómo era su tiempo y sus costumbres.

No se puede tampoco meter en este saco a todos los periodistas, puesto que los hay muy brillantes dentro de esta profesión. Pero sí hay que indicar que la tendencia a vivir a ritmo de tuit en lugar de hacer la pesada y ardua labor de documentarse previamente está causando, en mi opinión, estragos entre lo que debería ser la diferencua entre una información veraz y puro rumo, cotilleo o “chisme”.

Hoy en día, el  mundo científico español y, sobre todo, nuestros científicos están sufriendo, por un lado, la apatía de quienes gobiernan actualmente nuestro país, cuyo rigor a la hora de tratar este conocimiento es poco menos que nulo, despreciando un modelo productivo basado en el valor añadido del conocimiento, y basándose en el agotado modelo del yo te lo hago más barato, condenando con esa política por un lado, a limitar el crecimiento de nuestro país, y por otro, a la mal llamada movilidad laboral de nuestros científicos, obligados a tener que coger las maletas y ejercer su profesión en centros de investigación y laboratorios de otros países, donde este conocimiento no es desdeñado sino que se ve como una oportunidad.

Y ésa debería ser la labor de la prensa llamada “seria”: centrar la importancia en el conocimiento científico y evitar el recurso fácil de reproducir titulares facilones para atraer más público, así como dejar de situar al mismo nivel este conocimiento y la falta de evidencia de las pseudociencias. Porque el hecho de que haya políticos incultos científicamente no convierte a los que publican noticias en expertos en ciencia. Dentro del mundo periodístico hay incultos científicamente como los hay en casi todas las profesiones no relacionadas con éste ámbito. Así que espero que el “zasca” a este periodista retome un poco la deontología de que cualquier entrevista, editorial o titular debe de estar tan rigurosamente documentada en fuentes como lo está un artículo sobre la Física de Plasmas.

REFERENCIAS

  1. Boyer Salvador, M.,”Dilema radical en la física: “Einstein, ¿sí o no?”“,El País, 6/10/2011
  2. Boyer Salvador, M.,”Popper y los nuevos filósofos de la ciencia“, El País, 7/11/1984
  3. Delgado, J.,”Boyer defiende la libertad como valor absoluto en el seminario sobre Popper“, El País, 31/07/1991
  4. Justin Trudeau, Wikipedia
  5. Justin Trudeau, Liberal Party Website
  6. Miguel Boyer Salvador, Wikipedia

 

Análisis estadísticos usando el método de Monte Carlo (II)

Art02_fig01En la anterior entrada mostramos con una serie de ejemplos simples cómo funciona el método de Monte Carlo para realizar análisis estadísticos. En esta entrada vamos a profundizar un poco más, haciendo un análisis estadístico más profundo sobre un sistema algo más complejo, analizando una serie de variables de salida y estudiando sus resultados desde una serie de ópticas que resultarán bastante útiles. La ventaja que tiene la simulación es que podemos realizar una generación aleatoria de variables, y además, podemos establecer una correlación de esas variables para conseguir distintos efectos al analizar el funcionamiento de un sistema. Así, cualquier sistema no sólo se puede analizar estadísticamente mediante una generación aleatoria de entradas, sino que podemos vincular esa generación aleatoria a análisis de lotes o fallos en la producción, así como su recuperación post-producción.

Los circuitos que vimos en la anterior entrada eran circuitos muy sencillos que permitían ver cómo funciona la asignación de variables aleatorias y el resultado obtenido cuando estas variables aleatorias forman parte de un sistema más complejo. Con este análisis, podíamos comprobar un funcionamiento y hasta proponer correcciones que, por sí solas, limitasen las variaciones estadísticas del sistema final.

En este caso, vamos a estudiar el efecto dispersivo que tienen las tolerancias sobre uno de los circuitos más difíciles de conseguir su funcionamiento de forma estable: el filtro electrónico. Partiremos de un filtro electrónico de tipo paso banda, sintonizado a una determinada frecuencia y con una anchura de banda de paso y rechazo determinadas, y realizaremos varios análisis estadísticos sobre el mismo, para comprobar su respuesta cuando se somete a las tolerancias de los componentes.

DISEÑO DEL FILTRO PASO BANDA

Vamos a plantear el diseño de un filtro paso banda, centrado a una frecuencia de 37,5MHz, con un ancho de banda de 7MHz para unas pérdidas de retorno mayores que 14dB, y un ancho de banda de rechazo de 19MHz, con atenuación mayor de 20dB. Calculando el filtro, se obtienen 3 secciones, con el siguiente esquema

Filtro paso banda de tres secciones

Filtro paso banda de tres secciones

Con los valores de componentes calculados, se buscan valores estándar que puedan hacer la función de transferencia de este filtro, cuya respuesta es

Respuesta en frecuencia del filtro paso banda

Respuesta en frecuencia del filtro paso banda

donde podemos ver que la frecuencia central es 37,5MHz, que las pérdidas de retorno están por debajo de 14dB en ±3,5MHz de la frecuencia central y que el ancho de banda de rechazo es de 18,8MHz, con 8,5MHz a la izquierda de la frecuencia central y 10,3MHz a la derecha de la frecuencia central.

Bien, ya tenemos diseñado nuestro filtro, y ahora vamos a hacer un primer análisis estadístico, considerando que las tolerancias de los condensadores son ±5%, y que las inducciones son ajustables. Además, no vamos a indicar correlación en ninguna variable, pudiendo tomar cada variable un valor aleatorio independiente de la otra.

ANÁLISIS ESTADÍSTICO DEL FILTRO SIN CORRELACIÓN ENTRE VARIABLES

Como vimos en la entrada anterior, cuando tenemos variables aleatorias vamos a tener dispersión en la salida, así que lo óptimo es poner unos límites según los cuales podremos considerar el filtro válido, y a partir de ahí analizar cuál es su respuesta. Para ello se recurre al análisis YIELD, que es un análisis que, usando el algoritmo de Monte Carlo, nos permite comprobar el rendimiento o efectividad de nuestro diseño. Para realizar este análisis hay que incluir las especificaciones según las cuales se puede dar el filtro por válido. Las especificaciones elegidas son unas pérdidas de retorno superiores a 13,5dB entre 35÷40MHz, con una reducción de 2MHz en la anchura de banda, y una atenuación mayor de 20dB por debajo de 29MHz y por encima de 48MHz. Haciendo el análisis estadístico obtenemos

Análisis estadístico del filtro. Variables sin correlación.

Análisis estadístico del filtro. Variables sin correlación.

que, sinceramente, es un desastre: sólo el 60% de los posibles filtros generados por variables con un ±5% de tolerancia podrían considerarse filtros válidos. El resto no serían considerados como válidos en un control de calidad, lo que significaría un 40% de material defectivo que se devolvería al proceso de producción.

De la gráfica se puede ver, además, que son las pérdidas de retorno las principales responsables de que exista tan bajo rendimiento. ¿Qué podemos hacer para mejorar este valor? En este caso, tenemos cuatro variables aleatorias. Sin embargo, dos de ellas son del mismo valor (15pF), que cuando son montadas en un proceso productivo, suelen pertenecer al mismo lote de fabricación. Si estas variables no presentan ninguna correlación, las variables pueden tomar valores completamente dispares. Cuando las variables no presentan correlación, tendremos la siguiente gráfica

Condensadores C1 y C3 sin correlación

Condensadores C1 y C3 sin correlación

Sin embargo, cuando se están montando componentes de un mismo lote de fabricación, las tolerancias que presentan los componentes varían siempre hacia el mismo sitio, por tanto hay correlación entre dichas variables.

ANÁLISIS ESTADÍSTICO DEL FILTRO CON CORRELACIÓN ENTRE VARIABLES

Cuando usamos la correlación entre variables, estamos reduciendo el entorno de variación. En este caso, lo que analizamos no es un proceso totalmente aleatorio, sino lotes de fabricación en los cuales se producen las variaciones. En este caso, hemos establecido la correlación entre las variables C1 y C3, que son del mismo valor nominal y que pertenecen la mismo lote de fabricación, por lo que ahora tendremos

Condensadores C1 y C3 con correlación

Condensadores C1 y C3 con correlación

donde podemos ver que la tendencia a la variación en cada lote es la misma. Estableciendo entonces la correlación entre ambas variables, estudiamos el rendimiento efectivo de nuestro filtro y obtenemos

Análisis estadístico con C1, C2 variables correladas

Análisis estadístico con C1, C2 variables correladas

que parece todavía más desastroso. Pero ¿es así? Tenemos que tener en cuenta que la correlación entre variables nos ha permitido analizar lotes completos de fabricación, mientras que en el análisis anterior no se podía discernir los lotes. Por tanto, lo que aquí hemos obtenido son 26 procesos de fabricación completos exitosos, frente al caso anterior que no permitía discernir nada. Por tanto, esto lo que nos muestra es que de 50 procesos completos de fabricación, obtendríamos que 26 procesos serían exitosos.

Sin embargo, 24 procesos completos tendrían que ser devueltos a la producción con todo el lote. Lo que sigue siendo, realmente, un desastre y el Director de Producción estaría echando humo. Pero vamos a darle una alegría y a justificar lo que ha intentado siempre que no exista: el ajuste post-producción.

ANÁLISIS ESTADÍSTICO CON AJUSTE POST-PRODUCCIÓN

Como ya he dicho, a estas alturas el Director de Producción está pensando en descuartizarte poco a poco, sin embargo, queda un as en la manga, recordando que las inducciones las hemos puesto de modo que sean ajustables. ¿Tendrá esto éxito? Para ello hacemos un nuevo análisis, dando valores variables en un entorno de ±10% sobre los valores nominales, y activamos el proceso de ajuste post-producción en el análisis y ¡voilà! Aun teniendo un defectivo antes del ajuste muy elevado, logramos recuperar el 96% de los filtros dentro de los valores que se habían elegido como válidos

Análisis estadístico con ajuste post-producción

Análisis estadístico con ajuste post-producción

Bueno, hemos ganado que el Director de Producción no nos corte en cachitos, ya que el proceso nos está indicando que podemos recuperar la práctica totalidad de los lotes, eso sí, con el ajuste, por lo que con este análisis podemos mostrar no sólo el defectivo sino la capacidad de recuperación del mismo.

Podemos representar cómo han variado las inducciones (en este caso las correspondientes a las resonancias en serie) para poder analizar cuál es la sensibilidad del circuito frente a las variaciones más críticas. Este análisis permite establecer un patrón de ajuste para reducir el tiempo en el que se debe de tener un filtro exitoso.

Análisis de los patrones de ajuste en las inducciones de las resonancias serie

Análisis de los patrones de ajuste en las inducciones de las resonancias serie

Así, con este tipo de análisis, realizado en el mismo momento del diseño, es posible tomar decisiones que fijen los patrones posteriores de la fabricación de los equipos y sistemas, pudiendo establecer patrones fijos de ajuste post-producción sencillos al conocer de antemano la respuesta estadística del filtro diseñado. Una cosa muy clara que he tenido siempre, es que cuando no he hecho este análisis, el resultado es tan desastroso como muestra la estadística, así que mi recomendación como diseñador es dedicarle tiempo a aprender cómo funciona y hacerle antes de que le digas a Producción que tu diseño está acabado.

CONCLUSIONES

En esta entrada hemos querido mostrar un paso más en las posibilidades del análisis estadístico usando Monte Carlo, avanzando en las posibilidades que muestra el método a la hora de hacer estudios estadísticos. El algoritmo nos proporciona resultados y nos permite fijar condicionantes para realizar diversos análisis y poder optimizar más si se puede cualquier sistema. Hemos acudido hasta a un ajuste post-producción, a fin de calmar la ira de nuestro Director de Producción, que ya estaba echando humo con el defectivo que le estábamos proporcionando. En la siguiente entrada, abundaremos un poco más en el método con otro ejemplo que nos permita ver más posibilidades en el algoritmo.

REFERENCIAS

  1. Castillo Ron, Enrique, “Introducción a la Estadística Aplicada”, Santander, NORAY, 1978, ISBN 84-300-0021-6.
  2. Peña Sánchez de Rivera, Daniel, “Fundamentos de Estadística”, Madrid,  Alianza Editorial, 2001, ISBN 84-206-8696-4.
  3. Kroese, Dirk P., y otros, “Why the Monte Carlo method is so important today”, 2014, WIREs Comp Stat, Vol. 6, págs. 386-392, DOI: 10.1002/wics.1314.

 

Análisis estadísticos usando el método de Monte Carlo (I)

imagesCuando nos enfrentamos a cualquier diseño electrónico, por lo general disponemos de métodos deterministas que permiten el cálculo de lo que estamos diseñando, de modo que podemos prever los parámetros que vamos a encontrar en la medida física de cualquier dispositivo o sistema. Estos cálculos previos facilitan el desarrollo y normalmente los resultados suelen coincidir en gran medida con la predicción. Sin embargo, sabemos que todo aquello que creemos o fabriquemos siempre está sometido a tolerancias. Y esas tolerancias provocan variaciones en los resultados que muchas veces no se pueden analizar de forma sencilla, sin una herramienta de cálculo potente. En 1944, Newmann y Ulam desarrollaron un método estadístico no determinista que denominaron Método de Monte Carlo. En las siguientes entradas vamos a analizar el uso de este potente método para la predicción de posibles tolerancias en circuitos, sobre todo cuando son fabricados de forma industrial.

En un sistema o proceso, el resultado final es consecuencia de las variables de entrada. Estas generan una respuesta que puede ser determinada tanto si el sistema es lineal como si es no lineal. A la relación entre la respuesta o salida del sistema y las variables de entrada la denominamos función de transferencia, y su conocimiento nos permite evaluar cualquier resultado en función de la excitación de entrada.

Sin embargo, hay que tener en cuenta que las variables de entrada son variables aleatorias, con su propia función de distribución, debido a que están sometidas a procesos estocásticos, aunque su comportamiento es predecible gracias a la teoría de la probabilidad. Por ejemplo, cuando describimos una medida de cualquier tipo, solemos representar su valor nominal o medio, así como el entorno de error asociado en el que esa magnitud medida puede estar. Esto nos permite limitar el entorno en el cual la magnitud es correcta y decidir cuándo la magnitud se comporta de modo incorrecto.

Durante muchos años, después de haber aprendido a transformar con éxito los resultados obtenidos mediante simulación en resultados físicos reales, con comportamientos predecibles y extrayendo conclusiones válidas, me he dado cuenta que en la mayoría de las ocasiones la simulación se reduce a obtener un resultado apetecido, sin profundizar en absoluto en ese resultado. Sin embargo, la mayoría de los simuladores están dotados de algoritmos estadísticos útiles que, correctamente utilizados, permiten al usuario de la aplicación obtener una serie de datos que puede usar para el futuro y permiten predecir el comportamiento de cualquier sistema, o al menos, analizar qué es lo que se puede producir.

Sin embargo, esos métodos que los simuladores incluyen nos suelen ser utilizados. Ya sea por falta de conocimiento de patrones estadísticos, ya sea por desconocimiento de cómo usar esos patrones. Por tanto, en esta serie de entradas vamos a desgranar el método de Monte Carlo que podemos encontrar en un simulador de circuitos e descubrir un potencial importante que es desconocido para muchos de los usuarios de los simuladores de circuitos.

LOS COMPONENTES COMO VARIABLES ALEATORIAS

Los circuitos electrónicos están formados por componentes electrónicos simples, pero que tienen un comportamiento estadístico, debido a los procesos de fabricación. No obstante, los fabricantes de componentes delimitan correctamente los valores nominales y el entorno de error en que se mueven. Así, un fabricante de resistencias no sólo publica sus valores nominales y dimensiones. También publica los entornos de error en los que esa resistencia varía, el comportamiento con la temperatura, el comportamiento con la tensión, etc. Todos estos parámetros, convenientemente analizados, proporcionan una información importante que, bien analizada dentro de una potente herramienta de cálculo como es el simulador, permite predecir el comportamiento de circuito total.

En este caso se va a analizar exclusivamente el entorno de error en el valor nominal. En una resistencia, cuando el fabricante define el valor nominal (en este caso, vamos a suponer 1kΩ) y expresa que tiene una tolerancia de ±5%, quiere decir que el valor de la resistencia puede estar comprendido entre 950Ω y 1,05kΩ. En el caso de un transistor, su ganancia de corriente β puede tomar un valor entre 100 y 600 (por ejemplo, el BC817 de NXP), por lo que puede haber una variación de corriente de colector importante e incontrolable. Por tanto, conociendo estos datos, podemos analizar el comportamiento estadístico de un circuito eléctrico gracias a la rutina de Monte Carlo.

Analicemos primero la resistencia: hemos dicho que la resistencia tiene una tolerancia de ±5%. Entonces, vamos a analizar usando el simulador el comportamiento de esta resistencia usando la rutina de Monte Carlo. A priori, desconocemos qué función densidad de probabilidad tiene la resistencia, aunque lo más habitual es una función de tipo gaussiano, cuya expresión es ya conocida

normal

donde μ es el valor medio y σ² es la varianza. Analizando con el simulador, mediante el método de Monte Carlo y para 2000 muestras, se puede obtener una representación de la variación del valor nominal de la resistencia, obteniendo un histograma como el que se muestra en la figura siguiente

Distribución de los valores de la resistencia usando el análisis de Monte Carlo

Distribución de los valores de la resistencia usando el análisis de Monte Carlo

El algoritmo de Monte Carlo introduce valor en la variable cuya distribución corresponde a una gaussiana, pero los valores que toma son en todo momento aleatorios. Si esas 2000 muestras se tomasen en 5 procesos de 400 muestras cada uno, seguiríamos teniendo una tendencia a la gaussiana, pero sus distribuciones serían diferentes

Distribuciones gaussianas con varios lotes

Distribuciones gaussianas con varios lotes

Por tanto, trabajando convenientemente con las variables aleatorias, se puede extraer un estudio completo de la fiabilidad del diseño realizado, así como de la sensibilidad que tiene cada una de las variables que se utilizan. En el siguiente ejemplo, vamos a proceder al análisis del punto de operación de un transistor bipolar convencional, cuya variación de β está comprendida entre 100 y 600, con un valor medio de 350 (comprendida β con una distribución gaussiana), polarizado con resistencias con una tolerancia nominal de ±5%, y estudiando la variación de la corriente de colector en 100 muestras.

ANÁLISIS DEL COMPORTAMIENTO ESTADÍSTICO DE UN BJT EN DC

Para estudiar el comportamiento de un circuito de polarización con transistor bipolar, partimos del circuito como el de la figura

Circuito de polarización de un BJT

Circuito de polarización de un BJT

donde las resistencias tienen tolerancias totales de ±5% y el transistor tiene una variación de β entre 100 y 600, con un valor nominal de 350. El punto de operación es Ic=1,8mA, Vce=3,2V. Haciendo el análisis de Monte Carlo para 100 muestras, obtenemos el siguiente resultado

Variación de la corriente del BJT en función de las variables aleatorias

Variación de la corriente del BJT en función de las variables aleatorias

Por la forma de la gráfica, se puede comprobar que el resultado converge a una gaussiana, donde el valor medio predominante es Ic=1,8mA, con una tolerancia de ±28%. Supongamos ahora que hacemos el mismo barrido que antes, en varios lotes de proceso, de 100 muestras cada uno. El resultado obtenido es

Variación de la corriente del BJT para varios lotes

Variación de la corriente del BJT para varios lotes

donde podemos ver que en cada lote tendremos una curva que converge a una gaussiana. En este caso, la gaussiana tiene un valor medio μ=1,8mA y una varianza σ²=7%. De este modo, podemos analizar cada proceso como un análisis estadístico global como por lotes. Supongamos que ahora β es una variable aleatoria con una función de distribución uniforme entre 100 y 600. Analizando sólo para las 100 muestras, se obtiene la curva

Distribución con b uniforme

Distribución con BETA uniforme

y se puede observar que la tendencia de la corriente es a converger a una distribución uniforme, aumentando el rango de tolerancia de la corriente y aumentando la probabilidad en los extremos de su valor. Por tanto, también podemos estudiar cómo se comporta el circuito cuando tenemos distintas funciones de distribución gobernando cada una de las variables.

Visto que, con el método de Monte Carlo podemos analizar el comportamiento en términos de tolerancias de un circuito complejo, también del mismo modo nos ayudará a estudiar cómo podemos corregir esos resultados. Por tanto, a lo largo de las entradas vamos a profundizar cada vez más en el potencial del método y lo que se puede conseguir con él.

CORRIGIENDO LAS TOLERANCIAS

En el circuito básico que hemos utilizado, al caracterizar la β del transistor como una variable uniforme, hemos aumentado la probabilidad de haya posibles valores de corriente que caigan en valores indeseados. Esto es uno de los puntos más problemáticos de los transistores bipolares y de efecto campo, las variaciones de sus ganancias en corriente. Vamos a ver, con un sencillo ejemplo, qué es lo que ocurre cuando usamos un circuito de corrección de la variación de β, como puede ser el circuito clásico de autopolarización por emisor

Circuito con autopolarización por emisor

Circuito con autopolarización por emisor

Usando este circuito, volvemos a hacer un análisis de Monte Carlo y lo comparamos con el análisis obtenido en el caso anterior,pero usando 1000 muestras. El resultado obtenido es

Resultados con ambos circuitos

Resultados con ambos circuitos

donde se puede ver que se ha incrementado la probabilidad en valores en torno a los 2mA, reduciendo la densidad de probabilidad en valores bajos de corriente y estrechando la distribución. Por tanto, el método de Monte Carlo no sólo es un método que nos permite analizar el comportamiento de un circuito cuando se somete a una estadística, sino que nos permitirá optimizar nuestro circuito y ajustarlo a los valores límite deseados. Usado convenientemente, es una potente herramienta de cálculo que mejorará el conocimiento de nuestros circuitos.

CONCLUSIONES

En esta primera entrada de una serie dedicada al método de Monte Carlo, en la que hemos querido presentar el método y su utilidad. Como hemos podido ver en el ejemplo, el uso del método de Monte Carlo proporciona datos de mucha utilidad, sobre todo si deseamos conocer cuáles son las limitaciones y variaciones del circuito que estamos analizando. Por otro lado, nos permite mejorar éste a través de los estudios estadísticos, además de fijar los patrones para la verificación del mismo en un proceso productivo.

En las siguientes entradas profundizaremos más en el método, realizando un estudio más exhaustivo del método a través de un circuito concreto de uno de mis proyectos más recientes, analizando cuáles son los resultados esperados y las diferentes simulaciones que se pueden realizar usando el método de Monte Carlo, como las de caso peor, sensibilidad, y optimización post-producción.

REFERENCIAS

  1. Castillo Ron, Enrique, “Introducción a la Estadística Aplicada”, Santander, NORAY, 1978, ISBN 84-300-0021-6.
  2. Peña Sánchez de Rivera, Daniel, “Fundamentos de Estadística”, Madrid,  Alianza Editorial, 2001, ISBN 84-206-8696-4.
  3. Kroese, Dirk P., y otros, “Why the Monte Carlo method is so important today”, 2014, WIREs Comp Stat, Vol. 6, págs. 386-392, DOI: 10.1002/wics.1314.

 

¡Feliz cumpleaños, Teoría Electromagnética!

maxwell-finHace 150 años, en 1865, el escocés James C. Maxwell publicó “A Dynamical Theory of the Electrodynamic Field”, una Teoría que marcó un hito en el naciente mundo de la Física Moderna, ya que estableció las bases para la unificación de dos campos que, hasta ese momento, se trataban de forma independiente: el Campo Eléctrico y el Campo Magnético. Con esta unificación, Maxwell puso las bases para comprender el comportamiento de los fenómenos electromagnéticos y su propagación, siendo la base hoy día del funcionamiento de nuestras comunicaciones. Desde esta entrada, queremos dar a conocer estas ecuaciones, su significado y su importancia, y rendir homenaje a uno de los científicos más importantes de los últimos tiempos.

No es una casualidad que este año los Físicos celebremos el Año Internacional de la Luz, puesto que fue hace 150 años cuando un físico escocés publicó las bases para la Teoría Electromagnética, marcando un antes y un después en el conocimiento de los fenómenos eléctricos y magnéticos y logrando la primera unificación en una sola Teoría de dos campos que, hasta ese momento, eran tratados de formas diferentes: el Campo Eléctrico y el Campo Magnético.

Hasta este momento, se conocían ciertas interrelaciones entre ambos fenómenos. Conocíamos, a través de la Electrostática, la Ley de Coulomb y el Teorema de Gauss, que el campo eléctrico era generado por cargas que interaccionaban entre ellas, y a través de la Ley de Biot-Savart y la Ley de Ampère, que los campos magnéticos eran generados por corrientes (cargas en movimiento) y que generaban interacciones entre ellos, a través de la fuerza de Lorenz. Sin embargo, todas las leyes y axiomas de los campos de los campos Eléctrico y Magnético se trataban como algo independiente, no había una unificación que mostrase de forma contundente las interrelaciones hasta que Maxwell las unificó.

Al principio se trataba de una veintena de ecuaciones integro-diferenciales, aunque en realidad se podían reducir a las ecuaciones actuales, debido a que Maxwell las escribió para cada eje de coordenadas. Usando el operador diferencial diferencial ∇ y las interrelaciones matemáticas entre las integrales y dicho operador, al final las ecuaciones quedaron descritas tal y como se conocen hoy, tanto en su forma integro-diferencial como en su más popular descripción diferencial vectorial.

Ecuaciones de Maxwell y sus leyes

Ecuaciones de Maxwell y sus leyes

Este conjunto de cuatro ecuaciones establecen la unificación de los campos Eléctrico y Magnético en una nueva Teoría que se llama la Teoría Electromagnética, la primera gran unificación de campos realizada en la Física y una de las más bellas descripciones que existen en la disciplina.

No vamos a ir desgranando una a una las ecuaciones, ya que en varias ocasiones lo hemos hecho en otras entradas, pero uno de los detalles más evidentes que se sacan de las ecuaciones, y que las hace interesantes, es su asimetría. Esta asimetría, debida precisamente a la diferencia entre el comportamiento de ambos campos, se hace patente dos a dos: en la Ley de Gauss de ambos campos, y entre la Ley de Faraday y la de Ampère.

Asimetría de la Ley de Gauss

La Ley de Gauss o Teorema de la Divergencia está relacionada con las fuentes y sumideros de las líneas de fuerza del campo, y muestra hacia dónde divergen estas líneas de interacción. En el caso del campo eléctrico, las líneas divergen hacia las cargas, que son las fuentes o sumideros de las líneas de campo. Gráficamente se puede expresar como

350px-LineasCampo

Divergencia de las líneas de capo eléctrico a las cargas

Por tanto, las líneas del campo eléctrico nacen y mueren en las cargas.

En el caso del campo magnético podemos observar que la divergencia es nula, esto es, no hay fuentes o sumideros a los cuales las líneas de campo magnético diverjan. Por tanto, no existen los monopolos magnéticos. El campo magnético rota sobre el origen del mismo, que lo establece la Ley de Ampère y que son las corrientes ocasionadas por cargas en movimiento. Y su expresión más gráfica es

Campo magnético rotando alrededor de una línea de corriente

Campo magnético rotando alrededor de una línea de corriente

Esta asimetría muestra que ambos campos son diferentes en su origen, lo que se muestra muy claramente cuando los campos son estáticos. No obstante, la no dependencia temporal de estas ecuaciones las hace válidas no sólo para los campos estáticos, sino también para los campos dinámicos. Es la otra asimetría, la de las leyes de Faraday y Ampère, la que introduce, además, el dominio temporal.

Asimetría de las Ley de Faraday y Ampère

Las leyes del campo están relacionadas con los campos dinámicos, aquellos que varían de forma temporal. La primera dice que la variación de un flujo magnético con el tiempo genera una fuerza electromotriz, o llanamente, que la variación de un campo magnético genera un campo eléctrico. Es el principio de las dinamos y los generadores eléctricos, en los que, al variar el flujo de un campo magnético mediante medios mecánicos, son capaces de generar un campo eléctrico.

En la Ley de Faraday también está presente la Ley de Lenz, que indica que ese campo eléctrico tiende a oponerse a la variación del campo magnético, y por eso el signo negativo en la expresión.

La segunda, la Ley de Ampère, parte de la ley de la magnetostática, que dice que la circulación de un campo magnético a través de una línea cerrada es proporcional a la corriente que encierra ese contorno. Esta Ley de la Magnetostática fue generalizada por Maxwell al introducir los campos eléctricos variables con el tiempo, mostrando un resultado que, en su forma diferencial, guarda similitud con la Ley de Faraday, salvo que introduce la densidad de corriente para que se mantenga coherente con la Ley de Ampère de la Magnetostática. La conclusión, por tanto, es que los campos eléctricos variables con el tiempo generan campos magnéticos y los campos magnéticos variables con el tiempo, eléctricos.

A pesar de la asimetría de las expresiones, que es la que genera, bajo mi punto de vista, la belleza de la descripción del escocés, de ellas se deduce una de las conclusiones más importantes de la Teoría Electromagnética, y es que los campos electromagnéticos son ondas que se propagan en cualquier medio material dieléctrico, no necesitando de soportes físicos, a diferencia de otros tipos de ondas como las acústicas, que presentan características similares en la formulación de los campos asociados. Esta conclusión es la que nos permite asociar fenómenos como la propagación luz, que presenta una dualidad partícula-onda ya que es un campo electromagnético formado por partículas llamadas fotones. Y al poder propagarse en el vacío, puede transmitir de un lugar a otro la información, que en el caso de la luz, es la visión de un fenómeno que haya ocurrido en el Universo a través de su observación.

Los campos electromagnéticos como ondas que se propagan en el espacio

De resolver las ecuaciones, se puede llegar a las ecuaciones de onda de Helmholz, tanto para el campos eléctrico como para el magnético.

Ecuaciones de onda para el campo eléctrico y magnético

Ecuaciones de onda para el campo eléctrico y magnético

En estas ecuaciones la asimetría que presentan las ecuaciones de Maxwell desaparece, y se pueden resolver como una onda propagándose por un medio material, incluido el vacío, en el que la velocidad de propagación es la velocidad de la luz, c, siendo ésta la máxima velocidad a la que se puede propagar la onda.

Resolviendo esta ecuación de onda, obtendremos la forma en la que se propaga un campo electromagnético en el medio, como una onda compuesta por un campo eléctrico y un campo magnético variables con el tiempo.

El campo electromagnético como onda de propagación

El campo electromagnético como onda de propagación

donde en azul tenemos el campo eléctrico, en rojo el campo magnético y en negro la dirección de propagación de la onda.

Influencia de la Teoría Electromagnética en nuestras vidas

Es evidente que la Teoría Electromagnética de Maxwell ha tenido una influencia notable en nuestras vidas, afectando en muchos aspectos, pero donde más influencia ha tenido es en la comunicación. Los seres humanos necesitamos comunicarnos, y la Teoría Electromagnética de Maxwell nos abre las puertas a un campo en el que las comunicaciones casi no tienen límites. Las comunicaciones modernas no se podrían entender sin esta notable contribución del escocés, y este año no celebraríamos el Año Internacional de la Luz si no hubiese existido todavía esta unificación de campos. Hoy día la Teoría Electromagnética forma parte habitual de nuestras vidas y costumbres, a través de las comunicaciones a larga distancia, ya sean inalámbricas, por cable o por fibra óptica. Recibimos imagen y sonido gracias a ella, así como podemos comunicarnos a larga distancia gracias a la transmisión por radio y enviar datos a cualquier parte del mundo. Es una de las cuatro interacciones de la naturaleza, junto a la gravedad y a las interacciones fuerte y débil del mundo atómico, y por tanto, por ese motivo podemos decir con orgullo ¡Feliz cumpleaños, Ecuaciones de Maxwell!

Referencias

  1. John R. Reitz, Frederick J. Milford, Robert W. Christy, “Foundations of Electromagnetic Theory”, Addison-Wesley Publishing Company, Inc., Massachusetts (USA), 1979

Influencia de los campos electromagnéticos en la dinámica de los fluidos

la_caza_del_submarino_rusoAunque parezca lo contrario, en esta entrada no vamos a hablar de novelas de espías, pero sí vamos a usar un argumento de la trama de una conocida novela de espionaje para presentar la teoría magnetohidrodinámica. Ésta es una disciplina de la física, que forma parte de la teoría de campos y analiza el movimiento de fluidos con carga eléctrica en presencia de un campo electromagnético y sus posibles aplicaciones. Comprendiendo los principios de la dinámica de fluidos, llegaremos a las ecuaciones que constituyen la base de la teoría, sus conclusiones y su actual utilización.

Los que conozcan la trama de la novela de Tom Clancy “The hunt of Red October”, sabrán que trata sobre la deserción de un submarino soviético de la clase Typhoon, dotado de un sistema de propulsión silencioso y difícilmente detectable por el sonar. En la novela, se le describe como “propulsión magnetohidrodinámica” y consiste en generar flujo de corriente hidráulica a lo largo de la nave usando campos magnéticos. Este flujo permite su desplazamiento sin usar los motores convencionales, aprovechando las características conductivas del agua salada. Este sistema de propulsión silenciosa convertía a la nave en algo letal y peligroso de verdad, puesto que podría acercarse a la costa de los EE.UU. sin ser detectado y lanzar un ataque con cabezas nucleares sin que nadie lo pudiese evitar. Esta es la trama, pero, ¿cuánto hay de cierto en la misma? ¿Existe un método de propulsión o un sistema que provoque el movimiento de un fluido por la presencia de un campo electromagnético? ¿Y a la inversa? ¿Podemos generar un campo electromagnético sólo usando el movimiento de un fluido cargado?

Aunque pueda parecer que, al tratarse de una novela de espías y acostumbrados como estamos a la tendencia de la ficción a crear ciertas bases argumentales, a veces ilusorias, para dotar de cierto dramatismo a la trama, lo cierto es que la teoría magnetohidrodinámica es muy real. Tanto, que el primer efecto destacable de la misma lo podemos comprobar simplemente con la presencia del campo magnético terrestre. Este es fruto del movimiento del núcleo interno de la tierra, compuesto de una capa de hierro líquido (fluido) que envuelve a una gran masa de hierro sólido. Este núcleo , que se mueve acompasado por la rotación de la Tierra, tiene cargas en movimiento que generan una corriente eléctrica, y esa corriente eléctrica genera el campo magnético que protege a la Tierra de los embates de partículas de alta energía que proceden de nuestra estrella, el Sol.

El propio Sol, que es una nube de gas en estado de plasma, tiene poderosos campos magnéticos que determinan el movimiento de las partículas que constituyen el plasma en su interior. Por tanto, la teoría magnetohidrodinámica que usa Clancy en esa trama es muy real. Vamos entonces a desvelar sus bases.

DINÁMICA DE FLUIDOS: LAS ECUACIONES DE NAVIER–STOKES

Un fluido es un medio material continuo formado por moléculas donde sólo hay fuerzas de atracción débil, que se encuentra en uno de estos tres estados de la materia: líquido, gaseoso o plasma. La dinámica de fluidos es la parte de la física que se ocupa del estudio del movimiento de estos medios en cualquiera de estos estados, siendo la masa del fluido la parte que se desplaza de un punto a otro.

Del mismo modo que en campos electromagnéticos definíamos la corriente eléctrica como la variación de la carga con el tiempo, en los fluidos hablaremos de un flujo de corriente ψ que es la variación de la masa M del fluido respecto del tiempo.

Si tomamos una superficie donde hay ni partículas de masa mi que se mueven a una velocidad vi, podemos definir una densidad de flujo de corriente ℑ, que se expresa como

Flujo de corriente debida a partículas de masa m

Flujo de corriente debida a partículas de masa m

Vamos a considerar, como se muestra en la figura, que nuestro fluido es un medio material que tiene todas las partículas de la misma masa, por lo que el producto ni⋅mi se puede extraer del sumatorio, quedando entonces una velocidad v  que es la suma vectorial de todas las velocidades de las partículas del fluido.

La relación entre el flujo de corriente y la densidad de flujo de corriente es una integral a lo largo de una superficie S. Si integramos el flujo de corriente total en una superficie cerrada, por la conservación de la masa, tendremos que es igual  es la variación de la masa con respecto al tiempo, y siendo la densidad la masa por unidad de volumen, podemos escribir que

continuity1

Como este flujo de corriente se opone a la variación de la masa respecto del tiempo, y la masa es la integral de volumen de la densidad del fluido ρMy aplicando el teorema de la divergencia, podemos escribir esta expresión en su forma diferencial

continuity2

que es la ecuación de continuidad de un fluido y que representa la conservación de la masa neta dentro del fluido. Esta es una de las ecuaciones de Navier-Stokes, primordial para comprender el movimiento de las partículas del fluido.

Para la otra ecuación, debemos de recurrir a la derivada sustancial. Esta es una descripción que incluye no sólo la variación con respecto al tiempo de la magnitud física del fluido, sino que además incluye la variación de la misma respecto de la posición. La expresión de la derivada sustancial es

sustancial

donde v es la velocidad del fluido y  el operador diferencial que ya vimos en la entrada sobre radioenlaces. Como el momento lineal del fluido se conserva, cuando interviene la fuerza de la gravedad , actúa además una presión P en sentido contrario al movimiento en el fluido y contraponiéndose a las deformaciones una viscosidad μobtenemos que

Esta es la ecuación del movimiento de un fluido, y es no lineal debido a la derivada sustancial. Por tanto, en un fluido intervienen no sólo las fuerzas aplicadas en el fluido, sino también la presión de éste y su viscosidad. Si el fluido no presentase viscosidad, y aplicando la derivada sustancial  a la ecuación anterior, podemos obtener un caso particular

noviscoso

que nos define la ecuación del movimiento de un fluido no viscoso.

DINÁMICA DE FLUIDOS: MAGNETOHIDRODINÁMICA

Si el fluido presenta partículas cargadas y aplicamos un campo electromagnético, con componentes E y B, la fuerza que interviene en este caso no es la gravedad, sino la fuerza de Lorenz que aplica el campo magnético

florenz

donde J es la densidad de corriente eléctrica en el fluido y B el campo magnético aplicado. En la expresión desarrollada, obtenida a partir del desarrollo de la Ley de Ampere y una de las identidades del operador diferencial , obtenemos dos términos. El primero es una fuerza de tensión magnética mientras que el segundo término se asemeja a una presión magnética producida por la densidad de energía magnética del campo. Sustituyendo F en la expresión obtenida en el apartado anterior y considerando un fluido no viscoso, tendremos que

movimiento2

Teniendo en cuenta que, según las ecuaciones de Maxwell, la divergencia del campo magnético es nula, si consideramos un campo magnético unidireccional, las variaciones espaciales de la divergencia son perpendiculares al campo, por lo que la fuerza de tensión magnética se anula y la expresión anterior queda

movimiento3

Si el fluido está en estado de plasma, tenemos que la Ley de Ohm se puede escribir como

ohm

debido a que en este estado la conductividad tiende a ser infinita y para mantener el flujo de corriente, la fuerza aplicada debe ser lo más baja posile. De este modo, la Ley de Faraday queda como

faraday

CONCLUSIONES DE LAS ECUACIONES

Como hemos podido comprobar, la magnetohidrodinámica es, en realidad, una consecuencia de aplicar campos electromagnéticos a fluidos que poseen carga eléctrica, y en esto se basaba Clancy para “propulsar” su Octubre Rojo. No obstante, los intentos de generar un propulsor naval de estas características se han quedado en prototipos construidos en los años 60 puesto que las inducciones magnéticas que requerían eran elevadas (del orden de más de 5 Tesla) en compartimientos muy voluminosos (centenares de m3). Por tanto, el submarino de la clase Typhoon cumplía con las exigencias de proporcionar el debido dramatismo a la novela, sin despreciar por ello la base científica en la que se basaba, debido al tamaño de este tipo de naves, considerados por los EE.UU. como colosos de las profundidades debido al desplazamiento de toneladas que eran capaces de propulsar.

No quiere decir que la aplicación de la magnetohidrodinámica esté actualmente aparcada. Debido a ella, los astrofísicos han logrado generar modelos basados en estas ecuaciones para determinar las trayectorias de las partículas en el Sol y predecir erupciones solares. Y los geofísicos, comprender mejor la estructura de los núcleos de los planetas.

Además, estas técnicas son utilizadas desde hace años también en metalurgia: a medida que calentamos un metal transformándolo en un fluido, incrementamos notablemente su conductividad, de modo que se puede aplicar la Ley de Ohm para los plasmas. Esto evita, en los procesos de fundición y generación de aleaciones, que el metal entre en contacto con el crisol y adquiera escoria, mejorando notablemente la calidad de la aleación. Es el principio de los altos hornos eléctricos, que vinieron a sustituir a los antiguos que usaban carbón.

También se han encontrado aplicaciones para generar energía eléctrica a partir del movimiento de un gas en presencia de un ampo magnético, así como el confinamiento del estado de plasma para los reactores de energía nuclear de fusión. Por no hablar de los experimentos realizados en el LCH, en Suiza. No obstante, se sigue teniendo el problema de la gran inducción magnética generada y el volumen necesario para mantener los plasmas.

Sin embargo, es una pequeña parte de todo lo que se podría llegar a conseguir con mejor tecnología. A medida que se desarrolle ésta, la magnetohidrodinámica proporcionará mejores aplicaciones.

References

  1. J. R. Reitz, F. J. Milford, R. W. Christy, “Foundations of the Electromagnetic Theory”; Addison-Wesley Publishing Company, Inc, Massachusetts (U.S.A.), 1979
  2. H. Alfvén, “Existence of electromagnetic-hydrodynamic waves“. Nature 150: 405-406, 1942