SHARENG Divulgación

Inicio » Divulgación

Category Archives: Divulgación

La estadística y su correcto uso


importancia-graficos-estadistica_image007Una de las herramientas más usadas en la actualidad, sobre todo desde que tenemos máquinas que son capaces de computar muchos datos, es la estadística
. Se trata de una potente herramienta que, bien utilizada, puede proporcionarnos previsiones, sobre todo en sistemas caóticos. Dentro de este tipo de sistemas podemos incluir desde fenómenos atmosféricos a comportamientos de grupos humanos, aunque también se usa para resolver problemas en sistemas deterministas, cuando aparecen fenómenos no previstos que hay que corregir. En estos tiempos, el uso de la estadística se ha extendido a todos los ámbitos, si bien hay que responder a una clara pregunta: ¿de veras sabemos utilizarla? ¿O sólo extraemos las conclusiones que a nosotros nos interesan? En esta entrada voy a tratar de mostrar algunos términos que hay que tener en cuenta en la mecánica estadística y cómo se deberían interpretar sus resultados.

 Por estadística podemos entender dos cosas:

  • Es la herramienta matemática que utiliza conjuntos de datos numéricos, que representan sucesos, para obtener resultados basados en el cálculo de probabilidades.
  • Es el estudio que reúne y clasifica todos los sucesos que posean alguna característica en común, para que con esa clasificación se puedan extraer conclusiones.

En estas dos definiciones tenemos dos conceptos diferentes: el primero, la estadística como disciplina matemática mecánica, con unas reglas claras basadas en la clasificación y el cálculo de probabilidades. Una herramienta que casi todas las disciplinas humanas, ya sean científicas, tecnológicas o sociales, tienen que usar para extraer conclusiones.

Por otro lado, tenemos el estudio estadístico, que no es estadística como disciplina, pero que se suele utilizar dicho término para referirse a él. La segunda definición está englobada en la primera, porque el estudio estadístico es el recuento de determinados sucesos para extraer una conclusión. Por tanto, la estadística, como tal, no muestra resultados, sólo clasifica los sucesos. Sólo nosotros somos los capacitados para interpretarlos.

Una de las frases a las que suelo recurrir muchas veces, cuando alguien me blande estadísticas como hechos incontestables, es un estudio estadístico muestra que las personas comemos un pollo a la semana. Esta semana yo me he comido dos pollos y tú ninguno, así que te deseo que te siente bien el pollo que no has comido. Uno de los mayores errores que se pueden cometer es el considerar a la estadística como un hecho incontestable, cuando sólo son datos agrupados. El hecho, que puede ser incontestable o no, es la interpretación que podamos hacer de esos datos, y ésta puede ser errónea si no aplicamos las reglas mecánicas de la estadística. Estas reglas se encuentran en la Teoría de Probabilidades, donde se definen una serie de herramientas a tratar en la disciplina para lograr obtener mejores interpretaciones. Si estas reglas no son utilizadas, las interpretaciones pueden ser de lo más variopintas.

La importancia de la estadística es tal, que hasta los Estados tienen departamentos exclusivos para trazar los estudios, interpretar los resultados y poder actuar en función de los mismos. El problema radica en cuando se transmiten esos datos a la sociedad, cómo se transmiten, qué porcentajes de error pueden presentar, qué correlación existe entre los sucesos y que conclusiones extrae el que los maneja, que es el que conoce todos los datos y los ha interpretado. Hay que tener en cuenta que la mayor parte de la población no tiene porqué saber más estadística que la estudiada en las matemáticas de la ESO y el Bachillerato, y que la estadística es una mecánica mucho más compleja que contar las caras de un dado y asignar una probabilidad.

Los sucesos, lo único medible de la estadística

Los sucesos, en la estadística, son los datos que se quieren medir. Y los sucesos pueden ser de varios tipos: elementales, compuestos, seguros, imposibles, compatibles, independientes, dependientes y contrarios. Dependiendo de lo que se vaya a estudiar, hay que clasificar los sucesos, que es lo único medible de la estadística.

Los sucesos, de por sí,  no proporcionan conclusiones. Las conclusiones se obtienen de su clasificación. Y la clasificación, para que las conclusiones sean realmente resultado de un estudio estadístico, son fruto de pasar por las reglas establecidas en la mecánica estadística.

Un ejemplo de violación de las reglas estadísticas se pueestudiode ver en el reciente debate de 13-J, donde los cuatro líderes de los partidos principales son sometidos al juicio del público. Según la captura de imagen, uno de los líderes ya era ganador antes de que el suceso medible ocurriese.

En cierto modo, podríamos pensar que la foto está trucada, y es una posibilidad a tener en cuenta, pero teniendo en cuenta también  que dicha estadística no pasa por las reglas establecidas de la estadística, independientemente de que sea o no verdadera la foto, los resultados no se pueden presentar como un estudio estadístico y sus conclusiones posteriores no se pueden tomar como válidas, aunque a algunos les guste el resultado.

Es en este punto cuando la estadística toma su más siniestra utilización: manipulación de los resultados.

El incorrecto uso de la estadística: la manipulación

Debido a que la mayoría de la población desconoce las reglas establecidas para el estudio estadístico (definición de sucesos, tamaño de las muestras, criterios de medición, estimaciones sobre resultados, contrastes de hipótesis, etc.), aquí vuelve otra vez a aparecer mi frase favorita acerca del consumo de pollo por la población: se publican los resultados y no los criterios que han llevado a esos resultados, por lo que aparece un elemento de manipulación evidente, ya que se están utilizando los datos bajo criterios evidentemente orientados a conseguir una respuesta determinada. La estadística no tiene esa función, su función es proporcionarnos los datos para mostrarnos tendencias que permitan corregir aquellas cosas que necesiten corrección, o poder determinar resultados cuando los sistemas son caóticos.

falsa encuestaHemos visto lo que un periódico digital publica antes de tiempo, pero podemos ver otra encuesta en la que también se observa una clara manipulación, ésta cortesía de 13TV. En esta “encuesta” se pregunta a los telespectadores quién ha ganado el debate del pasado lunes. Recordemos que en ese debate había cuatro líderes políticos, y la cadena de la Conferencia Episcopal ha eliminado, de un plumazo, a dos de ellos.

Podemos entender que no son santo de devoción ni de los periodistas de la cadena ni de sus principales accionistas, pero teniendo en cuenta quiénes son esos accionistas, tendrían que pensar en cierto mandamiento que ellos deberían cumplir a rajatabla porque forma parte de su doctrina: “No levantarás falso testimonio ni mentirás”. Parece ser que aquí se vuelve a recurrir al maquiavélico principio de que “el fin justifica los medios”, pero no sabía que la Iglesia Católica española tuviese al célebre escritor renacentista florentino entre sus bases doctrinales.

Podemos poner más ejemplos de encuestas y estudios estadísticos sesgados, más orientados a obtener una respuesta en la población que a analizar un suceso concreto. Osea, se tienen las conclusiones y hay que crear un espacio de sucesos y unos criterios de medición que permitan llegar a esas conclusiones, lo que vulnera las reglas de la estadística y, por tanto, se convierten en mero discurso manipulador para generar un estado de opinión y no una interpretación acertada de la realidad.

La estadística tiene que ser fría

Así es, aunque seamos humanos y tengamos sentimientos y las cosas nos afecten, para hacer un estudio estadístico hay que librarse de juicios previos y de ganas de obtención de resultados que nos den la razón y que se ajusten a nuestros deseos. Los sucesos se deben de obtener mediante la fría medición, sin ninguna intervención sobre ella. Por eso, la definición del espacio de muestras y de los sucesos debe de ser independiente a nuestros deseos y afinidades. Si no es así, el estudio carece de validez y no proporciona nada más que consuelo o euforia, cuando no es engañarnos a nosotros mismos.

Otra cosa es la elaboración de conclusiones e hipótesis, la célebre cocina a la que las empresas de estadística someten los resultados. Pero la validez del estudio sólo será aceptable si son conocidos los criterios para cocinar los resultados. Es una norma estadística básica y que debe de ser conocida y aceptada por el receptor para estimar si las conclusiones son acertadas o simplemente son fruto de una manipulación orientada a volver a obtener algo que nos guste y crear estados de opinión.

Es importante comprender que la estadística, como herramienta que nos ayuda a obtener hipótesis, es una magnífica herramienta. Pero que en malas manos, se transforma en algo odioso y pierde su verdadera utilidad.

 

¿Hacen su labor los medios respecto a la forma de tratar los conocimientos científicos?

trudeauDejando un poco aparte (al menos, hasta el próximo mes) la divulgación técnica pura, recientemente me he encontrado con una noticia en varios medios que me ha parecido, cuanto menos, sorprendente. No porque el Primer Ministro canadiense sepa bastante de Mecánica Cuántica, ya que podría estar sorprendido en el caso de que conociese su trayectoria académica y en ésta no describa si ha estudiado o no sobre el tema, sino por el grado de desconocimiento que algunos periodistas tienen de las personas a las que están preguntando, que pueden provocar patinazos (o como se dice en el argot de Twitter, “zascas en toda la boca”) como el del que se han hecho eco nuestros medios. Por este motivo, me he lanzado a escribir una entrada de opinión sobre el tema, retomando de algún modo uno de los apartados que quise siempre para este blog, que fuese también un lugar de divulgación para todos los públicos y no sólo para los muy técnicos. Con ese compromiso retomo desde hoy la inclusión de entradas no exclusivamente técnicas, que estén relacionadas, como siempre, con el mundo científico y tecnológico y sus avances.

LA ACTITUD DE POLÍTICOS Y PERIODISTAS FRENTE A LOS CONOCIMIENTOS CIENTÍFICOS

Recientemente, la prensa vulgarmente llamada “seria” se ha hecho eco de un hecho que, parece ser, consideran “anormal”: que un Primer Ministro, además de tener ese cargo, dé una clase magistral de Computación Cuántica a un periodista que quiso pasarse de listo, cuando requirió a Justin Trudeau que le explicase algo sobre dicho tema. Ni corto ni perezoso, el mandatario canadiense no sólo le contestó sino que le dio una clase magistral de 35 segundos a un periodista que creyó que ésta era la suya.

Vivimos unos tiempos en los que parece que el pensamiento crítico más elemental ha desaparecido de algunos despachos oficiales y algunas líneas editoriales, y que se juzga más a la gente por un tuit equivocado que por una larga trayectoria, sin que se haga el más mínimo esfuerzo en conocer a quién te diriges cuando le preguntas. Algo que debería ser elemental para cualquier profesional de los medios de comunicación: si quieres saber cómo te va a contestar y si te va a contestar a una pregunta, primero estudia la trayectoria del interrogado, para que sepas hacerle la pregunta.

Parece ser que a los medios les sorprende que Justin Trudeau sepa de Computación Cuántica porque muchos de los lectores eso les suena a chino mandarín, también en parte gracias a la pésima labor de divulgación de algunos medios escritos, que suelen equiparar ciencia con pseudociencia, como si ambas estuviesen en el mismo nivel, alegando esa excusa de que todo el mundo tiene derecho a que se les proporcione información. Lo que pasa es que se les suele olvidar el adjetivo milagroso: veraz.

Cierto es que muchos políticos carecen de conocimientos científicos, y algunos hasta adolecen del más elemental conocimiento acerca de lo que significa el mundo científico y sus avances, usándolo sólo los mismos cuando se trata de hacerse una foto frente a un científico famoso cuando ha ganado algún premio. Un caso paradigmático fue el del Dr. D. Severo Ochoa: cuando ganó el premio Nobel, el régimen imperante en España se acordó de él y le quiso repatriar con promesas de inversiones y laboratorios, cuando unos años antes ese mismo régimen no le concedía ni el pasaporte para poder salir de la Alemania nazi. Muchos políticos adolecen de esa falta, pero también es cierto que otros tienen cultura científica, sin que la prensa les preste atención cuando opinan de algo que no sea la pura palestra política.

¿DE QUÉ NOS EXTRAÑAMOS SI HEMOS TENIDO POLÍTICOS CON DOS TITULACIONES Y HASTA LAS EJERCÍAN?

boyer1-aEsta prensa que hoy está jaleando a Trudeau, convirtiendo en noticia algo que no debería serlo tanto, es la misma prensa que obvió o que no concedió interés a un artículo de Miguel Boyer Salvador, ex-Ministro de Economía del primer gabinete de Felipe González, en el que el recientemente fallecido economista hacía una disertación acerca del dilema que supondría si los resultados obtenidos en el proyecto OPERA en 2011 (neutrinos viajando a una velocidad más alta que la de la luz) se verificaban. En su etapa más joven, Miguel Boyer, Licenciado en Ciencias Económicas y Ciencias Físicas, también opinaba sobre temas científicos y sobre la filosofía de la ciencia. No era, pues, un político inculto científicamente pues de cuando en cuando, el ex-Ministro de Economía se dejaba caer por Universidades de Verano siendo participante o ponente de cursillos que no eran ni estrictamente políticos ni económicos.

Aunque este artículo se hubiese publicado después de la clase magistral de Trudeau, los periodistas hubiesen seguido sin prestarle atención, puesto que el titular era que hay un político que no es inculto y que sabe de Mecánica Cuántica, como si hubiesen probado la existencia de los unicornios, en lugar de haber estudiado antes la biografía de Justin Trudeau y su brillante trayectoria académica, en la que se destaca, aparte de su Licenciatura en Educación, sus estudios de ingeniería en la Politécnica de la Universidad de Montreal y su Maestría en Geografía Medioambiental en la Universidad McGill, lo que viene a mostrar a un hombre que se preocupa por formarse cuando quiere dotarse de una opinión contrastada. Desgraciadamente, aquellos políticos que adolecen de esa falta de rigor, tratando con desdén los conocimientos científicos y a las personas que los generan, tapan la brillantez de otros políticos que sí que se preocupan de su autoformación. Estos últimos los hay, existen, pero no son tan noticia para una prensa que un día publica el descubrimiento del Bosón de Higgs y al día siguiente, en el mismo apartado de Ciencia, una disertación sobre los peligros de las ondas electromagnéticas no ionizantes, si bien es cierto que la camada de políticos más brillantes de la reciente Historia de España se ha dado, precisamente, en la Transición. Hoy en día, muchos políticos lo son de carrera, ascendiendo dentro del propio partido sin haber tenido experiencia previa en otro sitio diferente.

Sin embargo, con el perfil de estos políticos también aparece el perfil del periodista que desdeña la labor de proporcionar esa información veraz. Porque la información tiene que ser eso, veraz, ya que la prensa de hoy día será la fuente de la Historia de mañana, como los autores clásicos del mundo romano nos permiten conocer cómo era su tiempo y sus costumbres.

No se puede tampoco meter en este saco a todos los periodistas, puesto que los hay muy brillantes dentro de esta profesión. Pero sí hay que indicar que la tendencia a vivir a ritmo de tuit en lugar de hacer la pesada y ardua labor de documentarse previamente está causando, en mi opinión, estragos entre lo que debería ser la diferencua entre una información veraz y puro rumo, cotilleo o “chisme”.

Hoy en día, el  mundo científico español y, sobre todo, nuestros científicos están sufriendo, por un lado, la apatía de quienes gobiernan actualmente nuestro país, cuyo rigor a la hora de tratar este conocimiento es poco menos que nulo, despreciando un modelo productivo basado en el valor añadido del conocimiento, y basándose en el agotado modelo del yo te lo hago más barato, condenando con esa política por un lado, a limitar el crecimiento de nuestro país, y por otro, a la mal llamada movilidad laboral de nuestros científicos, obligados a tener que coger las maletas y ejercer su profesión en centros de investigación y laboratorios de otros países, donde este conocimiento no es desdeñado sino que se ve como una oportunidad.

Y ésa debería ser la labor de la prensa llamada “seria”: centrar la importancia en el conocimiento científico y evitar el recurso fácil de reproducir titulares facilones para atraer más público, así como dejar de situar al mismo nivel este conocimiento y la falta de evidencia de las pseudociencias. Porque el hecho de que haya políticos incultos científicamente no convierte a los que publican noticias en expertos en ciencia. Dentro del mundo periodístico hay incultos científicamente como los hay en casi todas las profesiones no relacionadas con éste ámbito. Así que espero que el “zasca” a este periodista retome un poco la deontología de que cualquier entrevista, editorial o titular debe de estar tan rigurosamente documentada en fuentes como lo está un artículo sobre la Física de Plasmas.

REFERENCIAS

  1. Boyer Salvador, M.,”Dilema radical en la física: “Einstein, ¿sí o no?”“,El País, 6/10/2011
  2. Boyer Salvador, M.,”Popper y los nuevos filósofos de la ciencia“, El País, 7/11/1984
  3. Delgado, J.,”Boyer defiende la libertad como valor absoluto en el seminario sobre Popper“, El País, 31/07/1991
  4. Justin Trudeau, Wikipedia
  5. Justin Trudeau, Liberal Party Website
  6. Miguel Boyer Salvador, Wikipedia

 

Análisis estadísticos usando el método de Monte Carlo (II)

Art02_fig01En la anterior entrada mostramos con una serie de ejemplos simples cómo funciona el método de Monte Carlo para realizar análisis estadísticos. En esta entrada vamos a profundizar un poco más, haciendo un análisis estadístico más profundo sobre un sistema algo más complejo, analizando una serie de variables de salida y estudiando sus resultados desde una serie de ópticas que resultarán bastante útiles. La ventaja que tiene la simulación es que podemos realizar una generación aleatoria de variables, y además, podemos establecer una correlación de esas variables para conseguir distintos efectos al analizar el funcionamiento de un sistema. Así, cualquier sistema no sólo se puede analizar estadísticamente mediante una generación aleatoria de entradas, sino que podemos vincular esa generación aleatoria a análisis de lotes o fallos en la producción, así como su recuperación post-producción.

Los circuitos que vimos en la anterior entrada eran circuitos muy sencillos que permitían ver cómo funciona la asignación de variables aleatorias y el resultado obtenido cuando estas variables aleatorias forman parte de un sistema más complejo. Con este análisis, podíamos comprobar un funcionamiento y hasta proponer correcciones que, por sí solas, limitasen las variaciones estadísticas del sistema final.

En este caso, vamos a estudiar el efecto dispersivo que tienen las tolerancias sobre uno de los circuitos más difíciles de conseguir su funcionamiento de forma estable: el filtro electrónico. Partiremos de un filtro electrónico de tipo paso banda, sintonizado a una determinada frecuencia y con una anchura de banda de paso y rechazo determinadas, y realizaremos varios análisis estadísticos sobre el mismo, para comprobar su respuesta cuando se somete a las tolerancias de los componentes.

DISEÑO DEL FILTRO PASO BANDA

Vamos a plantear el diseño de un filtro paso banda, centrado a una frecuencia de 37,5MHz, con un ancho de banda de 7MHz para unas pérdidas de retorno mayores que 14dB, y un ancho de banda de rechazo de 19MHz, con atenuación mayor de 20dB. Calculando el filtro, se obtienen 3 secciones, con el siguiente esquema

Filtro paso banda de tres secciones

Filtro paso banda de tres secciones

Con los valores de componentes calculados, se buscan valores estándar que puedan hacer la función de transferencia de este filtro, cuya respuesta es

Respuesta en frecuencia del filtro paso banda

Respuesta en frecuencia del filtro paso banda

donde podemos ver que la frecuencia central es 37,5MHz, que las pérdidas de retorno están por debajo de 14dB en ±3,5MHz de la frecuencia central y que el ancho de banda de rechazo es de 18,8MHz, con 8,5MHz a la izquierda de la frecuencia central y 10,3MHz a la derecha de la frecuencia central.

Bien, ya tenemos diseñado nuestro filtro, y ahora vamos a hacer un primer análisis estadístico, considerando que las tolerancias de los condensadores son ±5%, y que las inducciones son ajustables. Además, no vamos a indicar correlación en ninguna variable, pudiendo tomar cada variable un valor aleatorio independiente de la otra.

ANÁLISIS ESTADÍSTICO DEL FILTRO SIN CORRELACIÓN ENTRE VARIABLES

Como vimos en la entrada anterior, cuando tenemos variables aleatorias vamos a tener dispersión en la salida, así que lo óptimo es poner unos límites según los cuales podremos considerar el filtro válido, y a partir de ahí analizar cuál es su respuesta. Para ello se recurre al análisis YIELD, que es un análisis que, usando el algoritmo de Monte Carlo, nos permite comprobar el rendimiento o efectividad de nuestro diseño. Para realizar este análisis hay que incluir las especificaciones según las cuales se puede dar el filtro por válido. Las especificaciones elegidas son unas pérdidas de retorno superiores a 13,5dB entre 35÷40MHz, con una reducción de 2MHz en la anchura de banda, y una atenuación mayor de 20dB por debajo de 29MHz y por encima de 48MHz. Haciendo el análisis estadístico obtenemos

Análisis estadístico del filtro. Variables sin correlación.

Análisis estadístico del filtro. Variables sin correlación.

que, sinceramente, es un desastre: sólo el 60% de los posibles filtros generados por variables con un ±5% de tolerancia podrían considerarse filtros válidos. El resto no serían considerados como válidos en un control de calidad, lo que significaría un 40% de material defectivo que se devolvería al proceso de producción.

De la gráfica se puede ver, además, que son las pérdidas de retorno las principales responsables de que exista tan bajo rendimiento. ¿Qué podemos hacer para mejorar este valor? En este caso, tenemos cuatro variables aleatorias. Sin embargo, dos de ellas son del mismo valor (15pF), que cuando son montadas en un proceso productivo, suelen pertenecer al mismo lote de fabricación. Si estas variables no presentan ninguna correlación, las variables pueden tomar valores completamente dispares. Cuando las variables no presentan correlación, tendremos la siguiente gráfica

Condensadores C1 y C3 sin correlación

Condensadores C1 y C3 sin correlación

Sin embargo, cuando se están montando componentes de un mismo lote de fabricación, las tolerancias que presentan los componentes varían siempre hacia el mismo sitio, por tanto hay correlación entre dichas variables.

ANÁLISIS ESTADÍSTICO DEL FILTRO CON CORRELACIÓN ENTRE VARIABLES

Cuando usamos la correlación entre variables, estamos reduciendo el entorno de variación. En este caso, lo que analizamos no es un proceso totalmente aleatorio, sino lotes de fabricación en los cuales se producen las variaciones. En este caso, hemos establecido la correlación entre las variables C1 y C3, que son del mismo valor nominal y que pertenecen la mismo lote de fabricación, por lo que ahora tendremos

Condensadores C1 y C3 con correlación

Condensadores C1 y C3 con correlación

donde podemos ver que la tendencia a la variación en cada lote es la misma. Estableciendo entonces la correlación entre ambas variables, estudiamos el rendimiento efectivo de nuestro filtro y obtenemos

Análisis estadístico con C1, C2 variables correladas

Análisis estadístico con C1, C2 variables correladas

que parece todavía más desastroso. Pero ¿es así? Tenemos que tener en cuenta que la correlación entre variables nos ha permitido analizar lotes completos de fabricación, mientras que en el análisis anterior no se podía discernir los lotes. Por tanto, lo que aquí hemos obtenido son 26 procesos de fabricación completos exitosos, frente al caso anterior que no permitía discernir nada. Por tanto, esto lo que nos muestra es que de 50 procesos completos de fabricación, obtendríamos que 26 procesos serían exitosos.

Sin embargo, 24 procesos completos tendrían que ser devueltos a la producción con todo el lote. Lo que sigue siendo, realmente, un desastre y el Director de Producción estaría echando humo. Pero vamos a darle una alegría y a justificar lo que ha intentado siempre que no exista: el ajuste post-producción.

ANÁLISIS ESTADÍSTICO CON AJUSTE POST-PRODUCCIÓN

Como ya he dicho, a estas alturas el Director de Producción está pensando en descuartizarte poco a poco, sin embargo, queda un as en la manga, recordando que las inducciones las hemos puesto de modo que sean ajustables. ¿Tendrá esto éxito? Para ello hacemos un nuevo análisis, dando valores variables en un entorno de ±10% sobre los valores nominales, y activamos el proceso de ajuste post-producción en el análisis y ¡voilà! Aun teniendo un defectivo antes del ajuste muy elevado, logramos recuperar el 96% de los filtros dentro de los valores que se habían elegido como válidos

Análisis estadístico con ajuste post-producción

Análisis estadístico con ajuste post-producción

Bueno, hemos ganado que el Director de Producción no nos corte en cachitos, ya que el proceso nos está indicando que podemos recuperar la práctica totalidad de los lotes, eso sí, con el ajuste, por lo que con este análisis podemos mostrar no sólo el defectivo sino la capacidad de recuperación del mismo.

Podemos representar cómo han variado las inducciones (en este caso las correspondientes a las resonancias en serie) para poder analizar cuál es la sensibilidad del circuito frente a las variaciones más críticas. Este análisis permite establecer un patrón de ajuste para reducir el tiempo en el que se debe de tener un filtro exitoso.

Análisis de los patrones de ajuste en las inducciones de las resonancias serie

Análisis de los patrones de ajuste en las inducciones de las resonancias serie

Así, con este tipo de análisis, realizado en el mismo momento del diseño, es posible tomar decisiones que fijen los patrones posteriores de la fabricación de los equipos y sistemas, pudiendo establecer patrones fijos de ajuste post-producción sencillos al conocer de antemano la respuesta estadística del filtro diseñado. Una cosa muy clara que he tenido siempre, es que cuando no he hecho este análisis, el resultado es tan desastroso como muestra la estadística, así que mi recomendación como diseñador es dedicarle tiempo a aprender cómo funciona y hacerle antes de que le digas a Producción que tu diseño está acabado.

CONCLUSIONES

En esta entrada hemos querido mostrar un paso más en las posibilidades del análisis estadístico usando Monte Carlo, avanzando en las posibilidades que muestra el método a la hora de hacer estudios estadísticos. El algoritmo nos proporciona resultados y nos permite fijar condicionantes para realizar diversos análisis y poder optimizar más si se puede cualquier sistema. Hemos acudido hasta a un ajuste post-producción, a fin de calmar la ira de nuestro Director de Producción, que ya estaba echando humo con el defectivo que le estábamos proporcionando. En la siguiente entrada, abundaremos un poco más en el método con otro ejemplo que nos permita ver más posibilidades en el algoritmo.

REFERENCIAS

  1. Castillo Ron, Enrique, “Introducción a la Estadística Aplicada”, Santander, NORAY, 1978, ISBN 84-300-0021-6.
  2. Peña Sánchez de Rivera, Daniel, “Fundamentos de Estadística”, Madrid,  Alianza Editorial, 2001, ISBN 84-206-8696-4.
  3. Kroese, Dirk P., y otros, “Why the Monte Carlo method is so important today”, 2014, WIREs Comp Stat, Vol. 6, págs. 386-392, DOI: 10.1002/wics.1314.

 

Análisis estadísticos usando el método de Monte Carlo (I)

imagesCuando nos enfrentamos a cualquier diseño electrónico, por lo general disponemos de métodos deterministas que permiten el cálculo de lo que estamos diseñando, de modo que podemos prever los parámetros que vamos a encontrar en la medida física de cualquier dispositivo o sistema. Estos cálculos previos facilitan el desarrollo y normalmente los resultados suelen coincidir en gran medida con la predicción. Sin embargo, sabemos que todo aquello que creemos o fabriquemos siempre está sometido a tolerancias. Y esas tolerancias provocan variaciones en los resultados que muchas veces no se pueden analizar de forma sencilla, sin una herramienta de cálculo potente. En 1944, Newmann y Ulam desarrollaron un método estadístico no determinista que denominaron Método de Monte Carlo. En las siguientes entradas vamos a analizar el uso de este potente método para la predicción de posibles tolerancias en circuitos, sobre todo cuando son fabricados de forma industrial.

En un sistema o proceso, el resultado final es consecuencia de las variables de entrada. Estas generan una respuesta que puede ser determinada tanto si el sistema es lineal como si es no lineal. A la relación entre la respuesta o salida del sistema y las variables de entrada la denominamos función de transferencia, y su conocimiento nos permite evaluar cualquier resultado en función de la excitación de entrada.

Sin embargo, hay que tener en cuenta que las variables de entrada son variables aleatorias, con su propia función de distribución, debido a que están sometidas a procesos estocásticos, aunque su comportamiento es predecible gracias a la teoría de la probabilidad. Por ejemplo, cuando describimos una medida de cualquier tipo, solemos representar su valor nominal o medio, así como el entorno de error asociado en el que esa magnitud medida puede estar. Esto nos permite limitar el entorno en el cual la magnitud es correcta y decidir cuándo la magnitud se comporta de modo incorrecto.

Durante muchos años, después de haber aprendido a transformar con éxito los resultados obtenidos mediante simulación en resultados físicos reales, con comportamientos predecibles y extrayendo conclusiones válidas, me he dado cuenta que en la mayoría de las ocasiones la simulación se reduce a obtener un resultado apetecido, sin profundizar en absoluto en ese resultado. Sin embargo, la mayoría de los simuladores están dotados de algoritmos estadísticos útiles que, correctamente utilizados, permiten al usuario de la aplicación obtener una serie de datos que puede usar para el futuro y permiten predecir el comportamiento de cualquier sistema, o al menos, analizar qué es lo que se puede producir.

Sin embargo, esos métodos que los simuladores incluyen nos suelen ser utilizados. Ya sea por falta de conocimiento de patrones estadísticos, ya sea por desconocimiento de cómo usar esos patrones. Por tanto, en esta serie de entradas vamos a desgranar el método de Monte Carlo que podemos encontrar en un simulador de circuitos e descubrir un potencial importante que es desconocido para muchos de los usuarios de los simuladores de circuitos.

LOS COMPONENTES COMO VARIABLES ALEATORIAS

Los circuitos electrónicos están formados por componentes electrónicos simples, pero que tienen un comportamiento estadístico, debido a los procesos de fabricación. No obstante, los fabricantes de componentes delimitan correctamente los valores nominales y el entorno de error en que se mueven. Así, un fabricante de resistencias no sólo publica sus valores nominales y dimensiones. También publica los entornos de error en los que esa resistencia varía, el comportamiento con la temperatura, el comportamiento con la tensión, etc. Todos estos parámetros, convenientemente analizados, proporcionan una información importante que, bien analizada dentro de una potente herramienta de cálculo como es el simulador, permite predecir el comportamiento de circuito total.

En este caso se va a analizar exclusivamente el entorno de error en el valor nominal. En una resistencia, cuando el fabricante define el valor nominal (en este caso, vamos a suponer 1kΩ) y expresa que tiene una tolerancia de ±5%, quiere decir que el valor de la resistencia puede estar comprendido entre 950Ω y 1,05kΩ. En el caso de un transistor, su ganancia de corriente β puede tomar un valor entre 100 y 600 (por ejemplo, el BC817 de NXP), por lo que puede haber una variación de corriente de colector importante e incontrolable. Por tanto, conociendo estos datos, podemos analizar el comportamiento estadístico de un circuito eléctrico gracias a la rutina de Monte Carlo.

Analicemos primero la resistencia: hemos dicho que la resistencia tiene una tolerancia de ±5%. Entonces, vamos a analizar usando el simulador el comportamiento de esta resistencia usando la rutina de Monte Carlo. A priori, desconocemos qué función densidad de probabilidad tiene la resistencia, aunque lo más habitual es una función de tipo gaussiano, cuya expresión es ya conocida

normal

donde μ es el valor medio y σ² es la varianza. Analizando con el simulador, mediante el método de Monte Carlo y para 2000 muestras, se puede obtener una representación de la variación del valor nominal de la resistencia, obteniendo un histograma como el que se muestra en la figura siguiente

Distribución de los valores de la resistencia usando el análisis de Monte Carlo

Distribución de los valores de la resistencia usando el análisis de Monte Carlo

El algoritmo de Monte Carlo introduce valor en la variable cuya distribución corresponde a una gaussiana, pero los valores que toma son en todo momento aleatorios. Si esas 2000 muestras se tomasen en 5 procesos de 400 muestras cada uno, seguiríamos teniendo una tendencia a la gaussiana, pero sus distribuciones serían diferentes

Distribuciones gaussianas con varios lotes

Distribuciones gaussianas con varios lotes

Por tanto, trabajando convenientemente con las variables aleatorias, se puede extraer un estudio completo de la fiabilidad del diseño realizado, así como de la sensibilidad que tiene cada una de las variables que se utilizan. En el siguiente ejemplo, vamos a proceder al análisis del punto de operación de un transistor bipolar convencional, cuya variación de β está comprendida entre 100 y 600, con un valor medio de 350 (comprendida β con una distribución gaussiana), polarizado con resistencias con una tolerancia nominal de ±5%, y estudiando la variación de la corriente de colector en 100 muestras.

ANÁLISIS DEL COMPORTAMIENTO ESTADÍSTICO DE UN BJT EN DC

Para estudiar el comportamiento de un circuito de polarización con transistor bipolar, partimos del circuito como el de la figura

Circuito de polarización de un BJT

Circuito de polarización de un BJT

donde las resistencias tienen tolerancias totales de ±5% y el transistor tiene una variación de β entre 100 y 600, con un valor nominal de 350. El punto de operación es Ic=1,8mA, Vce=3,2V. Haciendo el análisis de Monte Carlo para 100 muestras, obtenemos el siguiente resultado

Variación de la corriente del BJT en función de las variables aleatorias

Variación de la corriente del BJT en función de las variables aleatorias

Por la forma de la gráfica, se puede comprobar que el resultado converge a una gaussiana, donde el valor medio predominante es Ic=1,8mA, con una tolerancia de ±28%. Supongamos ahora que hacemos el mismo barrido que antes, en varios lotes de proceso, de 100 muestras cada uno. El resultado obtenido es

Variación de la corriente del BJT para varios lotes

Variación de la corriente del BJT para varios lotes

donde podemos ver que en cada lote tendremos una curva que converge a una gaussiana. En este caso, la gaussiana tiene un valor medio μ=1,8mA y una varianza σ²=7%. De este modo, podemos analizar cada proceso como un análisis estadístico global como por lotes. Supongamos que ahora β es una variable aleatoria con una función de distribución uniforme entre 100 y 600. Analizando sólo para las 100 muestras, se obtiene la curva

Distribución con b uniforme

Distribución con BETA uniforme

y se puede observar que la tendencia de la corriente es a converger a una distribución uniforme, aumentando el rango de tolerancia de la corriente y aumentando la probabilidad en los extremos de su valor. Por tanto, también podemos estudiar cómo se comporta el circuito cuando tenemos distintas funciones de distribución gobernando cada una de las variables.

Visto que, con el método de Monte Carlo podemos analizar el comportamiento en términos de tolerancias de un circuito complejo, también del mismo modo nos ayudará a estudiar cómo podemos corregir esos resultados. Por tanto, a lo largo de las entradas vamos a profundizar cada vez más en el potencial del método y lo que se puede conseguir con él.

CORRIGIENDO LAS TOLERANCIAS

En el circuito básico que hemos utilizado, al caracterizar la β del transistor como una variable uniforme, hemos aumentado la probabilidad de haya posibles valores de corriente que caigan en valores indeseados. Esto es uno de los puntos más problemáticos de los transistores bipolares y de efecto campo, las variaciones de sus ganancias en corriente. Vamos a ver, con un sencillo ejemplo, qué es lo que ocurre cuando usamos un circuito de corrección de la variación de β, como puede ser el circuito clásico de autopolarización por emisor

Circuito con autopolarización por emisor

Circuito con autopolarización por emisor

Usando este circuito, volvemos a hacer un análisis de Monte Carlo y lo comparamos con el análisis obtenido en el caso anterior,pero usando 1000 muestras. El resultado obtenido es

Resultados con ambos circuitos

Resultados con ambos circuitos

donde se puede ver que se ha incrementado la probabilidad en valores en torno a los 2mA, reduciendo la densidad de probabilidad en valores bajos de corriente y estrechando la distribución. Por tanto, el método de Monte Carlo no sólo es un método que nos permite analizar el comportamiento de un circuito cuando se somete a una estadística, sino que nos permitirá optimizar nuestro circuito y ajustarlo a los valores límite deseados. Usado convenientemente, es una potente herramienta de cálculo que mejorará el conocimiento de nuestros circuitos.

CONCLUSIONES

En esta primera entrada de una serie dedicada al método de Monte Carlo, en la que hemos querido presentar el método y su utilidad. Como hemos podido ver en el ejemplo, el uso del método de Monte Carlo proporciona datos de mucha utilidad, sobre todo si deseamos conocer cuáles son las limitaciones y variaciones del circuito que estamos analizando. Por otro lado, nos permite mejorar éste a través de los estudios estadísticos, además de fijar los patrones para la verificación del mismo en un proceso productivo.

En las siguientes entradas profundizaremos más en el método, realizando un estudio más exhaustivo del método a través de un circuito concreto de uno de mis proyectos más recientes, analizando cuáles son los resultados esperados y las diferentes simulaciones que se pueden realizar usando el método de Monte Carlo, como las de caso peor, sensibilidad, y optimización post-producción.

REFERENCIAS

  1. Castillo Ron, Enrique, “Introducción a la Estadística Aplicada”, Santander, NORAY, 1978, ISBN 84-300-0021-6.
  2. Peña Sánchez de Rivera, Daniel, “Fundamentos de Estadística”, Madrid,  Alianza Editorial, 2001, ISBN 84-206-8696-4.
  3. Kroese, Dirk P., y otros, “Why the Monte Carlo method is so important today”, 2014, WIREs Comp Stat, Vol. 6, págs. 386-392, DOI: 10.1002/wics.1314.

 

¡Feliz cumpleaños, Teoría Electromagnética!

maxwell-finHace 150 años, en 1865, el escocés James C. Maxwell publicó “A Dynamical Theory of the Electrodynamic Field”, una Teoría que marcó un hito en el naciente mundo de la Física Moderna, ya que estableció las bases para la unificación de dos campos que, hasta ese momento, se trataban de forma independiente: el Campo Eléctrico y el Campo Magnético. Con esta unificación, Maxwell puso las bases para comprender el comportamiento de los fenómenos electromagnéticos y su propagación, siendo la base hoy día del funcionamiento de nuestras comunicaciones. Desde esta entrada, queremos dar a conocer estas ecuaciones, su significado y su importancia, y rendir homenaje a uno de los científicos más importantes de los últimos tiempos.

No es una casualidad que este año los Físicos celebremos el Año Internacional de la Luz, puesto que fue hace 150 años cuando un físico escocés publicó las bases para la Teoría Electromagnética, marcando un antes y un después en el conocimiento de los fenómenos eléctricos y magnéticos y logrando la primera unificación en una sola Teoría de dos campos que, hasta ese momento, eran tratados de formas diferentes: el Campo Eléctrico y el Campo Magnético.

Hasta este momento, se conocían ciertas interrelaciones entre ambos fenómenos. Conocíamos, a través de la Electrostática, la Ley de Coulomb y el Teorema de Gauss, que el campo eléctrico era generado por cargas que interaccionaban entre ellas, y a través de la Ley de Biot-Savart y la Ley de Ampère, que los campos magnéticos eran generados por corrientes (cargas en movimiento) y que generaban interacciones entre ellos, a través de la fuerza de Lorenz. Sin embargo, todas las leyes y axiomas de los campos de los campos Eléctrico y Magnético se trataban como algo independiente, no había una unificación que mostrase de forma contundente las interrelaciones hasta que Maxwell las unificó.

Al principio se trataba de una veintena de ecuaciones integro-diferenciales, aunque en realidad se podían reducir a las ecuaciones actuales, debido a que Maxwell las escribió para cada eje de coordenadas. Usando el operador diferencial diferencial ∇ y las interrelaciones matemáticas entre las integrales y dicho operador, al final las ecuaciones quedaron descritas tal y como se conocen hoy, tanto en su forma integro-diferencial como en su más popular descripción diferencial vectorial.

Ecuaciones de Maxwell y sus leyes

Ecuaciones de Maxwell y sus leyes

Este conjunto de cuatro ecuaciones establecen la unificación de los campos Eléctrico y Magnético en una nueva Teoría que se llama la Teoría Electromagnética, la primera gran unificación de campos realizada en la Física y una de las más bellas descripciones que existen en la disciplina.

No vamos a ir desgranando una a una las ecuaciones, ya que en varias ocasiones lo hemos hecho en otras entradas, pero uno de los detalles más evidentes que se sacan de las ecuaciones, y que las hace interesantes, es su asimetría. Esta asimetría, debida precisamente a la diferencia entre el comportamiento de ambos campos, se hace patente dos a dos: en la Ley de Gauss de ambos campos, y entre la Ley de Faraday y la de Ampère.

Asimetría de la Ley de Gauss

La Ley de Gauss o Teorema de la Divergencia está relacionada con las fuentes y sumideros de las líneas de fuerza del campo, y muestra hacia dónde divergen estas líneas de interacción. En el caso del campo eléctrico, las líneas divergen hacia las cargas, que son las fuentes o sumideros de las líneas de campo. Gráficamente se puede expresar como

350px-LineasCampo

Divergencia de las líneas de capo eléctrico a las cargas

Por tanto, las líneas del campo eléctrico nacen y mueren en las cargas.

En el caso del campo magnético podemos observar que la divergencia es nula, esto es, no hay fuentes o sumideros a los cuales las líneas de campo magnético diverjan. Por tanto, no existen los monopolos magnéticos. El campo magnético rota sobre el origen del mismo, que lo establece la Ley de Ampère y que son las corrientes ocasionadas por cargas en movimiento. Y su expresión más gráfica es

Campo magnético rotando alrededor de una línea de corriente

Campo magnético rotando alrededor de una línea de corriente

Esta asimetría muestra que ambos campos son diferentes en su origen, lo que se muestra muy claramente cuando los campos son estáticos. No obstante, la no dependencia temporal de estas ecuaciones las hace válidas no sólo para los campos estáticos, sino también para los campos dinámicos. Es la otra asimetría, la de las leyes de Faraday y Ampère, la que introduce, además, el dominio temporal.

Asimetría de las Ley de Faraday y Ampère

Las leyes del campo están relacionadas con los campos dinámicos, aquellos que varían de forma temporal. La primera dice que la variación de un flujo magnético con el tiempo genera una fuerza electromotriz, o llanamente, que la variación de un campo magnético genera un campo eléctrico. Es el principio de las dinamos y los generadores eléctricos, en los que, al variar el flujo de un campo magnético mediante medios mecánicos, son capaces de generar un campo eléctrico.

En la Ley de Faraday también está presente la Ley de Lenz, que indica que ese campo eléctrico tiende a oponerse a la variación del campo magnético, y por eso el signo negativo en la expresión.

La segunda, la Ley de Ampère, parte de la ley de la magnetostática, que dice que la circulación de un campo magnético a través de una línea cerrada es proporcional a la corriente que encierra ese contorno. Esta Ley de la Magnetostática fue generalizada por Maxwell al introducir los campos eléctricos variables con el tiempo, mostrando un resultado que, en su forma diferencial, guarda similitud con la Ley de Faraday, salvo que introduce la densidad de corriente para que se mantenga coherente con la Ley de Ampère de la Magnetostática. La conclusión, por tanto, es que los campos eléctricos variables con el tiempo generan campos magnéticos y los campos magnéticos variables con el tiempo, eléctricos.

A pesar de la asimetría de las expresiones, que es la que genera, bajo mi punto de vista, la belleza de la descripción del escocés, de ellas se deduce una de las conclusiones más importantes de la Teoría Electromagnética, y es que los campos electromagnéticos son ondas que se propagan en cualquier medio material dieléctrico, no necesitando de soportes físicos, a diferencia de otros tipos de ondas como las acústicas, que presentan características similares en la formulación de los campos asociados. Esta conclusión es la que nos permite asociar fenómenos como la propagación luz, que presenta una dualidad partícula-onda ya que es un campo electromagnético formado por partículas llamadas fotones. Y al poder propagarse en el vacío, puede transmitir de un lugar a otro la información, que en el caso de la luz, es la visión de un fenómeno que haya ocurrido en el Universo a través de su observación.

Los campos electromagnéticos como ondas que se propagan en el espacio

De resolver las ecuaciones, se puede llegar a las ecuaciones de onda de Helmholz, tanto para el campos eléctrico como para el magnético.

Ecuaciones de onda para el campo eléctrico y magnético

Ecuaciones de onda para el campo eléctrico y magnético

En estas ecuaciones la asimetría que presentan las ecuaciones de Maxwell desaparece, y se pueden resolver como una onda propagándose por un medio material, incluido el vacío, en el que la velocidad de propagación es la velocidad de la luz, c, siendo ésta la máxima velocidad a la que se puede propagar la onda.

Resolviendo esta ecuación de onda, obtendremos la forma en la que se propaga un campo electromagnético en el medio, como una onda compuesta por un campo eléctrico y un campo magnético variables con el tiempo.

El campo electromagnético como onda de propagación

El campo electromagnético como onda de propagación

donde en azul tenemos el campo eléctrico, en rojo el campo magnético y en negro la dirección de propagación de la onda.

Influencia de la Teoría Electromagnética en nuestras vidas

Es evidente que la Teoría Electromagnética de Maxwell ha tenido una influencia notable en nuestras vidas, afectando en muchos aspectos, pero donde más influencia ha tenido es en la comunicación. Los seres humanos necesitamos comunicarnos, y la Teoría Electromagnética de Maxwell nos abre las puertas a un campo en el que las comunicaciones casi no tienen límites. Las comunicaciones modernas no se podrían entender sin esta notable contribución del escocés, y este año no celebraríamos el Año Internacional de la Luz si no hubiese existido todavía esta unificación de campos. Hoy día la Teoría Electromagnética forma parte habitual de nuestras vidas y costumbres, a través de las comunicaciones a larga distancia, ya sean inalámbricas, por cable o por fibra óptica. Recibimos imagen y sonido gracias a ella, así como podemos comunicarnos a larga distancia gracias a la transmisión por radio y enviar datos a cualquier parte del mundo. Es una de las cuatro interacciones de la naturaleza, junto a la gravedad y a las interacciones fuerte y débil del mundo atómico, y por tanto, por ese motivo podemos decir con orgullo ¡Feliz cumpleaños, Ecuaciones de Maxwell!

Referencias

  1. John R. Reitz, Frederick J. Milford, Robert W. Christy, “Foundations of Electromagnetic Theory”, Addison-Wesley Publishing Company, Inc., Massachusetts (USA), 1979

Influencia de los campos electromagnéticos en la dinámica de los fluidos

la_caza_del_submarino_rusoAunque parezca lo contrario, en esta entrada no vamos a hablar de novelas de espías, pero sí vamos a usar un argumento de la trama de una conocida novela de espionaje para presentar la teoría magnetohidrodinámica. Ésta es una disciplina de la física, que forma parte de la teoría de campos y analiza el movimiento de fluidos con carga eléctrica en presencia de un campo electromagnético y sus posibles aplicaciones. Comprendiendo los principios de la dinámica de fluidos, llegaremos a las ecuaciones que constituyen la base de la teoría, sus conclusiones y su actual utilización.

Los que conozcan la trama de la novela de Tom Clancy “The hunt of Red October”, sabrán que trata sobre la deserción de un submarino soviético de la clase Typhoon, dotado de un sistema de propulsión silencioso y difícilmente detectable por el sonar. En la novela, se le describe como “propulsión magnetohidrodinámica” y consiste en generar flujo de corriente hidráulica a lo largo de la nave usando campos magnéticos. Este flujo permite su desplazamiento sin usar los motores convencionales, aprovechando las características conductivas del agua salada. Este sistema de propulsión silenciosa convertía a la nave en algo letal y peligroso de verdad, puesto que podría acercarse a la costa de los EE.UU. sin ser detectado y lanzar un ataque con cabezas nucleares sin que nadie lo pudiese evitar. Esta es la trama, pero, ¿cuánto hay de cierto en la misma? ¿Existe un método de propulsión o un sistema que provoque el movimiento de un fluido por la presencia de un campo electromagnético? ¿Y a la inversa? ¿Podemos generar un campo electromagnético sólo usando el movimiento de un fluido cargado?

Aunque pueda parecer que, al tratarse de una novela de espías y acostumbrados como estamos a la tendencia de la ficción a crear ciertas bases argumentales, a veces ilusorias, para dotar de cierto dramatismo a la trama, lo cierto es que la teoría magnetohidrodinámica es muy real. Tanto, que el primer efecto destacable de la misma lo podemos comprobar simplemente con la presencia del campo magnético terrestre. Este es fruto del movimiento del núcleo interno de la tierra, compuesto de una capa de hierro líquido (fluido) que envuelve a una gran masa de hierro sólido. Este núcleo , que se mueve acompasado por la rotación de la Tierra, tiene cargas en movimiento que generan una corriente eléctrica, y esa corriente eléctrica genera el campo magnético que protege a la Tierra de los embates de partículas de alta energía que proceden de nuestra estrella, el Sol.

El propio Sol, que es una nube de gas en estado de plasma, tiene poderosos campos magnéticos que determinan el movimiento de las partículas que constituyen el plasma en su interior. Por tanto, la teoría magnetohidrodinámica que usa Clancy en esa trama es muy real. Vamos entonces a desvelar sus bases.

DINÁMICA DE FLUIDOS: LAS ECUACIONES DE NAVIER–STOKES

Un fluido es un medio material continuo formado por moléculas donde sólo hay fuerzas de atracción débil, que se encuentra en uno de estos tres estados de la materia: líquido, gaseoso o plasma. La dinámica de fluidos es la parte de la física que se ocupa del estudio del movimiento de estos medios en cualquiera de estos estados, siendo la masa del fluido la parte que se desplaza de un punto a otro.

Del mismo modo que en campos electromagnéticos definíamos la corriente eléctrica como la variación de la carga con el tiempo, en los fluidos hablaremos de un flujo de corriente ψ que es la variación de la masa M del fluido respecto del tiempo.

Si tomamos una superficie donde hay ni partículas de masa mi que se mueven a una velocidad vi, podemos definir una densidad de flujo de corriente ℑ, que se expresa como

Flujo de corriente debida a partículas de masa m

Flujo de corriente debida a partículas de masa m

Vamos a considerar, como se muestra en la figura, que nuestro fluido es un medio material que tiene todas las partículas de la misma masa, por lo que el producto ni⋅mi se puede extraer del sumatorio, quedando entonces una velocidad v  que es la suma vectorial de todas las velocidades de las partículas del fluido.

La relación entre el flujo de corriente y la densidad de flujo de corriente es una integral a lo largo de una superficie S. Si integramos el flujo de corriente total en una superficie cerrada, por la conservación de la masa, tendremos que es igual  es la variación de la masa con respecto al tiempo, y siendo la densidad la masa por unidad de volumen, podemos escribir que

continuity1

Como este flujo de corriente se opone a la variación de la masa respecto del tiempo, y la masa es la integral de volumen de la densidad del fluido ρMy aplicando el teorema de la divergencia, podemos escribir esta expresión en su forma diferencial

continuity2

que es la ecuación de continuidad de un fluido y que representa la conservación de la masa neta dentro del fluido. Esta es una de las ecuaciones de Navier-Stokes, primordial para comprender el movimiento de las partículas del fluido.

Para la otra ecuación, debemos de recurrir a la derivada sustancial. Esta es una descripción que incluye no sólo la variación con respecto al tiempo de la magnitud física del fluido, sino que además incluye la variación de la misma respecto de la posición. La expresión de la derivada sustancial es

sustancial

donde v es la velocidad del fluido y  el operador diferencial que ya vimos en la entrada sobre radioenlaces. Como el momento lineal del fluido se conserva, cuando interviene la fuerza de la gravedad , actúa además una presión P en sentido contrario al movimiento en el fluido y contraponiéndose a las deformaciones una viscosidad μobtenemos que

Esta es la ecuación del movimiento de un fluido, y es no lineal debido a la derivada sustancial. Por tanto, en un fluido intervienen no sólo las fuerzas aplicadas en el fluido, sino también la presión de éste y su viscosidad. Si el fluido no presentase viscosidad, y aplicando la derivada sustancial  a la ecuación anterior, podemos obtener un caso particular

noviscoso

que nos define la ecuación del movimiento de un fluido no viscoso.

DINÁMICA DE FLUIDOS: MAGNETOHIDRODINÁMICA

Si el fluido presenta partículas cargadas y aplicamos un campo electromagnético, con componentes E y B, la fuerza que interviene en este caso no es la gravedad, sino la fuerza de Lorenz que aplica el campo magnético

florenz

donde J es la densidad de corriente eléctrica en el fluido y B el campo magnético aplicado. En la expresión desarrollada, obtenida a partir del desarrollo de la Ley de Ampere y una de las identidades del operador diferencial , obtenemos dos términos. El primero es una fuerza de tensión magnética mientras que el segundo término se asemeja a una presión magnética producida por la densidad de energía magnética del campo. Sustituyendo F en la expresión obtenida en el apartado anterior y considerando un fluido no viscoso, tendremos que

movimiento2

Teniendo en cuenta que, según las ecuaciones de Maxwell, la divergencia del campo magnético es nula, si consideramos un campo magnético unidireccional, las variaciones espaciales de la divergencia son perpendiculares al campo, por lo que la fuerza de tensión magnética se anula y la expresión anterior queda

movimiento3

Si el fluido está en estado de plasma, tenemos que la Ley de Ohm se puede escribir como

ohm

debido a que en este estado la conductividad tiende a ser infinita y para mantener el flujo de corriente, la fuerza aplicada debe ser lo más baja posile. De este modo, la Ley de Faraday queda como

faraday

CONCLUSIONES DE LAS ECUACIONES

Como hemos podido comprobar, la magnetohidrodinámica es, en realidad, una consecuencia de aplicar campos electromagnéticos a fluidos que poseen carga eléctrica, y en esto se basaba Clancy para “propulsar” su Octubre Rojo. No obstante, los intentos de generar un propulsor naval de estas características se han quedado en prototipos construidos en los años 60 puesto que las inducciones magnéticas que requerían eran elevadas (del orden de más de 5 Tesla) en compartimientos muy voluminosos (centenares de m3). Por tanto, el submarino de la clase Typhoon cumplía con las exigencias de proporcionar el debido dramatismo a la novela, sin despreciar por ello la base científica en la que se basaba, debido al tamaño de este tipo de naves, considerados por los EE.UU. como colosos de las profundidades debido al desplazamiento de toneladas que eran capaces de propulsar.

No quiere decir que la aplicación de la magnetohidrodinámica esté actualmente aparcada. Debido a ella, los astrofísicos han logrado generar modelos basados en estas ecuaciones para determinar las trayectorias de las partículas en el Sol y predecir erupciones solares. Y los geofísicos, comprender mejor la estructura de los núcleos de los planetas.

Además, estas técnicas son utilizadas desde hace años también en metalurgia: a medida que calentamos un metal transformándolo en un fluido, incrementamos notablemente su conductividad, de modo que se puede aplicar la Ley de Ohm para los plasmas. Esto evita, en los procesos de fundición y generación de aleaciones, que el metal entre en contacto con el crisol y adquiera escoria, mejorando notablemente la calidad de la aleación. Es el principio de los altos hornos eléctricos, que vinieron a sustituir a los antiguos que usaban carbón.

También se han encontrado aplicaciones para generar energía eléctrica a partir del movimiento de un gas en presencia de un ampo magnético, así como el confinamiento del estado de plasma para los reactores de energía nuclear de fusión. Por no hablar de los experimentos realizados en el LCH, en Suiza. No obstante, se sigue teniendo el problema de la gran inducción magnética generada y el volumen necesario para mantener los plasmas.

Sin embargo, es una pequeña parte de todo lo que se podría llegar a conseguir con mejor tecnología. A medida que se desarrolle ésta, la magnetohidrodinámica proporcionará mejores aplicaciones.

References

  1. J. R. Reitz, F. J. Milford, R. W. Christy, “Foundations of the Electromagnetic Theory”; Addison-Wesley Publishing Company, Inc, Massachusetts (U.S.A.), 1979
  2. H. Alfvén, “Existence of electromagnetic-hydrodynamic waves“. Nature 150: 405-406, 1942

 

 

Estudio del comportamiento de un material piezoeléctrico (II)

En la entrada anterior habíamos estudiado el fenómeno piezoeléctrico a partir de las ecuaciones constitutivas que relacionan los campos eléctricos y mecánicos generados en el material. Los materiales piezoeléctricos se utilizan, gracias a este comportamiento, como componentes electrónicos con muy alta calidad. Su uso en filtros SAW, en resonadores BAW, en cristales de Cuarzo, para zumbadores e incluso como cargadores en Energy Harvesting hacen necesario, cada vez más, tener un modelo de circuito equivalente que defina correctamente el componente y su respuesta electroacústica. En esta entrada vamos a presentar un modelo, extraído en los años 40-50 por W.P. Mason y que sintetiza con bastante precisión los fenómenos electroacústicos tanto en su modelo lineal como no lineal.

MODELO DE MASON: EXTRACCIÓN

piezoelectrico

Esquema de un piezoeléctrico

Hemos dicho que un piezoeléctrico es un material electromecánico en el que aparecen fuerzas mecánicas cuando se le aplican fuerzas eléctricas y, recíprocamente, eléctricas cuando se aplican fuerzas mecánicas. La figura muestra un esquema dimensional de un material piezoeléctrico.

En el piezoeléctrico aplicamos un potencial eléctrico E⋅δz, y en ambas superficies del piezoeléctrico aparecen sendas tensiones T1 y T2, en cada una de las superficies del material. Aparecen también las velocidades de desplazamiento v1 y v2, que están relacionadas con el desplazamiento u a través de

velci

Por último, aparece una corriente eléctrica I en los electrodos del potencial eléctrico. Por último, las magnitudes de A y d son la superficie en m2 y el espesor del dieléctrico en m.

En la entrada anterior estudiamos el comportamiento piezoeléctrico a partir de sus ecuaciones constitutivas. Recordando entonces cómo se escribían estas ecuaciones, teníamos

consti

Se tiene que cumplir, además, la conservación de la energía a través de la ecuación de Lipmann

condi_campo

Combinando adecuadamente estas ecuaciones, habíamos obtenido una ecuación de onda definida por

onda2que corresponde a una onda de propagación.

Utilizando la expresión que liga v con la variación temporal de u, podemos escribir la 2ª Ley de Newton como

second_newton

Recordando, además, que la deformación S derivaba del gradiente de u, calculamos la variación de S con respecto al tiempo y obtenemos su relación con el gradiente de v. Expresándolo para un sistema unidimensional en el eje z, obtenemos

deforma_time

y despejando S de las ecuaciones constitutivas, obtenemos

segunda

Escalamos ahora las ecuaciones, multiplicando por A  los términos de ambas ecuaciones, y agrupándolas, obtenemos

telegraph

Si comparamos este resultado con las ecuaciones del Telegrafista que define una línea de transmisión para las ondas electromagnéticas, podemos comprobar que son similares. La primera relaciona la variación espacial de la tensión -A·T con la variación temporal de la corriente A·v, y correspondería a una inducción por unidad de longitud similar a la de un elemento diferencial de una línea de transmisión.

En la segunda ecuación, que relaciona la variación espacial de la corriente A·v, con respecto a una variación temporal de una tensión, representa una capacidad por unidad de longitud similar a la de la línea de transmisión. Sin embargo, en el segundo término de la ecuación, tenemos una dependencia con la tensión -A·T, que sería una línea de transmisión convencional, y otra dependencia con el desplazamiento eléctrico D. Esa dependencia se representa mediante una línea de transmisión flotante como la que se muestra en la figura siguiente.

linea_t

Modelo acústico del piezoeléctrico, en línea de transmisión, a partir de las ecuaciones del Telegrafista

De este modo ya tenemos asemejada la parte acústica a una línea de transmisión definida por los campos que actúan en las ecuaciones constitutivas.

Sin embargo, esta línea no está del todo completa, ya que hay que incluir el efecto de los electrodos, aislando los campos acústicos de los campos eléctricos. El término que relaciona la variación espacial de A·v con el desplazamiento D puede ser acoplado a través de un transformador ideal N:1, como se muestra en la figura

Acoplamiento de la parte acústica y la eléctrica mediante un transformador N:1

Acoplamiento de la parte acústica y la eléctrica mediante un transformador N:1

y la relación de N se puede calcular por

trafo_ratio

Vamos ahora a estudiar la corriente I. Esta corriente se produce cuando se aplica una tensión E⋅δz en los electrodos del piezoeléctrico. Al aplicar esa tensión, generamos una polarización P, debido al carácter dieléctrico del material. Del mismo modo, sabemos que la corriente I es una variación de la carga Q, y que sólo se producía variación de la carga superficial σ del piezoeléctrico, y que ésta es debida a la polarización P, no variando la carga volumétrica, por lo que

current_in

y como a la polarización P se opone el desplazamiento eléctrico D para mantener el campo electrico E, obtenemos que

current_desplaza

Estudiamos ahora el potencial E⋅δz aplicado en los electrodos. Usando las ecuaciones constitutivas, obtenemos que el potencial es

in_pote

Derivando esta expresión con respecto al tiempo, obtenemos

in_pote3

Estudiemos ahora los términos en δV1 y  δV2. En el término en δV1 podemos obtener la expresión

current_cap

y es la corriente que fluye a través de un condensador de valor CO , en paralelo con la tensión aplicada. Mientras, el término en δV2 se puede relacionar con la corriente que circula en la parte acústica a través de transformador, siendo Iprim la corriente que circula por el devanado primario del transformador. Usando las relaciones del transformador, podemos encontrar la relación de dicha corriente con esta tensión a través de

current_prim

Tenemos que hacer la consideración de que el peso de la tensión δV1>>δV2 , ya que al calcular la relación de transformación en el transformador hemos supuesto que es E⋅δz=δV, por lo que δV1δVδV20. De este modo, la corriente del primario es una corriente que circula a través de una capacidad negativa de valor CO.

Usando estos parámetros, deducidos de las ecuaciones constitutivas, es posible hacer un modelo completo del circuito equivalente de un piezoeléctrico, que se puede ver en la figura siguiente

mason_model

Circuito equivalente de Mason de un piezoeléctrico

CONDICIONES DE CONTORNO

Cualquier medio material está dentro de otros medios materiales (aire, agua, substratos semiconductores, metales, etc), y todos los medios materiales propagan ondas acústicas. Por tanto, así como en electromagnetismo definimos una impedancia de carga eléctrica sobre la que se transfiere la energía entregada desde el generador eléctrico, podemos definir una resistencia de carga acústica, que es donde se transfiere la energía acústica de la deformación. Esta resistencia de carga acústica está relacionada con la impedancia acústica del medio, y se transforma en una resistencia eléctrica a través de la expresión

acustic_resis

Por ejemplo, el aire tiene una impedancia acústica de 471 Rayls, así que para un piezoeléctrico AlN, con una superficie de 10.000μm2, si ambas superficies estuviesen en contacto con el aire, las impedancias de carga a conectar en los puertos A·T1 y A·T2 serían iguales y valdrían 4,71μΩ, lo que vendría a ser como colocar un cortocircuito en ambos puertos.

En el caso de que uno de los medios fuese aire y el otro, silicio, el silicio tiene una impedancia acústica de 8,35·105 Rayls, en el puerto del silicio habría que poner 8,35mΩ.

Hay que notar que, aunque la impedancia obtenida sea baja. no es estrictamente un cortocircuito. De hecho, al aire, que es el que más baja impedancia presenta, es al que consideramos un cortocircuito, mientras que el resto de materiales presentan impedancias acústicas más elevadas.

También es posible que tengamos un material compuesto de varios espesores de materiales, siendo uno de ellos piezoeléctrico, mientras que los demás son conductores o aislantes. Cuando esto ocurre, cada material puede ser representado por una línea de transmisión de igual modo que el piezoeléctrico. Por ejemplo, si el piezoeléctrico está encapsulado entre dos materiales diferentes, como el wolframio (W) y el molibdeno (Mo), y el wolframio está en contacto con el aire y el molibdeno con silicio, habría que añadir sendas líneas de transmisión entre las cargas y el piezoeléctrico, como se muestra en la figura siguiente

piezo_total

 

NO LINEALIDAD EN LOS MATERIALES: EL MODELO NO LINEAL DE MASON

En las condiciones de trabajo habituales de los piezoeléctricos, el funcionamiento debe de ser lineal. Sin embargo, los materiales presentan limitaciones que hay que tener en cuenta a la hora de trabajar con tensiones elevadas. Estas no linealidades introducen frecuencias espurias que reducen la calidad de la señal. Si estamos usando estos materiales en filtros de recepción, las no linealidades pueden representar un problema cuando una señal interferente de valor elevado atraviesa el material.

El piezoeléctrico es un resonador de muy alto factor de calidad. Traducido a parámetros discretos, se comporta como el circuito de la figura

Resonador equivalente de un piezoeléctrico

Resonador equivalente de un piezoeléctrico

La impedancia del resonador se puede representar en función de la frecuencia, obteniendo una gráfica similar a

impedancia

Impedancia del resonador en función de la frecuencia

El modelo, para bajos potenciales eléctricos, responderá correctamente de forma lineal. Sin embargo, a medida que aumentamos el valor del potencial eléctrico aplicado, empiezan a aparecer condiciones no lineales que limitarán su uso. Estas condiciones no lineales afectan, sobre todo, a las distorsiones de 2º y 3er orden, que son las que pueden afectar en mayor medida sobre la señal útil.

Una forma muy efectiva de simular no linealidades en circuitos eléctricos es el uso de las series de Volterra, una variante de los polinomios de Taylor en el que la respuesta depende en todo momento de los valores de los parámetros de entrada, incluyendo efectos de “memoria”, mediante acumulación de energía, de las capacidades e inducciones.

Como en las series de Taylor, las series de Volterra pueden ser truncadas en aquellos ordenes que sean superiores al que se considera dominante, por lo que nuestro modelo, considerando dominantes sobre todo el 2º y 3er orden de distorsión, puede truncarse a partir del 4º orden .

La distorsión afectará tanto al campo eléctrico como a la tensión mecánica. Las ecuaciones constitutivas, incluyendo estos efectos no lineales, quedarán descritas como

constitu_nolineal

siendo ΔT un polinomio de 3er orden que se expresa mediante la suma de 2 términos ΔT2T3, donde el subíndice indica que el polinomio es de 2º o de 3er orden. El caso de ΔD es similar.

Los polinomios que ΔT2, ΔT3, ΔD2 yΔD3 se muestran a continuación:

polinom

y además, se sigue teniendo que cumplir la ecuación de Lipmann para la conservación de la energía.

Las series que definen el modelo no lineal se pueden introducir en el modelo lineal de Mason a través de fuentes de tensión dependientes, tanto en la zona eléctrica como en la zona acústica. A dichas fuentes las denominamos VC y TC y están situadas, dentro del modelo, en la entrada eléctrica (caso de VC) y en línea común de la corriente de secundario (caso de  TC), tal y como se muestra en la figura.

Modelo de Mason con las fuentes no lineales

Modelo de Mason con las fuentes no lineales

Estas fuentes se derivan de las ecuaciones constitutivas del mismo modo que hemos derivado el modelo lineal, y se obtienen sus expresiones, que son

ecuaciones_nolin

Con estas expresiones en el modelo de Mason, tenemos un modelo equivalente no lineal de un material piezoeléctrico, que incluye los efectos de 2º y 3er orden de distorsión, y podemos estudiar el comportamiento de un componente fabricado con este tipo de materiales en presencia de señales interferentes.

CONCLUSIÓN

En esta entrada hemos querido presentar un modelo eléctrico útil para representar un material piezoeléctrico, extraído a partir de las ecuaciones constitutivas. Esto nos ha permitido llegar al modelo que W.P. Mason obtuvo en los años 40, y entender cómo realizó la extracción de los parámetros del modelo.

No sólo hemos obtenido el modelo de Mason, sino que hemos parametrizado un modelo que pueda representar las variaciones no lineales a partir de las series de Volterra, que nos permitirán realizar un modelo no lineal que incluya los efectos de 2º y 3er orden de distorsión, y poder predecir la respuesta de un dispositivo de estas características en condiciones de señales interferentes.

En la próxima entrada vamos a proceder a estudiar el modelo en un simulador, mostrando cómo se realiza un modelo equivalente del piezoeléctrico incluyendo los parámetros no lineales, describiremos un método de medida para extraer los parámetros no lineales y mostraremos los resultados obtenidos mediante simulación.

REFERENCIAS

  1. W.P. Mason, Electromechanical Transducers and Wave Filters”, Princeton NJ, Van Nostrand, 1948
  2. J. F. Rosenbaum, “Bulk Acoustic Wave Theory and Devices”, Artech House, Boston, 1988.
  3. M. Redwood, “Transient performance of a piezoelectric transducer”, J. Acoust. Soc. Amer., vol. 33, no. 4, pp. 527-536, April 1961.
  4. R. Krimholtz, D.A. Leedom, G.L. Mathaei, “New Equivalent Circuit for Elementary Piezoelectric Transducers”, Electron. Lett. 6, pp. 398-399, June 1970.
  5. Y. Cho and J. Wakita, “Nonlinear equivalent circuits of acoustic devices”, Proc. IEEE Ultrason. Symp., Nov. 1993, vol. 2, pp. 867–872.
  6. C. Collado, E. Rocas, J. Mateu, A. Padilla, and J. M. O’Callaghan, “Nonlinear Distributed Model for BAW Resonators”, IEEE Trans. On Microwave Theory and Techniques, vol. 57, no. 12, pp. 3019-3029, Dec. 2009.
  7. E. Rocas, C. Collado, J.C. Booth, E. Iborra, and R. Aigner, “Unified Model for Bulk Acoustic Wave Resonators’ Nonlinear Effects”, Proc. 2009 IEEE Ultrasonics Symposium, pp. 880-884, Sept. 2009.
  8. M. Ueda, M Iwaki, T. Nishihara, Y. Satoh, and K Hashimoto, “Investigation on Nonlinear Distortion of Acoustic Devices for Radio-Freqquency Applications and Its Suppression”, Proc. 2009 IEEE Ultrasonics Symposium, pp. 876-879, Sept. 2009.
  9. M. Ueda, M Iwaki, T. Nishihara, Y. Satoh, and K Hashimoto, “A Circuit Model for Nonlinear Simulation of Radio-Frequency Filters Employing Bulk Acoustic Wave Resonators”, IEEE Trans. On Ultrasonics, Ferroelectrics, and Frequency control, vol. 55, 2008, pp. 849-856.
  10. D. S. Shim and D. Feld, “A General Nonlinear Mason Model of Arbitrary Nonlinearities in a Piezoelectric Film”, Proc. 2010 IEEE Ultrasonics Symposium, pp. 295-300, Oct. 2010.
  11. D. Feld, “One-Parameter Nonlinear Mason Model for Predicting 2nd & 3rd Order Nonlinearities in BAW Devices”, Proc. 2009 IEEE Ultrasonics Symposium, pp. 1082-1087, Sept. 2009.