SHARENG Divulgación

Start here

SHARENG TM

+34 627 324 682
Morning: 9am - 1pm
Evening: 3pm - 5pm
septiembre 2016
L M X J V S D
« Jun    
 1234
567891011
12131415161718
19202122232425
2627282930  
Follow SHARENG Divulgación on WordPress.com

¿Fallan las encuestas electorales?

14665983216010Las recientes elecciones del día 26 vuelven a mostrar una discrepancia entre las encuestas electorales y los resultados finales. Tal ha sido la diferencia que, una vez más, se vuelve a dudar de la eficacia de las mismas como barómetro sociológico. Aprovechando las últimas entradas referentes a la Estadística, en ésta vamos a aclarar algunos términos que muestren la diferencia entre las encuestas y el muestreo final que corresponde a datos corroborados, como son las propias elecciones. Conocer estas diferencias es lo que ayudará a dar las encuestas el justo valor que se merece, sin convertirlas en algo que se tiene que cumplir necesariamente.

Como en otras ocasiones, las encuestas y los sondeos han mostrado una diferencia abismal entre las tendencias recogidas y los datos finales. Y una vez más, se vuelve a cuestionar al mensajero, porque se ha equivocado. Sin embargo, no hay tanto error, puesto que la metodología de la encuesta es correcta, sino más bien deseos de que esos resultados se reproduzcan de este modo.

Una encuesta es un estudio sociológico. Con ella se pretende tomar el pulso a una sociedad muy diversa y a la que le afectan muchas variables, muchas veces incontroladas. Se trata, pues, de indagar cómo respira un sistema caótico como es una sociedad en determinadas circunstancias y en presencia de determinados estímulos externos, a partir de la elaboración de una serie de preguntas concretas, cuya finalidad es intentar conocer lo que los humanos guardamos en mente sobre algo determinado. Sus resultados no están, por tanto, basados en datos objetivos fruto de una medición empírica, como lo es un resultado electoral, sino que son la tendencia que se puede obtener en un determinado momento de una situación a base de conocer esas respuestas. Si la metodología aplicada en la elaboración de las preguntas es correcta, los resultados también son, en ese momento correctos. Otra cosa es que se consideren esos resultados como definitivos, ya que definitivo sólo es el resultado de la medición objetiva. Una variación en las condiciones de contorno o en los estímulos externos puede variar una opinión determinada en un momento determinado.

¿Dónde vas este año de vacaciones?

Una pregunta que nos suelen hacer muy a menudo: ¿dónde vas a ir de vacaciones este año? La respuesta variará claramente en función de cuándo te hagan la pregunta. No es lo mismo que la hagan en marzo, a 5 meses de coger las vacaciones, que en junio. Depende de otras variables claras, como la situación económica, las ofertas de las agencias de viajes, si vas a ir sólo con tu familia o vas a compartir las vacaciones con otra familia amiga… Nuestra respuesta está supeditada al estímulo externo y no a un patrón determinado que marque qué es lo que voy a hacer en dos o tres meses, porque es posible que ni lo haya planificado ni lo vaya a planificar.

No obstante, en una campaña electoral, en la precampaña y sobre todo, si ha habido 6 meses de intentos infructuosos de formar un gobierno, los estímulos han sido continuos y a veces pueden provocar reacciones contrarias y efectos contraproducentes. Y el manejo de los sondeos debe de hacerse con prudencia espartana, puesto que pueden producirse descalabros como el del 26-J. Sin embargo, ha habido mucha proliferación de sondeos, casi uno cada día, cuya finalidad también puede haber sido marcar un paso o un objetivo, y ese uso indiscriminado se ha dado de bruces con el frío, duro y descarnado resultado de la medición objetiva. Aquí no cabe preguntarse si las encuestas están mal hechas, sino si ha habido intención de utilizar esa información de forma interesada y sesgada para forzar el resultado que le gustaría al que la maneja. Porque en realidad, eso es lo que ha ocurrido: se ha querido transformar anhelos en realidades.

La imposibilidad de predecir con exactitud los sucesos en un sistema caótico

Como la previsión atmosférica, la sociedad es un sistema caótico difícilmente predecible. Cuando se predice el tiempo, se acuden a modelos en los que se introducen las variables y se estudian tendencias. Se estudian también las evoluciones de días anteriores, se hacen análisis estadísticos aleatorios basados en Monte Carlo como el que he mostrado en las entradas técnicas, y con todos esos datos, se lanza una previsión. Pero, ojo, se trata de una previsión, que no una confirmación. Esa previsión se hace con un margen de probabilidad que dependerá también de las variables que afecten al sistema en ese momento y en su falta de aislamiento frente a otros estímulos. Así, que no llueva en Santander por el viento sur no es debido a que el viento sur sea una característica típica de Santander (lo que llamamos clima local), sino que detrás de la cordillera, con un clima local diferente, cambie una variable que por efecto de acción y reacción provoque precisamente la aparición del viento sur. La previsión es correcta siempre que se tenga en cuenta la probabilidad de que ocurra, dato objetivo basado en la fiabilidad del modelo que en muchas ocasiones ni se contempla ni se tiene en cuenta. Y tomamos la decisión de ir de vacaciones a Santander basándonos en esa previsión, sin analizar las probabilidades de que nuestras vacaciones terminen pasadas por agua porque los meteorólogos han dicho que va a hacer buen tiempo.

Pues no, los meteorólogos han previsto una situación atmosférica en función de los datos registrados. Eres tú el que quiere que haga buen tiempo, porque te interesa. Es el famoso sesgo de confirmación. Y claro, si tus vacaciones se van al traste, no hay nada mejor que echar la culpa al hombre del tiempo, como si éste no te hubiese dado todos los datos, probabilidad incluida, de qué es lo que podría ocurrir. Al que no le ha interesado el resto de los datos es a ti. El principal interesado en coger la parte bonita de la previsión porque entra en sus planes de vacaciones eres tú. El meteorólogo sólo ha hecho el trabajo de darte los datos, pero la decisión la tomas tú. Por eso, echar la culpa de una decisión malograda a la persona que te proporciona los datos, cuando no los has usado todos, sólo sirve de consuelo. Pero el hecho claro, el dato objetivo principal es que la decisión de ir a un sitio donde parecía que no iba a llover la has tomado tú.

¿Qué fiabilidad tienen las encuestas?

Como hemos visto en las entradas anteriores, la fiabilidad estadística en un sistema no determinista como el social depende, sobre todo, abaco blogdel tamaño de la muestra. A mayor muestra, mayor convergencia. Tanto en las mediciones objetivas como en los estudios sociológicos humanos. Hace unos años publiqué una entrada sobre los sistemas caóticos, recordando el experimento del triángulo claveteado y la canica. Este fue uno de los primeros experimentos que tuve que hacer en la asignatura de Física General, en mi época de estudiante, y debería ser obligatorio para todos los alumnos, como en Termodinámica y Mecánica Estadística fue obligatorio el de la Teoría Cinética de los Gases.

El experimento es muy sencillo: se trata de arrojar un número de canicas en un triángulo de madera que contiene filas de clavos colocadas como se describe en la figura. Al bajar la canica y pasar entre dos clavos, se encuentra con el siguiente, y el choque y el efecto de bajada hará que tome una dirección u otra. El resultado final, después de tirarte tres días tirando canicas y contando posiciones (unas 5.000 canicas), tiende a ser una distribución gaussiana. ¡Ojo! he dicho tiende, porque si se dibuja la gráfica de la función y se compara con la gráfica real obtenida, se verá que los resultados obtenidos y la curva gaussiana tienen ligeras divergencias. Nos proporciona la información de cómo puede caer una canica, pero hasta que no la tires (decisión), no puedes saber con exactitud dónde caerá.

El censo electoral de 2016 tiene inscritos a 36 millones y medio de electores. Con este tamaño objetivo de muestra, hacer fiable una encuesta de 2.000 posibles electores es bastante difícil, teniendo en cuenta la distribución de población española. No proporcionará los mismos resultados una pregunta hecha en Castilla-León o La Rioja que en Andalucía, Cataluña o Madrid. Esto es un hecho que se tiene que dar por descontado: la fiabilidad de una encuesta depende también de que la muestra, que ya es un 0,055‰ de la muestra real, sea además una representación lo más fiel posible de la realidad social de la población española. Representación bastante difícil de lograr, puesto que la diversidad de la sociedad española depende de su situación geográfica, del nivel económico de la zona, de las necesidades que se tienen, etc. Son muchas variables no controlables a tener en cuenta para lograr una fiabilidad al 100%. Por tanto, a la encuesta hay que darle un grado de confianza similar al que habría que darle a la previsión meteorológica: que es una previsión, una tendencia, pero que para nada es un dato objetivo final y que puede estar sometido a vaivenes incontrolables debido a los estímulos que afecten a la sociedad, y que no es responsabilidad de los encuestadores la existencia de esos estímulos.

Como experto en simulación que soy, tengo muy claro que no me fío de los resultados de una simulación hasta que no tengo completamente probado todo. La simulación me permite conocer de antemano tendencias y tomar una decisión, pero para nada es un resultado absoluto, ya que depende de variables que, si no las tengo definidas y las meto en el sistema, pueden proporcionarme resultados físicos contradictorios. Por eso, la simulación y la medida son experiencias interactivas, como lo deben ser las encuestas.

Este aluvión de encuestas y sondeos, con la inclusión del ya famoso mercado de la fruta andorrano, ha hecho que la campaña se haya dirigido más a tratar de cumplir los vaticinios que a estudiar los vaivenes sociales. Se ha tratado más de lograr aproximar los optimistas datos de las encuestas al resultado objetivo de la medición, que son las elecciones generales, sin tener en cuenta que esos datos sólo eran previsiones puntuales. Y esto ha provocado en muchas personas una sensación brutal de frustración. Una frustración similar a la que sufrió el veraneante que fue a Santander pensando en la bonita previsión del tiempo y tuvo que comprarse un paraguas porque en la vecina provincia de Burgos cambió la presión atmosférica debida a un cambio brusco de temperatura.

No obstante, tiene que seguir habiendo encuestas. No se puede pretender conocer la realidad de una sociedad sin preguntar y esto se tiene que seguir haciendo. Pero siempre sin perder el norte: no es un dato objetivo fruto de una medición definitiva, sino la trayectoria de la canica o el hecho de que en Burgos haya caído la temperatura. Y eso tiene que ser correctamente utilizado por quienes necesitan pulsar a la sociedad.1466915869_295178_1466977429_noticia_normal

 

Análisis estadísticos usando el método de Monte Carlo (y III)

imagesCon esta entrada cerramos el capítulo dedicado al análisis de Monte Carlo. En las dos entradas anteriores vimos cómo se podía usar éste método para analizar los eventos que pueden ocurrir en un dispositivo electrónico, sino también lo que sucede cuando tenemos variables correladas y cuando sometemos al circuito a un ajuste posproducción. Estos análisis son estimables, puesto que nos permiten conocer previamente el funcionamiento de nuestro circuito y tomar decisiones acerca del diseño, elegir las topologías y componentes adecuados y realizar un primer diseño en el que se optimice al máximo el comportamiento del nuestro circuito. En esta entrada vamos a ver un ejemplo, incluyendo un factor que suele ser importante y que tampoco se suele tener en cuenta en las simulaciones, y que es el análisis térmico. En este caso, utilizaremos un amplificador de potencia diseñado para trabajar en conmutación, que alimenta a una carga. El objetivo es encontrar el componente más sensible en el amplificador y poder elegir la topología o componente adecuados para que el circuito siga funcionando en todas las condiciones definidas.

Hemos visto lo útil que puede llegar a ser el análisis de Monte Carlo para elegir topologías y componentes, e incluso para definir el ajuste que tenemos que hacer en el caso de que se produzca defectivo durante un proceso de fabricación. Este análisis reduce el tiempo de desarrollo físico, porque proporciona de antemano una información importante de cómo se va a comportar nuestro diseño, antes de montarlo y evaluarlo. No obstante, hay que llegar más allá, rizando el rizo, y añadiendo el comportamiento térmico.

Los dispositivos electrónicos están no sólo sometidos a variaciones de valores nominales, debidas a su estructura física, sino que también presentan variaciones térmicas en función de la temperatura a la que estén sometidos en su funcionamiento. Los dispositivos que más suelen sufrir estas variaciones térmicas suelen ser aquellos que disipan elevadas cantidades de potencia, como las fuentes de alimentación, los microprocesadores y los amplificadores. Las variaciones térmicas desgastan el componente y comprometen su vida útil, reduciendo su vida media cuando trabajan al límite. Si hacemos estos análisis previamente, podemos marcar las pautas para lograr el mejor funcionamiento posible y obtener un diseño que garantice una vida media suficiente.

Estudio sobre un amplificador de potencia

A continuación vamos a estudiar el efecto producido sobre un amplificador de potencia en clase E, como el de la figura.

Amplificador clase E con MOSFET

Amplificador clase E con MOSFET

Este amplificador proporciona a una carga de 6+j⋅40Ω, a 1,5MHz, una potencia de AC de 23W, con una eficiencia del 88% sobre la potencia DC entregada por la fuente de alimentación. El MOSFET, que es el elemento que más se calienta cuando está disipando la potencia de conmutación, que es del orden de 2,5W, es el elemento más crítico del sistema, ya que hay que garantizar una extracción del calor que haga que su unión no se rompa por superar la temperatura de unión. El valor máximo que puede alcanzar dicha temperatura es 175ºC, pero se establece una temperatura de seguridad de 150ºC. Por tanto, el diseño realizado debe de ser capaz de soportar cualquier variación de potencia AC que pueda superar la temperatura máxima, no sólo en condiciones normales (a temperatura ambiente de 25ºC), sino incluyendo las variaciones que se puedan producir en el consumo del dispositivo activo debido a las tolerancias de los componentes.

En este circuito, los componentes más críticos, aparte de la dispersión que presenta el propio MOSFET, son los componentes pasivos. Estos componentes forman parte de la red de adaptación, que transmite la máxima energía desde la alimentación a la carga y provocan una variación en la respuesta del drenador que influye en su consumo. Siendo potencias considerables, con valores superiores a 10W, la variación de carga provocará variaciones importantes en la potencia disipada en el MOSFET y su estudio nos mostrará las necesidades para la extracción del calor generado en el MOSFET por efecto Joule.

Análisis estadístico en condiciones normales

Lo primero que tenemos es que analizar el circuito en condiciones normales de laboratorio (25ºC, 760mmHg, 50-70% de humedad relativa) y ver las variaciones que presenta, sólo por tolerancias. Consideramos tolerancias gaussianas de ±5% en valores límite, y analizamos exclusivamente las tolerancias en estas condiciones, para un 500 eventos. De esta manera podemos ver cómo afectan los componentes a la respuesta del circuito a través de la siguiente gráfica

Potencia

Potencia de DC y potencia en la carga, frente a número de eventos

El histograma azul representa la potencia de DC suministrada por la carga, cuyo valor central máximo es de 26,4W, mientras que el histograma rojo es la potencia transferida a la carga, cuyo valor central máximo es de 23,2W. Esto representa un 87,9% de eficiencia en la entrega de potencia. La desviación estándar de la potencia de carga es ±1,6%, lo que significa una tolerancia de ±6,5% en los valores límite. Bajo estas condiciones, podemos representar la potencia disipada del MOSFET, que se puede ver en la siguiente gráfica

Potencia disipada en el MOSFET vs. número de eventos

Potencia disipada en el MOSFET, frente al número de eventos

donde obtenemos una potencia media de 2,9W y una desviación estándar de 1,2W. Esto significa que la potencia máxima puede llegar a ser del orden de 7,8W.

Si calculamos con estos valores la diferencia entre la temperatura de la unión y la ambiente, teniendo en cuenta que las resistencias térmicas Rth-JC=1,7K/W y Rth-CH=0,7K/W, y usando un disipador con una resistencia térmica en condiciones de ventilación no forzada de Rth-HA=10K/W, se puede obtener, para una Tamb=25ºC

temp

Por tanto, a 25ºC, con una refrigeración no forzada, la temperatura de la unión está a 118,95ºC en el valor límite de potencia consumida por el MOSFET, proporcionándonos un margen suficiente sobre los 150ºC máximos a los que la unión se rompe.

Análisis estadístico para tres temperaturas

El análisis anterior nos garantiza un correcto funcionamiento en condiciones normales, pero, ¿qué ocurre cuando subimos o bajamos la temperatura? Vamos a analizar bajo tres condiciones de temperatura: 0ºC, 25ºC y 50ºC, y para representarlo usaremos un histograma multidimensional, en el que agruparemos todos los eventos sin discernir temperaturas. De este modo obtenemos

Potencia de DC y potencia en la carga, frente a número de eventos y temperatura

Potencia de DC y potencia en la carga, frente a número de eventos y temperatura

donde la potencia media entregada a la carga, en todas las condiciones, es 22,6W, para todas las condiciones térmicas, y la eficiencia media es del 86,6%, cubriendo el rango de temperaturas entre 0ºC y 50ºC.

Analizando ahora la potencia disipada por el MOSFET, en las mismas condiciones

temp_mos_power

Potencia disipada en el MOSFET, frente al número de eventos y la temperatura

donde calculando el valor medio, se obtiene 2,9W, con un máximo de 7,8W. Estos valores, similares al calculado anteriormente, muestran que la máxima temperatura de la unión va a ser 143,95ºC, a 7ºC de la temperatura máxima de seguridad de 150ºC, y por tanto a 32ºC de la temperatura máxima de la unión.

Por tanto, podemos concluir del análisis que el circuito diseñado, bajo las condiciones de temperatura ambiente de 0ºC a 50ºC, y siempre con un disipador con una resistencia térmica en ventilación no forzada de Rth-HA=10K/W, presentará un funcionamiento óptimo para el rango de potencia de carga.

CONCLUSIÓN

Con esta entrada finalizamos el capítulo dedicado al análisis usando el método de Monte Carlo. Con los análisis realizados, hemos cubierto la optimización de características a través de diferentes topologías, el ajuste posproducción en un proceso de montaje industrial y el análisis térmico para comprobar los límites de seguridad en los que trabaja un circuito de potencia. No obstante, el método proporciona muchas más posibilidades que se pueden explorar a partir de estos sencillos experimentos.

REFERENCIAS

  1. Castillo Ron, Enrique, “Introducción a la Estadística Aplicada”, Santander, NORAY, 1978, ISBN 84-300-0021-6.
  2. Peña Sánchez de Rivera, Daniel, “Fundamentos de Estadística”, Madrid,  Alianza Editorial, 2001, ISBN 84-206-8696-4.
  3. Kroese, Dirk P., y otros, “Why the Monte Carlo method is so important today”, 2014, WIREs Comp Stat, Vol. 6, págs. 386-392, DOI: 10.1002/wics.1314.

La estadística y su correcto uso


importancia-graficos-estadistica_image007Una de las herramientas más usadas en la actualidad, sobre todo desde que tenemos máquinas que son capaces de computar muchos datos, es la estadística
. Se trata de una potente herramienta que, bien utilizada, puede proporcionarnos previsiones, sobre todo en sistemas caóticos. Dentro de este tipo de sistemas podemos incluir desde fenómenos atmosféricos a comportamientos de grupos humanos, aunque también se usa para resolver problemas en sistemas deterministas, cuando aparecen fenómenos no previstos que hay que corregir. En estos tiempos, el uso de la estadística se ha extendido a todos los ámbitos, si bien hay que responder a una clara pregunta: ¿de veras sabemos utilizarla? ¿O sólo extraemos las conclusiones que a nosotros nos interesan? En esta entrada voy a tratar de mostrar algunos términos que hay que tener en cuenta en la mecánica estadística y cómo se deberían interpretar sus resultados.

 Por estadística podemos entender dos cosas:

  • Es la herramienta matemática que utiliza conjuntos de datos numéricos, que representan sucesos, para obtener resultados basados en el cálculo de probabilidades.
  • Es el estudio que reúne y clasifica todos los sucesos que posean alguna característica en común, para que con esa clasificación se puedan extraer conclusiones.

En estas dos definiciones tenemos dos conceptos diferentes: el primero, la estadística como disciplina matemática mecánica, con unas reglas claras basadas en la clasificación y el cálculo de probabilidades. Una herramienta que casi todas las disciplinas humanas, ya sean científicas, tecnológicas o sociales, tienen que usar para extraer conclusiones.

Por otro lado, tenemos el estudio estadístico, que no es estadística como disciplina, pero que se suele utilizar dicho término para referirse a él. La segunda definición está englobada en la primera, porque el estudio estadístico es el recuento de determinados sucesos para extraer una conclusión. Por tanto, la estadística, como tal, no muestra resultados, sólo clasifica los sucesos. Sólo nosotros somos los capacitados para interpretarlos.

Una de las frases a las que suelo recurrir muchas veces, cuando alguien me blande estadísticas como hechos incontestables, es un estudio estadístico muestra que las personas comemos un pollo a la semana. Esta semana yo me he comido dos pollos y tú ninguno, así que te deseo que te siente bien el pollo que no has comido. Uno de los mayores errores que se pueden cometer es el considerar a la estadística como un hecho incontestable, cuando sólo son datos agrupados. El hecho, que puede ser incontestable o no, es la interpretación que podamos hacer de esos datos, y ésta puede ser errónea si no aplicamos las reglas mecánicas de la estadística. Estas reglas se encuentran en la Teoría de Probabilidades, donde se definen una serie de herramientas a tratar en la disciplina para lograr obtener mejores interpretaciones. Si estas reglas no son utilizadas, las interpretaciones pueden ser de lo más variopintas.

La importancia de la estadística es tal, que hasta los Estados tienen departamentos exclusivos para trazar los estudios, interpretar los resultados y poder actuar en función de los mismos. El problema radica en cuando se transmiten esos datos a la sociedad, cómo se transmiten, qué porcentajes de error pueden presentar, qué correlación existe entre los sucesos y que conclusiones extrae el que los maneja, que es el que conoce todos los datos y los ha interpretado. Hay que tener en cuenta que la mayor parte de la población no tiene porqué saber más estadística que la estudiada en las matemáticas de la ESO y el Bachillerato, y que la estadística es una mecánica mucho más compleja que contar las caras de un dado y asignar una probabilidad.

Los sucesos, lo único medible de la estadística

Los sucesos, en la estadística, son los datos que se quieren medir. Y los sucesos pueden ser de varios tipos: elementales, compuestos, seguros, imposibles, compatibles, independientes, dependientes y contrarios. Dependiendo de lo que se vaya a estudiar, hay que clasificar los sucesos, que es lo único medible de la estadística.

Los sucesos, de por sí,  no proporcionan conclusiones. Las conclusiones se obtienen de su clasificación. Y la clasificación, para que las conclusiones sean realmente resultado de un estudio estadístico, son fruto de pasar por las reglas establecidas en la mecánica estadística.

Un ejemplo de violación de las reglas estadísticas se pueestudiode ver en el reciente debate de 13-J, donde los cuatro líderes de los partidos principales son sometidos al juicio del público. Según la captura de imagen, uno de los líderes ya era ganador antes de que el suceso medible ocurriese.

En cierto modo, podríamos pensar que la foto está trucada, y es una posibilidad a tener en cuenta, pero teniendo en cuenta también  que dicha estadística no pasa por las reglas establecidas de la estadística, independientemente de que sea o no verdadera la foto, los resultados no se pueden presentar como un estudio estadístico y sus conclusiones posteriores no se pueden tomar como válidas, aunque a algunos les guste el resultado.

Es en este punto cuando la estadística toma su más siniestra utilización: manipulación de los resultados.

El incorrecto uso de la estadística: la manipulación

Debido a que la mayoría de la población desconoce las reglas establecidas para el estudio estadístico (definición de sucesos, tamaño de las muestras, criterios de medición, estimaciones sobre resultados, contrastes de hipótesis, etc.), aquí vuelve otra vez a aparecer mi frase favorita acerca del consumo de pollo por la población: se publican los resultados y no los criterios que han llevado a esos resultados, por lo que aparece un elemento de manipulación evidente, ya que se están utilizando los datos bajo criterios evidentemente orientados a conseguir una respuesta determinada. La estadística no tiene esa función, su función es proporcionarnos los datos para mostrarnos tendencias que permitan corregir aquellas cosas que necesiten corrección, o poder determinar resultados cuando los sistemas son caóticos.

falsa encuestaHemos visto lo que un periódico digital publica antes de tiempo, pero podemos ver otra encuesta en la que también se observa una clara manipulación, ésta cortesía de 13TV. En esta “encuesta” se pregunta a los telespectadores quién ha ganado el debate del pasado lunes. Recordemos que en ese debate había cuatro líderes políticos, y la cadena de la Conferencia Episcopal ha eliminado, de un plumazo, a dos de ellos.

Podemos entender que no son santo de devoción ni de los periodistas de la cadena ni de sus principales accionistas, pero teniendo en cuenta quiénes son esos accionistas, tendrían que pensar en cierto mandamiento que ellos deberían cumplir a rajatabla porque forma parte de su doctrina: “No levantarás falso testimonio ni mentirás”. Parece ser que aquí se vuelve a recurrir al maquiavélico principio de que “el fin justifica los medios”, pero no sabía que la Iglesia Católica española tuviese al célebre escritor renacentista florentino entre sus bases doctrinales.

Podemos poner más ejemplos de encuestas y estudios estadísticos sesgados, más orientados a obtener una respuesta en la población que a analizar un suceso concreto. Osea, se tienen las conclusiones y hay que crear un espacio de sucesos y unos criterios de medición que permitan llegar a esas conclusiones, lo que vulnera las reglas de la estadística y, por tanto, se convierten en mero discurso manipulador para generar un estado de opinión y no una interpretación acertada de la realidad.

La estadística tiene que ser fría

Así es, aunque seamos humanos y tengamos sentimientos y las cosas nos afecten, para hacer un estudio estadístico hay que librarse de juicios previos y de ganas de obtención de resultados que nos den la razón y que se ajusten a nuestros deseos. Los sucesos se deben de obtener mediante la fría medición, sin ninguna intervención sobre ella. Por eso, la definición del espacio de muestras y de los sucesos debe de ser independiente a nuestros deseos y afinidades. Si no es así, el estudio carece de validez y no proporciona nada más que consuelo o euforia, cuando no es engañarnos a nosotros mismos.

Otra cosa es la elaboración de conclusiones e hipótesis, la célebre cocina a la que las empresas de estadística someten los resultados. Pero la validez del estudio sólo será aceptable si son conocidos los criterios para cocinar los resultados. Es una norma estadística básica y que debe de ser conocida y aceptada por el receptor para estimar si las conclusiones son acertadas o simplemente son fruto de una manipulación orientada a volver a obtener algo que nos guste y crear estados de opinión.

Es importante comprender que la estadística, como herramienta que nos ayuda a obtener hipótesis, es una magnífica herramienta. Pero que en malas manos, se transforma en algo odioso y pierde su verdadera utilidad.

 

¿Hacen su labor los medios respecto a la forma de tratar los conocimientos científicos?

trudeauDejando un poco aparte (al menos, hasta el próximo mes) la divulgación técnica pura, recientemente me he encontrado con una noticia en varios medios que me ha parecido, cuanto menos, sorprendente. No porque el Primer Ministro canadiense sepa bastante de Mecánica Cuántica, ya que podría estar sorprendido en el caso de que conociese su trayectoria académica y en ésta no describa si ha estudiado o no sobre el tema, sino por el grado de desconocimiento que algunos periodistas tienen de las personas a las que están preguntando, que pueden provocar patinazos (o como se dice en el argot de Twitter, “zascas en toda la boca”) como el del que se han hecho eco nuestros medios. Por este motivo, me he lanzado a escribir una entrada de opinión sobre el tema, retomando de algún modo uno de los apartados que quise siempre para este blog, que fuese también un lugar de divulgación para todos los públicos y no sólo para los muy técnicos. Con ese compromiso retomo desde hoy la inclusión de entradas no exclusivamente técnicas, que estén relacionadas, como siempre, con el mundo científico y tecnológico y sus avances.

LA ACTITUD DE POLÍTICOS Y PERIODISTAS FRENTE A LOS CONOCIMIENTOS CIENTÍFICOS

Recientemente, la prensa vulgarmente llamada “seria” se ha hecho eco de un hecho que, parece ser, consideran “anormal”: que un Primer Ministro, además de tener ese cargo, dé una clase magistral de Computación Cuántica a un periodista que quiso pasarse de listo, cuando requirió a Justin Trudeau que le explicase algo sobre dicho tema. Ni corto ni perezoso, el mandatario canadiense no sólo le contestó sino que le dio una clase magistral de 35 segundos a un periodista que creyó que ésta era la suya.

Vivimos unos tiempos en los que parece que el pensamiento crítico más elemental ha desaparecido de algunos despachos oficiales y algunas líneas editoriales, y que se juzga más a la gente por un tuit equivocado que por una larga trayectoria, sin que se haga el más mínimo esfuerzo en conocer a quién te diriges cuando le preguntas. Algo que debería ser elemental para cualquier profesional de los medios de comunicación: si quieres saber cómo te va a contestar y si te va a contestar a una pregunta, primero estudia la trayectoria del interrogado, para que sepas hacerle la pregunta.

Parece ser que a los medios les sorprende que Justin Trudeau sepa de Computación Cuántica porque muchos de los lectores eso les suena a chino mandarín, también en parte gracias a la pésima labor de divulgación de algunos medios escritos, que suelen equiparar ciencia con pseudociencia, como si ambas estuviesen en el mismo nivel, alegando esa excusa de que todo el mundo tiene derecho a que se les proporcione información. Lo que pasa es que se les suele olvidar el adjetivo milagroso: veraz.

Cierto es que muchos políticos carecen de conocimientos científicos, y algunos hasta adolecen del más elemental conocimiento acerca de lo que significa el mundo científico y sus avances, usándolo sólo los mismos cuando se trata de hacerse una foto frente a un científico famoso cuando ha ganado algún premio. Un caso paradigmático fue el del Dr. D. Severo Ochoa: cuando ganó el premio Nobel, el régimen imperante en España se acordó de él y le quiso repatriar con promesas de inversiones y laboratorios, cuando unos años antes ese mismo régimen no le concedía ni el pasaporte para poder salir de la Alemania nazi. Muchos políticos adolecen de esa falta, pero también es cierto que otros tienen cultura científica, sin que la prensa les preste atención cuando opinan de algo que no sea la pura palestra política.

¿DE QUÉ NOS EXTRAÑAMOS SI HEMOS TENIDO POLÍTICOS CON DOS TITULACIONES Y HASTA LAS EJERCÍAN?

boyer1-aEsta prensa que hoy está jaleando a Trudeau, convirtiendo en noticia algo que no debería serlo tanto, es la misma prensa que obvió o que no concedió interés a un artículo de Miguel Boyer Salvador, ex-Ministro de Economía del primer gabinete de Felipe González, en el que el recientemente fallecido economista hacía una disertación acerca del dilema que supondría si los resultados obtenidos en el proyecto OPERA en 2011 (neutrinos viajando a una velocidad más alta que la de la luz) se verificaban. En su etapa más joven, Miguel Boyer, Licenciado en Ciencias Económicas y Ciencias Físicas, también opinaba sobre temas científicos y sobre la filosofía de la ciencia. No era, pues, un político inculto científicamente pues de cuando en cuando, el ex-Ministro de Economía se dejaba caer por Universidades de Verano siendo participante o ponente de cursillos que no eran ni estrictamente políticos ni económicos.

Aunque este artículo se hubiese publicado después de la clase magistral de Trudeau, los periodistas hubiesen seguido sin prestarle atención, puesto que el titular era que hay un político que no es inculto y que sabe de Mecánica Cuántica, como si hubiesen probado la existencia de los unicornios, en lugar de haber estudiado antes la biografía de Justin Trudeau y su brillante trayectoria académica, en la que se destaca, aparte de su Licenciatura en Educación, sus estudios de ingeniería en la Politécnica de la Universidad de Montreal y su Maestría en Geografía Medioambiental en la Universidad McGill, lo que viene a mostrar a un hombre que se preocupa por formarse cuando quiere dotarse de una opinión contrastada. Desgraciadamente, aquellos políticos que adolecen de esa falta de rigor, tratando con desdén los conocimientos científicos y a las personas que los generan, tapan la brillantez de otros políticos que sí que se preocupan de su autoformación. Estos últimos los hay, existen, pero no son tan noticia para una prensa que un día publica el descubrimiento del Bosón de Higgs y al día siguiente, en el mismo apartado de Ciencia, una disertación sobre los peligros de las ondas electromagnéticas no ionizantes, si bien es cierto que la camada de políticos más brillantes de la reciente Historia de España se ha dado, precisamente, en la Transición. Hoy en día, muchos políticos lo son de carrera, ascendiendo dentro del propio partido sin haber tenido experiencia previa en otro sitio diferente.

Sin embargo, con el perfil de estos políticos también aparece el perfil del periodista que desdeña la labor de proporcionar esa información veraz. Porque la información tiene que ser eso, veraz, ya que la prensa de hoy día será la fuente de la Historia de mañana, como los autores clásicos del mundo romano nos permiten conocer cómo era su tiempo y sus costumbres.

No se puede tampoco meter en este saco a todos los periodistas, puesto que los hay muy brillantes dentro de esta profesión. Pero sí hay que indicar que la tendencia a vivir a ritmo de tuit en lugar de hacer la pesada y ardua labor de documentarse previamente está causando, en mi opinión, estragos entre lo que debería ser la diferencua entre una información veraz y puro rumo, cotilleo o “chisme”.

Hoy en día, el  mundo científico español y, sobre todo, nuestros científicos están sufriendo, por un lado, la apatía de quienes gobiernan actualmente nuestro país, cuyo rigor a la hora de tratar este conocimiento es poco menos que nulo, despreciando un modelo productivo basado en el valor añadido del conocimiento, y basándose en el agotado modelo del yo te lo hago más barato, condenando con esa política por un lado, a limitar el crecimiento de nuestro país, y por otro, a la mal llamada movilidad laboral de nuestros científicos, obligados a tener que coger las maletas y ejercer su profesión en centros de investigación y laboratorios de otros países, donde este conocimiento no es desdeñado sino que se ve como una oportunidad.

Y ésa debería ser la labor de la prensa llamada “seria”: centrar la importancia en el conocimiento científico y evitar el recurso fácil de reproducir titulares facilones para atraer más público, así como dejar de situar al mismo nivel este conocimiento y la falta de evidencia de las pseudociencias. Porque el hecho de que haya políticos incultos científicamente no convierte a los que publican noticias en expertos en ciencia. Dentro del mundo periodístico hay incultos científicamente como los hay en casi todas las profesiones no relacionadas con éste ámbito. Así que espero que el “zasca” a este periodista retome un poco la deontología de que cualquier entrevista, editorial o titular debe de estar tan rigurosamente documentada en fuentes como lo está un artículo sobre la Física de Plasmas.

REFERENCIAS

  1. Boyer Salvador, M.,”Dilema radical en la física: “Einstein, ¿sí o no?”“,El País, 6/10/2011
  2. Boyer Salvador, M.,”Popper y los nuevos filósofos de la ciencia“, El País, 7/11/1984
  3. Delgado, J.,”Boyer defiende la libertad como valor absoluto en el seminario sobre Popper“, El País, 31/07/1991
  4. Justin Trudeau, Wikipedia
  5. Justin Trudeau, Liberal Party Website
  6. Miguel Boyer Salvador, Wikipedia

 

Statistical analysis using Monte Carlo method (II)

Art02_fig01

In the previous post, some single examples of the Monte Carlo method were shown. In this post it will be deeply analyzed, making a statistical analysis on a more complex system, analyzing its output variables and studying the results so that they will be quite useful. The advantage of simulation is that it is possible to get a random generation of variables, and also a correlation between variables can be set, achieving different effects in the analysis of the system performance. Thus, any system not only can be analyzed statistically using a random generation of variables, but also this random generation can be linked in a batch analysis or failures in production and in a post-production recovery.

The circuits studied in the previous post were very simple circuits, allowing to see the allocation of random variables and their results when these random variables are integrated a more complex system. With this analysis, it is possible to check the performance and propose corrections which would limit statistically the variations in the final system.

In this case, the dispersive effect of the tolerances will be studied on one of the circuits where it is very difficult to achieve an stability in its features: an electronic filter. An electronic filter, passband type, will be designed and tuned to a fixed frequency, with a certain bandwidth in passband and stopband, and several statistical analysis will be done on it, to check its response with the device tolerances.

DESIGN OF THE BANDPASS FILTER

A bandpass filter design is done, with a 37,5MHz center frequency, 7MHz pass bandwidth (return losses ≥14dB) and a 19MHz stopband bandwidth (stopband attenuation >20dB). When the filter is calculating, three sections are got, and its schematic is

Filtro paso banda de tres secciones

3-sections bandpass filter

With the calculated values of the components, standard values which can make the filter transfer function are found, and its frequency response is

Respuesta en frecuencia del filtro paso banda

Bandpass filter frequency response

where it is possible to check that the center frequency is 37.5 MHz, the return losses are lower than 14dB at ± 3.5Mhz of the center frequency, and the stopband width is 18,8MHz, with 8,5MHz from the left of the center frequency and 10,3MHz to the right of the center frequency.
Then, once the filter is designed, a first statistical analysis is done, considering that the capacitor tolerance is ± 5% and the inductors are adjustable. In addition, there is not any correlation between the random variables, being able to take an random value independently.

STATISTICAL ANALYSIS OF THE FILTER WITHOUT CORRELATION BETWEEN VARIABLES

As it could be seen in the previous post, when there are random variables there is an output dispersion, so limits to consider a valid filter must be defined, from these limits, to analyze its valid frequency response. Yield analysis is used. This is an analysis using the Monte Carlo algorithm that it allows  to check the performance or effectiveness of the design. To perform this analysis, the limits-for-validation specifications must be defined. The chosen specifications are return losses >13,5dB at 35÷40MHz, with a 2 MHzreduction in the passband width and an attenuation >20dB at frequencies ≤29MHz and ≥48MHz. By statistical analysis, it is got

Análisis estadístico del filtro. Variables sin correlación.

Statistical analysis of the filter . Variables without correlation.

whose response is bad: only 60% of possible filters generated by variables with a ±5% tolerance could be considered valid. The rest would not be considered valid by a quality control, which would mean that 40% defective material should be returned to the production, to be reprocessed.

It can be checked in the graph that the return loss are the primarily responsible for this bad performance. What could it be done to improve it? In this case, there are 4 random variables. However, two capacitors have of the same value (15pF), and when they are assembled in a production process, usually belong to the same manufacturing batch. If these variables show no correlation, variables can take completely different values. When they are not correlated, the following chart is got

Condensadores C1 y C3 sin correlación

C1, C3 without correlation

However, when these assembled components belong to the same manufacturing batch, their tolerances vary always to the same direction, therefore there is correlation between these variables.

STATISTICAL ANALYSIS OF THE FILTER WITH CORRELATION BETWEEN VARIABLES

When the correlation is used, the influence of tolerances is decreased. In this case, it is not a totally random process, but manufacturing batches in which the variations happen. In this case, it is possible to put a correlation between the variables C1 and C3, which have the same nominal value and belong the same manufacturing batch, so now the correlation graph is

Condensadores C1 y C3 con correlación

C1, C3 with correlation

where the variation trend in each batch is the same. Then, putting a correlation between the two variables allows studying the effective performance of the filter and get

Análisis estadístico con C1, C2 variables correladas

Statistical analysis with correlation in C1, C3

that it seems even worse. But what happens really? It must be taken into account that the variable correlation has allowed analyzing complete batches, while in the previous analysis was not possible to discern the batches. Therefore, 26 successful complete manufacturing processes have been got, compared to the previous case that it was not possible to discern anything. Then, this shows that from 50 complete manufacturing processes, 26 processes would be successful.

However, 24 complete processes would have to be returned to production with the whole lot. And it remains really a bad result. But there is a solution: the post-production adjustment.

STATISTICAL ANALYSIS WITH POST-PRODUCTION ADJUSTMENT

As it was said, at this point the response seems very bad, but remembering that the inductors had set adjustable. What happens now? Doing a new analysis, allowing at these variable to take values in ±10% over the nominal value, and setting the post-production optimization in the Monte Carlo analysis and voilà! Even with a very high defective value, it is possible to recover 96% of the filters within the valid values.

Análisis estadístico con ajuste post-producción

Statistical analysis with post-production optimization

So an improvement is got, because the analysis is showing that it is possible to recover almost all of the batches with the post-production adjustment, so this analysis allows showing not only the defective value but also the recovery posibilities.
It is possible to represent the variations of the inductors (in this case corresponding to the serial resonances) to analyze what is the sensitivity of the circuit to the more critical changes. This analysis allows to set an adjustment pattern to reduce the adjustment time that it should have the filter.

Análisis de los patrones de ajuste en las inducciones de las resonancias serie

Analysis of the adjustment patterns of the serial resonance inductors

So, with this analysis, done at the same time design, it is possible to take decisions which set the patterns of manufacturing of the products and setting the adjustment patterns for the post-production, knowing previously the statistic response of the designed filter. This analysis is a very important resource before to validate any design.

CONCLUSIONS

In this post, a more grade in the possibilities of using Monte Carlo statistical analysis is shown, using statistical studies. The algorithm provides optimal results and allows setting conditions for various analysis and optimizing more the design. Doing a post-production adjustment, it is possible to get the recovery grade of the proposed design. In the next post, another example of the Monte Carlo method will be done that allows seeing more possibilities over the algorithm.

REFERENCES

  1. Castillo Ron, Enrique, “Introducción a la Estadística Aplicada”, Santander, NORAY, 1978, ISBN 84-300-0021-6.
  2. Peña Sánchez de Rivera, Daniel, “Fundamentos de Estadística”, Madrid,  Alianza Editorial, 2001, ISBN 84-206-8696-4.
  3. Kroese, Dirk P., y otros, “Why the Monte Carlo method is so important today”, 2014, WIREs Comp Stat, Vol. 6, págs. 386-392, DOI: 10.1002/wics.1314.

Análisis estadísticos usando el método de Monte Carlo (II)

Art02_fig01En la anterior entrada mostramos con una serie de ejemplos simples cómo funciona el método de Monte Carlo para realizar análisis estadísticos. En esta entrada vamos a profundizar un poco más, haciendo un análisis estadístico más profundo sobre un sistema algo más complejo, analizando una serie de variables de salida y estudiando sus resultados desde una serie de ópticas que resultarán bastante útiles. La ventaja que tiene la simulación es que podemos realizar una generación aleatoria de variables, y además, podemos establecer una correlación de esas variables para conseguir distintos efectos al analizar el funcionamiento de un sistema. Así, cualquier sistema no sólo se puede analizar estadísticamente mediante una generación aleatoria de entradas, sino que podemos vincular esa generación aleatoria a análisis de lotes o fallos en la producción, así como su recuperación post-producción.

Los circuitos que vimos en la anterior entrada eran circuitos muy sencillos que permitían ver cómo funciona la asignación de variables aleatorias y el resultado obtenido cuando estas variables aleatorias forman parte de un sistema más complejo. Con este análisis, podíamos comprobar un funcionamiento y hasta proponer correcciones que, por sí solas, limitasen las variaciones estadísticas del sistema final.

En este caso, vamos a estudiar el efecto dispersivo que tienen las tolerancias sobre uno de los circuitos más difíciles de conseguir su funcionamiento de forma estable: el filtro electrónico. Partiremos de un filtro electrónico de tipo paso banda, sintonizado a una determinada frecuencia y con una anchura de banda de paso y rechazo determinadas, y realizaremos varios análisis estadísticos sobre el mismo, para comprobar su respuesta cuando se somete a las tolerancias de los componentes.

DISEÑO DEL FILTRO PASO BANDA

Vamos a plantear el diseño de un filtro paso banda, centrado a una frecuencia de 37,5MHz, con un ancho de banda de 7MHz para unas pérdidas de retorno mayores que 14dB, y un ancho de banda de rechazo de 19MHz, con atenuación mayor de 20dB. Calculando el filtro, se obtienen 3 secciones, con el siguiente esquema

Filtro paso banda de tres secciones

Filtro paso banda de tres secciones

Con los valores de componentes calculados, se buscan valores estándar que puedan hacer la función de transferencia de este filtro, cuya respuesta es

Respuesta en frecuencia del filtro paso banda

Respuesta en frecuencia del filtro paso banda

donde podemos ver que la frecuencia central es 37,5MHz, que las pérdidas de retorno están por debajo de 14dB en ±3,5MHz de la frecuencia central y que el ancho de banda de rechazo es de 18,8MHz, con 8,5MHz a la izquierda de la frecuencia central y 10,3MHz a la derecha de la frecuencia central.

Bien, ya tenemos diseñado nuestro filtro, y ahora vamos a hacer un primer análisis estadístico, considerando que las tolerancias de los condensadores son ±5%, y que las inducciones son ajustables. Además, no vamos a indicar correlación en ninguna variable, pudiendo tomar cada variable un valor aleatorio independiente de la otra.

ANÁLISIS ESTADÍSTICO DEL FILTRO SIN CORRELACIÓN ENTRE VARIABLES

Como vimos en la entrada anterior, cuando tenemos variables aleatorias vamos a tener dispersión en la salida, así que lo óptimo es poner unos límites según los cuales podremos considerar el filtro válido, y a partir de ahí analizar cuál es su respuesta. Para ello se recurre al análisis YIELD, que es un análisis que, usando el algoritmo de Monte Carlo, nos permite comprobar el rendimiento o efectividad de nuestro diseño. Para realizar este análisis hay que incluir las especificaciones según las cuales se puede dar el filtro por válido. Las especificaciones elegidas son unas pérdidas de retorno superiores a 13,5dB entre 35÷40MHz, con una reducción de 2MHz en la anchura de banda, y una atenuación mayor de 20dB por debajo de 29MHz y por encima de 48MHz. Haciendo el análisis estadístico obtenemos

Análisis estadístico del filtro. Variables sin correlación.

Análisis estadístico del filtro. Variables sin correlación.

que, sinceramente, es un desastre: sólo el 60% de los posibles filtros generados por variables con un ±5% de tolerancia podrían considerarse filtros válidos. El resto no serían considerados como válidos en un control de calidad, lo que significaría un 40% de material defectivo que se devolvería al proceso de producción.

De la gráfica se puede ver, además, que son las pérdidas de retorno las principales responsables de que exista tan bajo rendimiento. ¿Qué podemos hacer para mejorar este valor? En este caso, tenemos cuatro variables aleatorias. Sin embargo, dos de ellas son del mismo valor (15pF), que cuando son montadas en un proceso productivo, suelen pertenecer al mismo lote de fabricación. Si estas variables no presentan ninguna correlación, las variables pueden tomar valores completamente dispares. Cuando las variables no presentan correlación, tendremos la siguiente gráfica

Condensadores C1 y C3 sin correlación

Condensadores C1 y C3 sin correlación

Sin embargo, cuando se están montando componentes de un mismo lote de fabricación, las tolerancias que presentan los componentes varían siempre hacia el mismo sitio, por tanto hay correlación entre dichas variables.

ANÁLISIS ESTADÍSTICO DEL FILTRO CON CORRELACIÓN ENTRE VARIABLES

Cuando usamos la correlación entre variables, estamos reduciendo el entorno de variación. En este caso, lo que analizamos no es un proceso totalmente aleatorio, sino lotes de fabricación en los cuales se producen las variaciones. En este caso, hemos establecido la correlación entre las variables C1 y C3, que son del mismo valor nominal y que pertenecen la mismo lote de fabricación, por lo que ahora tendremos

Condensadores C1 y C3 con correlación

Condensadores C1 y C3 con correlación

donde podemos ver que la tendencia a la variación en cada lote es la misma. Estableciendo entonces la correlación entre ambas variables, estudiamos el rendimiento efectivo de nuestro filtro y obtenemos

Análisis estadístico con C1, C2 variables correladas

Análisis estadístico con C1, C2 variables correladas

que parece todavía más desastroso. Pero ¿es así? Tenemos que tener en cuenta que la correlación entre variables nos ha permitido analizar lotes completos de fabricación, mientras que en el análisis anterior no se podía discernir los lotes. Por tanto, lo que aquí hemos obtenido son 26 procesos de fabricación completos exitosos, frente al caso anterior que no permitía discernir nada. Por tanto, esto lo que nos muestra es que de 50 procesos completos de fabricación, obtendríamos que 26 procesos serían exitosos.

Sin embargo, 24 procesos completos tendrían que ser devueltos a la producción con todo el lote. Lo que sigue siendo, realmente, un desastre y el Director de Producción estaría echando humo. Pero vamos a darle una alegría y a justificar lo que ha intentado siempre que no exista: el ajuste post-producción.

ANÁLISIS ESTADÍSTICO CON AJUSTE POST-PRODUCCIÓN

Como ya he dicho, a estas alturas el Director de Producción está pensando en descuartizarte poco a poco, sin embargo, queda un as en la manga, recordando que las inducciones las hemos puesto de modo que sean ajustables. ¿Tendrá esto éxito? Para ello hacemos un nuevo análisis, dando valores variables en un entorno de ±10% sobre los valores nominales, y activamos el proceso de ajuste post-producción en el análisis y ¡voilà! Aun teniendo un defectivo antes del ajuste muy elevado, logramos recuperar el 96% de los filtros dentro de los valores que se habían elegido como válidos

Análisis estadístico con ajuste post-producción

Análisis estadístico con ajuste post-producción

Bueno, hemos ganado que el Director de Producción no nos corte en cachitos, ya que el proceso nos está indicando que podemos recuperar la práctica totalidad de los lotes, eso sí, con el ajuste, por lo que con este análisis podemos mostrar no sólo el defectivo sino la capacidad de recuperación del mismo.

Podemos representar cómo han variado las inducciones (en este caso las correspondientes a las resonancias en serie) para poder analizar cuál es la sensibilidad del circuito frente a las variaciones más críticas. Este análisis permite establecer un patrón de ajuste para reducir el tiempo en el que se debe de tener un filtro exitoso.

Análisis de los patrones de ajuste en las inducciones de las resonancias serie

Análisis de los patrones de ajuste en las inducciones de las resonancias serie

Así, con este tipo de análisis, realizado en el mismo momento del diseño, es posible tomar decisiones que fijen los patrones posteriores de la fabricación de los equipos y sistemas, pudiendo establecer patrones fijos de ajuste post-producción sencillos al conocer de antemano la respuesta estadística del filtro diseñado. Una cosa muy clara que he tenido siempre, es que cuando no he hecho este análisis, el resultado es tan desastroso como muestra la estadística, así que mi recomendación como diseñador es dedicarle tiempo a aprender cómo funciona y hacerle antes de que le digas a Producción que tu diseño está acabado.

CONCLUSIONES

En esta entrada hemos querido mostrar un paso más en las posibilidades del análisis estadístico usando Monte Carlo, avanzando en las posibilidades que muestra el método a la hora de hacer estudios estadísticos. El algoritmo nos proporciona resultados y nos permite fijar condicionantes para realizar diversos análisis y poder optimizar más si se puede cualquier sistema. Hemos acudido hasta a un ajuste post-producción, a fin de calmar la ira de nuestro Director de Producción, que ya estaba echando humo con el defectivo que le estábamos proporcionando. En la siguiente entrada, abundaremos un poco más en el método con otro ejemplo que nos permita ver más posibilidades en el algoritmo.

REFERENCIAS

  1. Castillo Ron, Enrique, “Introducción a la Estadística Aplicada”, Santander, NORAY, 1978, ISBN 84-300-0021-6.
  2. Peña Sánchez de Rivera, Daniel, “Fundamentos de Estadística”, Madrid,  Alianza Editorial, 2001, ISBN 84-206-8696-4.
  3. Kroese, Dirk P., y otros, “Why the Monte Carlo method is so important today”, 2014, WIREs Comp Stat, Vol. 6, págs. 386-392, DOI: 10.1002/wics.1314.

 

Statistical analysis using Monte Carlo method (I)

imagesWhen any electronic device is designed, we can use several deterministic methods for calculating its main parameters. So, we can get the parameters that we measure physically in any device or system. These preliminary calculations allow the development and their results are usually agreed with the prediction. However, we know that everything we manufacture is always subject to tolerances. And these tolerances cause variations in the results that often can not be analyzed easily, without a powerful calculation application. In 1944, Newmann and Ulam developed a non-deterministic, statistical method called Monte Carlo. In the following blog post.  we are going to analyze the use of this powerful method for predicting possible tolerances in circuits, especially when they are manufactured industrially.

In any process, the output result is a function of the input variables. These variables generate a response which can be determined, both if the system is linear and if it is not linear. The relationship between the response and the input variables is called transfer function, and its knowledge allows us to get any result concerning the input excitation.

However, it must be taken in account that the input variables are random variables, with their own distribution function, and are subject to stochastic processes, although their behavior is predictable through the Theory of Probability. For example, when we make any measure, we get its average value and the error in which can be measured that magnitude. This allows to limit the environment in which it is correct and decide when the magnitude behaves incorrectly.

For many years, I have learned to successfully transform the results obtained by simulations in real physical results, with predictable behavior and I got valid conclusions, and I have noticed that in most cases the use of the simulation is reduced to get the desired result without studying the dependence of the variables in that result. However, most simulators have very useful statistical algorithms that, properly used, allow to get a series of data that the designer can use in the future, predicting any system behavior, or at least analyzing what it can happen.

However, these methods are not usually used. Either for knowledge lack of statistical patterns, or for ignorance of how these patterns can be used. Therefore, in these posts we shall analyze the Monte Carlo method on circuit simulations and we shall discover an important tool which is unknown to many simulator users.

DEVICES LIKE RANDOM VARIABLES

Electronic circuits are made by simple electronic devices, but they have a statistical behavior due to manufacturing. Device manufacturers usually show their nominal values and tolerances. Thus, a resistance manufacturer not only publishes its rating values and its dimensions. Tolerances, stress, temperature dependance, etc., are also published. These parameters provide important information, and propertly analyzed with a powerful calculation tool (such as a simulator), we can predict the behavior of any complex circuit.

In this post, we are going to analyze exclusively the error environment around the nominal value, in one resistor. In any resistor, the manufacturer defines its nominal value and its tolerance. We asume these values 1kΩ for the nominal value and ± 5% for its tolerance. It means the resistance value can be found between 950Ω and 1,05kΩ. In the case of a bipolar transistor, the current gain β could take a value between 100 and 600 (i.e. NXP BC817), which may be an important and uncontrollable variation of current collector. Therefore, knowing these data, we can analyze the statistical behavior of an electronic circuit through the Monte Carlo method.

First, let us look resistance: we have said that the resistance has a ± 5% tolerance. Then, we will analyze the resistor behavior with the Monte Carlo method, using a circuit simulator. A priori, we do not know the probability function, although most common is a Gaussian function, whose expression is well known

normal

being μ the mean and σ² the variance. Analyzing by the simulator, through Monte Carlo method and with 2000 samples, we can get a histogram of resistance value, like it is shown in the next figure

Distribución de los valores de la resistencia usando el análisis de Monte Carlo

Histogram of the resistor

Monte Carlo algorithm introduces a variable whose value corresponds to a Gaussian distribution, but the values it takes are random. If these 2000 samples were taken in five different processes with 400 samples each one, we would still find a Gaussian tendency, but their distribution would be different

Distribuciones gaussianas con varios lotes

Gaussian distributions with different processes

Therefore, working properly with the random variables, we can get a complete study of the feasibility of any design and the sensitivity that each variable shows. In the next example, we are going to analyze the bias point of a bipolar transistor, whose β variation is between 100 and 600, being the average value 350 (β is considered a Gaussian distribution), feeding it with resistors with a nominal tolerance of ± 5% and studying the collector current variation using 100 samples.

STATISTICAL ANALYSIS OF A BJT BEHAVIOR IN DC

Now, we are going to study the behavior of a bias circuit, with a bipolar transistor, like the next figure

Circuito de polarización de un BJT

Bias point circuit of a BJT

where the resistors have a ±5% tolerance and the transistor has a β variation between 100 and 600, with a nominal value of 350. Its bias point is  Ic=1,8mA, Vce=3,2V. Making a Monte Carlo analysis, with 100 samples, we can get the next result

Variación de la corriente del BJT en función de las variables aleatorias

BJT current distribution respect to the random variables

 

Seeing the graph form, we can check that the result converges to a Gaussian distribution, being the average value Ic=1,8mA and its tolerance, ±28%. Suppose now that we do the same sweep before processing, in several batches of 100 samples each one. The obtained result is

Variación de la corriente del BJT para varios lotes

BJT current distribution respect several batches

where we can see that in each batch we get a graph which converges to a Gaussian distribution. In this case, the Gaussian distribution has an average value μ=1,8mA and a variance σ²=7%. Thus, we have been able to analyze each process not only like a global statistical analysis but also like a batch. Suppose now that β is a random variable with an uniform distribution function, between 100 and 600. By analyzing only 100 samples, the next graphic is got

Distribución con b uniforme

Results with a BETA uniform distribution

and it can be seen that the current converges to an uniform distribution, increasing the current tolerance range and the probability at the ends. Therefore, we can also study the circuit behaviour when it shows different distribution functions for each variable.

Seeing that, with the Monte Carlo method, we are able to analyze any complex circuit behavior in terms of tolerances, in the same way it will help us to study how we could correct those results. Therefore, in the next posts we shall analyzed deeply this method, increasing the study of its potential and what we can be achieved with it.

CORRECTING THE TOLERANCES

In the simulated circuit, when we have characterized the transistor β like an uniform random variable, we have increased the probability into unwanted current values (at the ends). This is one of the most problematic features, not only on bipolar transistors but also on field effect transistor: the variations of their current ratios. This simple example let see what happens when we use a typical correction circuit for the β variation, like the classic polarization by emitter resistance.

Bias circuit by emitter resistance

Using this circuit and analyzing by Monte Carlo, we can compare its results with the analysis obtained in the previous case, but using 1000 samples. The result is

Resultados con ambos circuitos

Results with both circuits

where we can check that the probability values have increased around 2mA, reducing the probability density at the low values of current and narrowing the distribution function. Therefore, the Monte Carlo method is a method that not only enables us to analyze the behavior of a circuit when subjected to a statistical, but also allow us to optimize our circuit and adjust it to the desired limit values. Used properly, it is a powerful calculation tool that will improve the knowledge of our circuits.

CONCLUSIONS

In this first post, we wish to begin a serie dedicated to Monte Carlo method. In it, we wanted to show the method and its usefulness. As we have seen in the examples, the use of Monte Carlo method provides very useful data, especially with the limitations and variations of the circuit we are analyzing if we know how they are characterized. On the other hand, it allows us to improve it using statistical studies, in addition to setting the standards for the verification of in any production process.

In the next posts we shall go more in depth on the method, by performing a more comprehensive method through the study of a specific circuit of one of my most recent projects, analyzing what the expected results and the different simulations that can be performed using the method of Monte Carlo, like the worst case, the sensitivity, and the post-production optimization.

REFERENCES

  1. Castillo Ron, Enrique, “Introducción a la Estadística Aplicada”, Santander, NORAY, 1978, ISBN 84-300-0021-6.
  2. Peña Sánchez de Rivera, Daniel, “Fundamentos de Estadística”, Madrid,  Alianza Editorial, 2001, ISBN 84-206-8696-4.
  3. Kroese, Dirk P., y otros, “Why the Monte Carlo method is so important today”, 2014, WIREs Comp Stat, Vol. 6, págs. 386-392, DOI: 10.1002/wics.1314.