SHARENG Divulgación

Inicio » Posts tagged 'Análisis'

Tag Archives: Análisis

Simulando transiciones en guía de onda

adapterLas guías de onda son líneas de transmisión muy utilizadas en aplicaciones de muy alta frecuencia como elementos de propagación guiada. Sus mayores ventajas son la reducción de pérdidas en la propagación, debido al uso de un sólo conductor y aire, en lugar de usar dieléctricos como en el cable coaxial, un mayor capacidad para usar potencias elevadas y una construcción sencilla. Sus principales inconvenientes suelen ser que son dispositivos voluminosos, que no pueden funcionar por debajo de su frecuencia de corte y que las transiciones de guía a otras tecnologías (como coaxial o microstrip) suelen tener pérdidas. La simulación por el método de los elementos finitos (FEM), permite, no obstante, estudiar y optimizar las transiciones que se pueden realizar con estos dispositivos, obteniendo muy buenos resultados. En esta entrada vamos a estudiar las guías de onda usando un simulador FEM como HFSS, que es capaz de analizar los campos electromagnéticos en 3D.

Las guías de onda son muy populares en los circuitos de muy alta frecuencia, debido a la facilidad de construcción y bajas pérdidas. Los campos propagados, a diferencia de las guías coaxiales, son transversales eléctricos o magnéticos (campos TE o TM), por lo que tienen una componente de campo magnético (los TE) o campo eléctrico (los TM) en la dirección de propagación. Estos campos son resultado de la solución de la ecuación de Helmholtz bajo determinadas condiciones de contorno

Fig. 1 – Ecuación de Helmholtz para ambos modos

mmque resolviendo por separación de variables, y aplicando las condiciones de contorno de un recinto rectangular donde todas las paredes son paredes eléctricas (conductores, en las que la componente tangencial del campo eléctrico se anula)

Fig. 2 – Condiciones de contorno de la guía rectangular

obtenemos un conjunto de soluciones para el campo electromagnético en el interior de la guía, partiendo de la solución obtenida para las expresiones de la fig. 1.

Fig. 3 – Tabla de campos electromagnéticos y parámetros en guías rectangulares

Por tanto, los campos electromagnéticos se propagan en forma de modos de propagación, denominados TEmn, si son transversales eléctricos (Ez=0), o TMmn, si son transversales magnéticos (Hz=0). De la constante de propagación Kc obtenemos una expresión para la frecuencia de cortefc, que es la frecuencia más baja a la que se pueden propagar campos dentro de la guía, y cuya expresión es

Fig. 4 – Frecuencia de corte de una guía rectangular

El modo más bajo se da cuando m=0, ya que a aunque la función tiene extremos para m,n=0, no existen los modos TE00 o TM00. Y como a>b, la frecuencia de corte más baja de la guía se da en el modo TE10. Ese es el modo que vamos a analizar mediante simulación FEM en 3D.

SIMULACIÓN DE UNA GUÍA RECTANGULAR POR EL MÉTODO DE LOS ELEMENTOS FINITOS

En un simulador 3D es muy sencillo modelar una guía rectangular, ya que basta dibujar un rectángulo de las dimensiones adecuadas a y b. En este caso vamos a usar a=3,10mm y b=1,55mm. El modo TE10 se comenzará a propagar a 48GHz y el segundo modo, el  TE01, a 97GHz, así que vamos a analizar la guía a 76HGz, que es donde queremos hacerla funcionar. La guía, dibujada en un simulador como HFSS, se ve así

Fig. 5 – Guía rectangular. Modelo en HFSS

El prisma rectangular interior se asigna al vacío como medio material, y en los laterales se asignan paredes eléctricas como condiciones de contorno. A los rectángulos de los planos -z/2 y +z/2 se les asignan sendas fuentes de excitación, con el primer modo de propagación.

El campo eléctrico propagado a lo largo de la guía es de la forma

Fig. 6 – Campo eléctrico en el interior de la guía

Analizando los parámetros S de la guía, de 40 a 90GHz, obtenemos

Fig. 7 – Parámetros S de la guía rectangular

donde podemos ver  que es a partir de 48,5GHz cuando comienza a haber propagación en la guía.

A partir de 97GHz, el modo TE01 se comenzaría a propagar también, no interesándonos y centrándonos en los 76GHz, que es donde se quiere hacer funcionar la guía.

TRANSICIONES EN GUIAS DE ONDA

Las transiciones más comunes son aquellas que van de la guía a coaxial, o de guía a línea microstrip, para poder utilizar la energía propagada en otro tipo de aplicaciones. Para ello, lo que se hace es colocar una sonda en la dirección del campo eléctrico (en el modo TE01 es la dirección y), para que la energía que está asociada a ese campo se acople directamente a la sonda

Fig. 8 – Posición de la sonda

La sonda consiste en una antena resonante de cuarto de longitud de onda a la frecuencia que queremos acoplar. En el eje x, el máximo del campo eléctrico se encuentra en x=a/2, mientras que para encontrar el máximo en la dirección de propagación z, cerramos con un cortocircuito la guía, de modo que el campo E es mínimo en la pared de la guía, siendo máximo a un cuarto de onda de la longitud de onda de la guía, que es

Fig. 9 – Longitud de onda de la guía

y en nuestro caso, a 76GHz, λ es 3,95mm mientras que λg es 5,11mm. Por tanto, la longitud de la sonda será 0,99mm y la distancia al cortocircuito 2,56mm.

En transiciones coaxiales, basta con poner un coaxial cuyo conductor interno emerja en λ/4 a λg/4 del cortocircuito. Pero en transiciones a microstrip se usan dieléctricos como soporte de las pistas de metal, por lo que hay que tener en cuenta el efecto del dieléctrico sobre la longitud de onda del material.

Nuestra transición puede ser modelada en HFSS asignando diferentes materiales. Construimos la sonda sobre substrato Rogers RO3003, de baja constante dieléctrica y bajas pérdidas, realizando la transición a línea microstrip. Todo el contorno lateral, así como las líneas de metal, se asignan a paredes eléctricas (conductores perfectos), mientras que el soporte de la línea es RO3003. El interior de la guía y la cavidad donde se aloja la transición es vacío. En el extremo de la transición asignamos un puerto.

Fig. 10 – Transición guía rectangular a microstrip

y ahora realizamos la simulación para ver cuáles son los campos y la respuesta de la transición.

Fig. 11 – Campo eléctrico en la transición

donde se puede ver cómo la sonda es excitada por el campo eléctrico y acopla este a la línea microstrip.

Fig. 12 – Parámetros S de la transición

Viendo la respuesta de los parámetros S, podemos ver que el acoplamiento con menos pérdidas de retorno se produce en la banda de 76÷78GHz, que es donde deseábamos que nuestra transición funcionase.

OTROS DISPOSITIVOS EN GUIA DE ONDA: LA T MÁGICA

Dentro de los componentes populares que se pueden realizar en guía de onda, uno de los más populares es la T mágica, un combinador especial que puede ser usado como divisor  como combinador y como sumador/restador de señales.

Fig. 13 – T Mágica

El funcionamiento es muy sencillo: cuando se excita un campo electromagnético por el puerto 2, la señal sale dividida y en fase por los puertos 1 y 3. El puerto 4 queda aislado porque su plano E es perpendicular al plano E del puerto 2. En cambio, si el campo se excita desde el puerto 4, éste se divide en los puertos 1 y 3 en contrafase (180deg) mientras que el puerto 2 queda aislado.

Vamos a usar la simulación FEM para analizar la T mágica, y excitamos la potencia por el puerto 2, obteniendo

Fig. 14 – Campo eléctrico dentro de la T mágica  excitando desde el puerto 2.

donde se puede ver que la potencia es repartida en los puertos 1 y 3 mientras que el puerto 4 queda aislado. Haciendo lo mismo desde el puerto 4, obtenemos

Fig. 15 – Campo eléctrico en el interior de la T mágica excitando desde el puerto 4.

donde ahora es el puerto 2 el que queda aislado.

Para poder ver las fases, es necesario recurrir a un diagrama vectorial del campo eléctrico

Fig. 16 – Campo eléctrico vectorial excitando desde el puerto 2

donde se ve que el campo en los puertos 1 y 3 tiene la misma orientación y por tanto están en fase. Excitando desde el puerto 4

Fig. 17 – Campo eléctrico vectorial excitando desde el puerto 4

en la que se ve que las señales en el puerto 1 y 3 son del mismo nivel, pero están en contrafase (180deg entre ellas).

La simulación FEM nos permite analizar el comportamiento del campo electromagnético desde diferentes puntos de vista, ya que podemos cambiar las excitaciones. Por ejemplo, si introducimos por 2 una señal en fase con la que introducimos en 4, ambas señales se sumarán en fase en 3 y se anularán en 1.

Fig. 18 – Campo eléctrico en el interior de la guía excitando desde 2 y 4 en fase.

mientras que si invertimos la fase en 2 o en 4, las señales se sumaran en 1 y se anularán en 3.

Fig. 19 – Campo eléctrico en el interior de la guía excitando desde 2 y 4 en contrafase

con lo que estamos haciendo un sumador/restador de señales.

CONCLUSIONES

El objeto de la entrada era el análisis del comportamiento eléctrico de las guías de onda a través de un simulador 3D que usa el método de los elementos finitos (FEM). La ventaja del uso de estos simuladores es que permiten analizar con buena precisión los campos electromagnéticos en estructuras tridimensionales, siendo el modelado la parte más importante para definir correctamente la estructura a estudiar, ya que un simulador tridimensional requiere realizar un mallado en la estructura, y este mallado, a medida que necesita más tetraedros para lograr una buena convergencia, tiende también a necesitar más memoria de máquina y capacidad de procesado.
Las estructuras analizadas, debido a su simplicidad, no han requerido de tiempos largos de simulación y capacidad de procesado relevantes, pero a medida que se hacen más complejos los modelos, la capacidad de procesado aumenta, si se desea conseguir una buena precisión.

En posteriores entradas analizaremos otros métodos para lograr reducir el modelado en estructuras complejas, a través del uso de planos de simetría que permiten dividir la estructura y reducir considerablemente el mallado.

REFERENCIAS

  1. Daniel G. Swanson, Jr.,Wolfgang J. R. Hoefer; “Microwave Circuit Modeling Using Electromagnetic Field Simulation”; Artech House, 2003, ISBN 1-58053-308-6
  2. Paul Wade, “Rectangular Waveguide to Coax Transition Design”, QEX, Nov/Dec 2006
Anuncios

Diseñando con la Carta de Smith 3D

La Carta de Smith es una herramienta habitual en el diseño de circuitos de RF. Desarrollada por Phillip Smith en 1939, se ha convertido en el método gráfico más popular para representar impedancias y resolver de forma sencilla operaciones con números complejos. Tradicionalmente la Carta de Smith se ha usado en su forma polar, para dos dimensiones, en un círculo de radio 1. Sin embargo, la carta en su formato 2D presenta algunas restricciones cuando se trata de representar impedancias activas de osciladores o círculos de estabilidad de amplificadores, ya que estas últimas representaciones suelen salirse de la carta. En los últimos años se ha popularizado el uso de la Carta de Smith tridimensional. Los avances en el software de representación 3D posibilitan su uso para el diseño. En esta entrada se va a tratar de conocer el manejo de la Carta de Smith tridimensional y su aplicación a un secillo amplificador de baja figura de ruido.

Cuando Phillip Smith estaba trabajando en los Laboratorios Bell, se encontró con la necesidad de tener que adaptar una antena y para ello buscó una forma de resolver el problema gráficamente. Mediante las expresiones matemáticas que rigen las impedancias en las líneas de transmisión, logró representar el plano complejo de impedancias mediante círculos de resistencia y reactancia constante. Estos círculos le facilitaban el poder representar cualquier impedancia en un espacio polar, con la máxima adaptación situada en el centro de la carta y el círculo exterior representando la reactancia pura. Tradicionalmente, la carta de Smith ha sido representada en forma polar tal y como se observa a continuación.

Fig. 1 – Carta de Smith tradicional

Las impedancias se representan normalizadas, esto es, se representa la relación entre la impedancia que se quiere representar y la impedancia de generador. El centro de la carta es la resistencia pura unidad (máxima adaptación) mientras que el círculo periférico que limita la carta es la reactancia pura. El extremo izquierdo de la carta representa el cortocircuito puro y el extremo derecho, el circuito abierto puro. La carta se hizo enseguida muy popular para poder realizar cálculos de adaptación de impedancias con líneas de transmisión usando el método gráfico. Sin embargo,las dificultades de diseño con la carta empezaron a producirse cuando se quería analizar dispositivos activos como amplificadores, para estudiar su estabilidad, y osciladores.

Obviamente, la carta limita a las impedancias de parte real positiva, pero la carta puede representar, mediante extensión del plano complejo a través de la transformación de Möbius, impedancias con parte real negativa [1]. Esta carta expandida al plano de parte real negativa se puede ver en la siguiente figura

Fig. 2-Carta de Smith expandida a parte real negativa

Esta carta, sin embargo, tiene dos inconvenientes: 1) aunque nos permite representar todas las impedancias, existe el problema del infinito complejo, por lo que sigue limitada y 2) la carta toma unas dimensiones grandes que la hacen difícil de manejar en un entorno gráfico, incluso tratándose de un entorno asistido por computador. Sin embargo, su ampliación es necesaria cuando se desean analizar los círculos de estabilidad en amplificadores, ya que en muchas ocasiones, los centros de estos círculos están situados fuera de la carta de impedancias pasivas.

En un entorno gráfico por computador, representar los círculos ya lo realiza el propio programa a través de sus cálculos, pudiendo limitar la carta a la carta pasiva y dibujando sólo una parte del círculo de estabilidad. Pero con osciladores se sigue teniendo el problema del infinito complejo, cosa que se resuelve a través de la esfera de Riemann.

ESFERA DE RIEMANN

La esfera de Riemann es la solución matemática para representar todo el plano complejo, incluido el infinito. Toda la superficie compleja se representa en una superficie esférica mediante una proyección estereográfica de dicho plano.

Fig. 3 – Proyección del plano complejo a una esfera

En esta representación el hemisferio sur de la esfera representa el origen, el hemisferio norte representa el infinito y el ecuador el círculo de radio unidad. La distribución de los valores complejos en la esfera se puede ver en la siguiente figura

Fig. 4 – Distribución de los valores complejos en la esfera

De este modo, es posible representar cualquier número del espacio complejo en una superficie manejable.

REPRESENTANDO LA CARTA DE SMITH EN UNA ESFERA DE RIEMANN

Como la Carta de Smith es una representación compleja, se puede proyectar del mismo modo a una esfera de Riemann [2], tal y como se muestra en la figura siguiente

Fig. 5 – Proyección de la Carta de Smith sobre una esfera de Riemann

En este caso, el hemisferio norte corresponde a la impedancias de parte resistiva positiva (impedancias pasivas), en el hemisferio sur se representan las impedancias con resistencia negativa (impedancias activas), en el hemisferio este se representan las impedancias inductivas y en el oeste las impedancias capacitivas. El meridiano principal se corresponde con la impedancia resistiva pura.

Así, se se desea representar una impedancia cualquiera, ya sea activa o pasiva, se puede representar en cualquier punto de la esfera, facilitando notablemente su representación. Del mismo modo, se pueden representar los círculos de estabilidad de cualquier amplificador sin tener que expandir la carta. Por ejemplo, si queremos representar los círculos de estabilidad de un transistor cuyos parámetros S a 3GHz son

S11=0,82/-69,5   S21=5,66/113,8   S12=0,03/48,8  S22=0,72/-37,6

el resultado en la carta de Smith convencional sería

Fig. 6 – Representación tradicional de los círculos de estabilidad

mientras que en la carta tridimensional sería

Fig. 7 – Círculos de estabilidad en la carta tridimensional

donde se pueden ver ubicados ambos círculos, parte en el hemisferio norte y parte en el sur. Como se puede ver, se ha facilitado enormemente su representación.

UNA APLICACIÓN PRÁCTICA: AMPLIFICADOR DE BAJO RUIDO

Vamos a ver una aplicación práctica de la carta tratando de conseguir que el amplificador de la sección anterior esté adaptado a la máxima ganancia estable y mínima figura de ruido, a 3GHz. Usando los métodos tradicionales, y conociendo los datos del transistor, que son

S11=0,82/-69,5   S21=5,66/113,8   S12=0,03/48,8  S22=0,72/-37,6

NFmin=0,62  Γopt=0,5/67,5 Rn=0,2

Representamos en la carta de Smith tridimensional esos parámetros S y dibujamos los círculos de estabilidad del transistor. Para una mejor representación usamos 3 frecuencias, con un ancho de banda de 500MHz.

Fig. 8 – Parámetros S y círculos de estabilidad del transistor (S11 S21 S12 S22 Círculo se estabilidad de entrada Círculo de estabilidad de salida)

y podemos ver los parámetros S, así como los círculos de estabilidad, tanto en el diagrama polar convencional como en la carta tridimensional. Como se puede observar, en el diagrama polar convencional los círculos se salen de la carta.

Para que un amplificador sea incondicionalmente estable, los círculos de estabilidad deberían estar situados en la zona externa de impedancia pasiva de la carta (en la carta tridimensional, en el hemisferio sur, que es la región expandida) bajo dos condiciones: si los círculos son externos a la carta pasiva y no la rodean, la zona inestable se encuentra en el interior del círculo. Si rodean a la carta, las cargas inestables se encuentran en el exterior del círculo.

Fig. 9 – Posibles situaciones de los círculos de estabilidad en la región activa

En nuestro caso, al entrar parte de los círculos a la región de impedancias pasivas, el amplificador es condicionalmente estable. Entonces las impedancias que podrían desestabilizar el amplificador son las que se encuentran en el interior de los círculos. Esto es algo que todavía no se puede ver con claridad en la carta tridimensional, no parece que lo calcule y sería interesante de incluir en posteriores versiones, porque facilitaría enormemente el diseño.

Vamos ahora a adaptar la entrada para obtener el mínimo ruido. Para ello hay que diseñar una red de adaptación que partiendo de 50Ω llegue al coeficiente de reflexión Γopt y que representa una impedancia normalizada Zopt=0,86+j⋅1,07. En la carta de Smith tridimensional abrimos el diseño y representamos esta impedancia

Fig. 10 – Representación de Γopt

Ahora usando la admitancia, nos desplazamos en la región de conductancia constante hasta que obtengamos que la parte real de la impedancia sea 1. Esto lo hacemos tanteando y obtenemos una subsceptancia de 0,5,. Como hemos tenido que incrementar 0,5–(-0,57)=1,07, esto equivale a una capacidad a tierra de 1,14pF.

Fig. 11 – Transformación hasta el círculo de impedancia con parte real unidad.

Ahora sólo queda colocar un componente que anule la parte imaginaria de la impedancia (reactancia), a resistencia constante. Como la reactancia obtenida es -1,09, hay que añadir 1,09, por lo que el valor de reactancia se anula. Esto equivale a una inducción serie de 2,9nH.

Fig. 12 – Impedancia de generador adaptada a Γopt

Ya tenemos la red de adaptación de entrada que nos consigue la mínima figura de ruido. Como el dispositivo es activo, al colocar esta red de adaptación nos cambian los parámetros S del transistor. Los nuevos parámetros son:

S11=0,54/-177   S21=8,3/61,1   S12=0,04/-3,9  S22=0,72/-48,6

que representamos en la carta de Smith para ver sus círculos de estabilidad.

Fig. 13 – Transistor con entrada adaptada a Γopt y sus círculos de estabilidad

Las regiones inestables son las internas, por lo que el amplificador sigue siendo estable.

Ahora hay que adaptar la salida para obtener la máxima ganancia, por lo que hay que cargar a S22=0,72/-48,6 un coeficiente de reflexión ΓL adaptación conjugada, pasando de 50Ω a un coeficiente de reflexión ΓL=0,72/48,6. Esta operación se realiza del mismo modo que operamos en la adaptación de la entrada. Haciendo esta operación y obteniendo los parámetros S del conjunto completo, con redes de adaptación en entrada y salida, obtenemos

S11=0,83/145   S21=12/-7.5   S12=0,06/-72,5  S22=0,005/162

La ganancia es 20·log(S21)=21,6dB, y la figura de ruido obtenida es 0,62dB, que corresponde a su NFmin. Ahora sólo queda representar en la carta de Smith tridimensional estos parámetros para observar sus círculos de estabilidad.

Fig. 14 – Amplificador de bajo ruido y sus círculos de estabilidad

En este caso, la región estable del círculo de estabilidad de entrada es la interior, mientras que en el círculo de estabilidad de salida es la exterior. Como ambos coeficientes de reflexión, S11 y S22 se encuentran en la región estable, el amplificador es entonces estable.

CONCLUSIONES

En esta entrada hemos tenido la primera toma de contacto con la Carta de Smith tridimensional. El objetivo de la entrada era estudiar su potencial respecto a una herramienta ya tradicional en la ingeniería de Microondas como es la Carta de Smith tradicional. Se observan novedosas ventajas sobre ésta en cuanto a que podemos representar los valores infinitos de la transformada de Möbius sobre una esfera de Riemann y de este modo tener una herramienta gráfica tridimensional donde se pueden representar prácticamente todas las impedancias, tanto pasivas como activas, y parámetros difíciles de representar en la carta tradicional como los círculos de estabilidad.

En su versión 1 la herramienta, que se puede encontrar en la página web 3D Smith Chart / A New Vision in Microwave Analysis and Design, presenta bastantes opciones de diseño y configuración, aunque se echa de menos algunas aplicaciones que, sin duda, irán incorporándose en futuras versiones. En este caso, una de las aplicaciones más ventajosas para la carta, al haber estudiado los círculos de estabilidad de un amplificador, es la ubicación de las regiones de estabilidad de forma gráfica. Aunque esto lo podemos resolver por cálculo, siempre es más ventajosa la imagen visual.

La aplicación tiene un manual de usuario con ejemplos explicados de forma sencilla, de modo que el diseñador se familiarice enseguida con ella. En mi opinión profesional, es una herramienta idónea para los que estamos acostumbrados a usar la carta de Smith para realizar nuestros cálculos de redes de adaptación.

REFERENCIAS

  1. Müller, Andrei; Dascalu, Dan C; Soto, Pablo; Boria, Vicente E.; ” The 3D Smith Chart and Its Practical Applications”; Microwave Journal, vol. 5, no. 7, pp. 64–74, Jul. 2012
  2. Zelley, Chris; “A spherical representation of the Smith Chart”; IEEE Microwave, vol. 8, pp. 60–66, July 2007
  3. Grebennikov, Andrei; Kumar, Narendra; Yarman, Binboga S.; “Broadband RF and Microwave Amplifiers”; Boca Raton: CRC Press, 2016; ISBN 978-1-1388-0020-5

Diseño de un amplificador de audio en Emisor Común con Qucs

Un blog interesante.

TRESCIENTOS BAUDIOS

El amplificador que vamos a diseñar en esta ocasión, ya fue utilizado para enseñar como funcionaba el análisis en AC de un circuito amplificador o filtro. Este análisis sirve para obtener la respuesta en frecuencia de un dispositivo en concreto.

En esta ocasión voy a utilizar el simulador Qucs, en concreto la versión 0.0.18-2. Esta versión la tenéis que descargar de la página de los desarrolladores. La versión que os comente en un artículo anterior, me ha dado problemas y he tenido que volver a instalar la anterior.

Ver la entrada original 765 palabras más

Simulando reguladores DC-DC conmutados

Los reguladores son dispositivos que convierten tensiones de DC a DC. Pueden ser de dos tipos: lineales (disipativos) y conmutados. Los primeros toman la tensión de entrada y la reducen a una tensión deseada, mientras que los segundos convierten la tensión de entrada en otra usando técnicas de conmutación, pudiendo ser la tensión de salida inferior o superior a la de entrada. Si la tensión de salida es inferior, se llaman reductores (“buck”), y si es superior, elevadores (“boost”). A diferencia de los reguladores lineales, con estos dispositivos se pueden obtener eficiencias en la transferencia de energía superiores al 80%, reduciendo la disipación en la regulación. En esta entrada vamos a proceder analizar un pequeño circuito elevador, desde una batería de 3V a 12V, y vamos a usar dos simuladores de circuitos para comprobar los resultados: LTSpice de Linear Technology Corp. y Tina-TI de Texas Instruments, ambos basados en los algoritmos SPICE.

En los circuitos electrónicos es necesario siempre alimentar con una fuente de alimentación DC. En la mayoría de las ocasiones, las tensiones de alimentación son superiores a las necesarias para alimentar las partes activas, por lo que se suelen usar reguladores lineales para conseguir la tensión adecuada. Sin embargo, hay ocasiones en las que es necesario obtener una tensión superior a la que disponemos, para alimentar el circuito.

Supongamos que tenemos un circuito que tenemos que alimentar a 12V, cuyo requisito es alimentarlo desde una batería de 3,2V. Al necesitar elevar la tensión, no se puede usar un regulador lineal, ya que la tensión de salida de éste siempre es inferior a la de la entrada. Por tanto, es necesario usar un “boost” para elevar la tensión hasta 12V.

El circuito que vamos a utilizar se puede ver en el esquema siguiente

Conversor DC-DC de 3,2V a 12V (esquema en LTSpice)

En este diseño, la conmutación se realiza a través del bipolar Q1 (BD139), gobernado por un temporizador NE555, que genera los pulsos para que el transistor conduzca. Cada vez que éste entra en conducción, la bobina L1 se carga a hasta una corriente máxima Im. Cuando el transistor deja de conducir, la corriente máxima Im a la que se ha cargado la bobina es descargada a través del diodo D1 a la carga representada por R5. El funcionamiento es en modo continuo, por tanto la corriente de la bobina nunca llega a ser nula en el ciclo de conmutación.

ANÁLISIS DEL CONVERTIDOR CON LTSpice

Uno de los simuladores de circuitos más populares es SPICE, un software basado en la resolución matricial por nudos de circuitos eléctricos y que incluye varios algoritmos de cálculo en función de la respuesta que se quiera estudiar. Los análisis típicos de SPICE son el análisis de continua DC, el análisis de alterna AC y el análisis transitorio TRAN. Mientras que con un regulador lineal, basta con realizar un análisis DC y comprobar la tensión de salida, en un regulador conmutado hay que hacer un análisis transitorio para obtener la respuesta del circuito.
LTSpice es una versión de SPICE realizada por Linear Technology, de carácter libre y con un algoritmo de cálculo transitorio optimizado para el estudio de los reguladores, ya que el principal mercado del fabricante americano son los componentes de gestión de potencia. Por tanto, incluye una gran librería de estos componentes y en su página se pueden observar varios tutoriales para analizar circuitos. El NE555 forma parte de sus librerías por lo que no hay que crear uno. Sin embargo, los modelos del transistor y del diodo deben incluirse usando la tarjeta .MODEL. Ambos semiconductores son de propósito general, pero vamos a poner aquí los modelos para poder incluirlos en el circuito.

Tarjetas .MODEL para el transistor y el diodo

Una vez incluidos ambos modelos, se realiza un análisis transitorio de 30ms. Para ver el funcionamiento, representaremos primero la caída de tensión en R5 en todo el rango del tiempo. Luego, iremos representando cada uno de los parámetros importantes del convertidor.

Para todo el tiempo de simulación, la tensión en R5 es

Tensión en la resistencia R5 en todo el rango de simulación

Podemos observar que hay un impulso amortiguado en el arranque, debido a la respuesta paso bajo que realiza la bobina L1 con el condensador C4, que es el que realizará el filtrado de las componentes de alterna. La amortiguación es prácticamente inmediata, cayendo 7V en 2,85ms. En dos oscilaciones más (a 8,55ms del arranque), la tensión se comienza a estabilizar hasta que se mantiene constante.

Vamos a ver ahora qué ciclo de trabajo se utiliza para obtener esta respuesta. El ciclo lo proporciona el NE555, por lo que estudiamos la onda a la salida de este integrado. Esta es

Señal de control a la salida del NE555

 donde se puede ver que la señal de control tiene una frecuencia de 47kHz y un ciclo de trabajo del 78%. Con esos valores, analizamos primero los resultados obtenidos en régimen permanente, que son los siguientes

Tensiones y corrientes en el convertidor

donde se miden las corrientes en la bobina L1 y la carga R5, así como las tensiones en el colector de Q1 y en la carga R5. De estos resultados se obtiene que la tensión de salida del conversor es 13,3V, con un rizado de ±60mV. La corriente en la carga es del orden de 60,5mA, lo que implica una potencia entregada a la carga de 805mW. La corriente media que se pide a la batería es la que circula por la bobina L1 y es del orden de 275mA, lo que significa que se pide a la batería una potencia de 880mW. Teniendo en cuenta la potencia entregada a la carga, el rendimiento del “boost” es η=805/880=0,92=92%, una eficiencia muy buena para un conversor DC-DC.

El transistor Q1 está sobredimensionado, se podría colocar un transistor de menos potencia para lograr la misma eficiencia (por ejemplo un BC337) y consumo. El circuito está pensado para ser usado con una batería de 3,2V y 2000mAh, por lo que a máximo consumo la batería durará 7h. Es un convertidor idóneo si no se quiere acudir a uno comercial y se quiere montar con componentes fáciles de localizar en una tienda de componentes electrónicos, ya que el NE555 y el BC337 son de uso muy común, así como los componentes pasivos.

Una de las ventajas de LTSpice sobre otros simuladores similares es que se puede ver la simulación en tiempo real, ya que actualiza los datos representados en las gráficas según va obteniendo los resultados, pudiendo detener o pausar la simulación en cualquier momento.

ANÁLISIS DEL CONVERTIDOR CON Tina-TI

Como hemos dicho, el simulador LTSpice es una versión de SPICE desarrollada por Linear Tech. para la simulación, preferentemente, de los componentes que comercializa este fabricante. Otros fabricantes, como Texas Instruments, también ponen a disposición de los diseñadores un software de simulación similar, llamado Tina-TI, que se puede encontrar en su página web y que es de distribución libre. Como LTSpice, Tina-TI incluye las librerías de componentes comercializados por Texas Inst., aparte de las librerías convencionales de componentes de propósito general, por lo que es un simulador dispuesto para el uso una vez descargado en instalado.

En este caso, nuestro diseño toma la siguiente forma

Esquema del convertidor en Tina-TI

En este caso, para estudiar las tensiones y corrientes ponemos puntos de test de corriente en serie con la bobina y la carga, así como de tensión en paralelo con el transistor y la carga. En este caso no es necesario incluir la tarjeta .MODEL ya que tanto el transistor como el diodo tienen incluidos sus modelos en la librería. La simulación, como en LTSpice, se puede visualizar en tiempo real, pudiendo también detenerla o pausarla.

Los resultados obtenidos con Tina-TI son los siguientes

Resultados obtenidos con Tina-TI

donde se puede observar una muy ligera variación en los valores de tensión y corriente, una desviación del orden de un 1,2% que es un valor muy aceptable. Por tanto, Tina-TI también es un simulador adecuado para analizar este tipo de circuitos.

CONCLUSIONES

El objetivo de la entrada era no sólo mostrar un diseño sencillo de “boost” con componentes de propósito general, sino además comparar dos simuladores de código libre y que son bastante potentes, puestos a disposición del ingeniero junto con unas librerías y actualizaciones periódicas de las mismas que permiten aumentar la capacidad del simulador. Para mi gusto, llevo trabajando más tiempo con LTSpice y es más intuitivo y de fácil manejo, aparte de que permite una jerarquía esquemática para los subcircuitos más sencilla. Su manual de ayuda también es bastante claro. Tina-TI no ofrece la posibilidad de jerarquía en el esquemático, pero tiene una librería de más de 20.000 componentes, además de macros ya realizadas para circuitos integrados del fabricante. Incluye además la posibilidad de trazar los resultados con instrumentos como el osciloscopio, multímetro o analizador de señal.

En cuanto a las presentaciones, LTSpice es más cómodo a la hora de representar los resultados, ya que basta con poner el puntero sobre el punto a testar: si es un nodo, se mide tensión, y si es un componente, corriente, mientras que Tina-TI debe de incluir componentes de test. De este modo, el esquemático de LTSpice queda limpio de componentes de test, aunque en éste también se pueden incluir. En ambos, sin embargo, se sigue echando de menos la posibilidad de realizar cálculos con los resultados obtenidos, como ocurre con otros simuladores más potentes. Sin embargo, son herramientas muy útiles para analizar sistemas electrónicos, y por tanto, recomendables para el diseñador.

REFERENCIAS

  1. Martínez García, Salvador; Gualda Gil, J. Andrés., “Electrónica de Potencia: Componentes, topologías y equipos”, Madrid : Thomson Editores Spain, 2006. ISBN 978-84-9732-397-0
  2. Getting started with LTSpice
  3. Soluciones para LTSpice
  4. Getting started with Tina-TI
  5. Documentos técnicos y blogs para Tina-TI

(Las referencias 2 a 5 contienen enlace para acceder a las páginas de Linear Technology y Texas Instruments)

Ajustando filtros mediante el método de Dishal

filtroEn Telecomunicaciones es usual tener que usar filtros para poder eliminar frecuencias indeseadas. Estos filtros suelen ser de bandas muy estrechas y se suelen utilizar técnicas de líneas acopladas, por lo que en la mayor parte de los diseños se debe recurrir a la simulación electromagnética para verificar el diseño. La simulación electromagnética, aunque es una potente herramienta, suele ser lenta si se desea optimizar mediante algoritmos convencionales. Aunque estos algoritmos están incluidos en la mayor parte de los simuladores electromagnéticos, ya sea en 2D o en 3D, si la respuesta del filtro está muy alejada de la deseada, la optimización suele ser muy lenta, por lo que se requieren otros métodos que permitan ajustar previamente antes de realizar una optimización final. Uno de los métodos es el de Dishal, en el que se puede sintonizar un filtro de varias secciones a base de sintonizar cada una de ellas. En esta entrada, sintonizaremos un filtro microstrip de tipo HAIRPIN, de resonadores λ/2 acoplados, usando un simulador electromagnético como HPMomentum.

Los filtros son los dispositivos más comunes que se usan en Telecomunicaciones. Eliminan las frecuencias interferentes y el ruido, pudiendo procesar la señal recibida o transmitida de una forma más eficiente. Tienen bastante literatura para su diseño, y existen muchas combinaciones para obtener su respuesta. Sin embargo, es uno de los dispositivos en los que es más difícil obtener un óptimo resultado. Su sintonía física requiere habilidad y entrenamiento, y su sintonía en simulación paciencia y tiempo. Sin embargo, existen técnicas que permiten la optimización de un filtro a base de usar metodologías de ajuste que permita acercarse a los parámetros ideales del filtros. Una de metodología que permite sintonizar un filtro de forma sencilla es el método de Dishal y es el que vamos a usar para sintonizar un filtro paso banda HAIRPIN para la banda de subida de LTE-UHF.

Esta metodología permite realizar el ajuste de un filtro paso banda acoplado sintonizando tanto de los factores de calidad Qi y Qo que necesita el filtro para ser cargado, como de los factores de acoplamiento Mi,i+1 que acoplarán las diferentes etapas, de forma independiente. Estos parámetros son calculados a través de los parámetros del filtro prototipo, que se pueden obtener ya sea a través de las tablas presentes en cualquier libro de diseño de filtros como en programas de cálculo como MatLab. Las expresiones para calcular los parámetros fundamentales de un filtro paso banda acoplado son

formulas

donde fh y fl son las frecuencias de corte de la banda pasante, f0 es la frecuencia central y FBW el ancho de banda fraccional. Los valores g0..gn son los coeficientes del filtro prototipo normalizado. Con estos valores obtendremos los parámetros de acoplamiento de nuestro filtro.

FILTRO PASO BANDA HAIRPIN DE 5 SECCIONES

Vamos a desarrollar un filtro paso banda en tecnología microstrip, usando una configuración HAIRPIN de resonadores λ/2 acoplados. En este filtro, la línea resonante es una línea λ/2, que se acopla al siguiente resonador mediante la sección λ/4. O más concretamente, entre un 85 y un 95% de λ/4. Su denominación HAIRPIN es debida a que tiene forma física de peine. Nuestro filtro va a tener las siguientes características fundamentales:

  • Banda pasante : 791÷821MHz (banda de UHF para LTE de subida)
  • Número de secciones: 5
  • Tipo de filtro: Chebychev 1
  • Factor de rizado: 0,1dB
  • Impedancias de generador y carga: 50Ω

Con estos valores acudimos a las tablas para obtener los coeficientes g0..g6 del filtro prototipo y aplicando las expresiones anteriores obtenemos que

  • Qi=Qo=30,81
  • M12=M45=0,0297
  • M23=M34=0,0226

Con estos coeficientes se pueden calcular las impedancias Zoe y Zoo que definirán las líneas acopladas, así como la posición de los feeds de entrada y salida. En este último caso, esta posición se puede obtener a partir de

feed

Como soporte vamos a usar un substrato Rogers, el RO3006, que tiene una εr=6,15, usando un espesor de 0,76mm y 1oz de cobre (35μm). Con este substrato, el filtro obtenido es:

filter

y con estos valores, pasaremos a la simulación.

SIMULACIÓN DEL FILTRO PASO BANDA

Usando HPMomentum, el simulador electromagnético de ADS, vamos a poder simular la respuesta de este filtro, que se puede ver en la siguiente gráfica

Resultado de la simulación del filtro

Resultado de la simulación del filtro

que, la verdad sea dicha, no se nos parece ni por asomo a lo que pretendíamos realizar. El filtro está cerca de la frecuencia f0, tiene un ancho de banda de 30MHz, pero ni está centrado ni el rizado es, ni de lejos, 0,1dB. Por tanto, habrá que recurrir a una sintonía usando el método de Dishal y así llevar el filtro a la frecuencia deseada, con el acoplamiento deseado.

Buscando la posición del alimentador

Buscando la posición del alimentador

AJUSTANDO EL Q EXTERNO

En primer lugar vamos a ajustar los factores de calidad de los resonadores de generador y de carga, que tienen que ser de 30,81. Como ambos son iguales, la sintonía obtenida servirá para los dos. Para ajustar los Qi y Qo, tendremos que buscar la posición adecuada de la alimentación para que el valor sea el deseado.

Para calcular el Qext, se evalúa el coeficiente de reflexión del resonador y se obtiene su retardo de grupo. El factor de calidad será

qext Cuando hacemos la primera simulación y representamos Qext, obtenemos

qext2

donde se puede comprobar que ni el filtro está centrado ni su factor de calidad es el deseado. Para centrar el filtro, aumentamos la distancia entre las líneas en 1,1mm y recortamos las líneas resonantes en 0,34mm. De este modo, obtenemos

qext2_2

en el que ya están centradas las líneas, siendo el Qext de 37,28. Ahora aumentamos la distancia del feed al extremo de la pista en 0,54mm y obtenemos el Qext deseado.

qext2_3

Ya tenemos centrado el filtro y con el Qext requerido. Ahora tocaría ajustar los acoplamientos.

AJUSTE DE LOS ACOPLAMIENTOS

Para ajustar los acoplamientos, primero separamos el feed unos 0,2mm de la línea, y hacemos un espejo de la misma para que quede como sigue

coup_1

En este caso, para medir el acoplamiento usamos los picos que salen en la transmisión (S21), y aplicamos la expresión

coup_2

El resultado de la simulación, para el primer acoplo, es

coup_3

que como podemos comprobar está en el valor requerido.

En el caso del segundo acoplo

coup_4

que también está cerca de su valor requerido. Por tanto, con los cambios obtenidos, simulamos el filtro total y obtenemos

Filtro después de la primera sintonía

Filtro después de la primera sintonía

que ya se acerca al filtro deseado.

REITERANDO LA SINTONÍA

Si reiteramos sobre la sintonía, podremos llegar a mejorar el filtro hasta los valores que deseemos. Así, disminuyendo el Qext obtenemos

Disminución del Qext

Disminución del Qext

que supone ya una mejora importante. Jugando ahora con los acoplamientos, disminuyéndolos, llegamos a obtener

filt_3

Ajuste de los acoplamientos

que podemos dar por válido. Por tanto, el método de Dishal nos ha permitido, a partir de los parámetros calculados, ajustar el filtro hasta obtener las características deseadas.

CONCLUSIONES

Hemos analizado el método de Dishal como herramienta para el ajuste y sintonización de un filtro paso banda de 5 secciones, con óptimos resultados. La sencillez del método permite ajustar los principales parámetros de forma independiente, de manera que el ajuste final u optimización sean más sencillas, cosa de agradecer en simuladores electromagnéticos, que requieren de potencia de cálculo y tiempo de simulación. Vemos que el método, realizado paso a paso, nos permite ir ajustando las características hasta obtener el resultado deseado, por lo que podemos concluir que es un método muy útil en sintonización de filtros, tanto en discretos como en distribuidos, y que bien usado permite acercarse lo suficientemente al resultado final como para que la optimización electromagnética sea innecesaria.

REFERENCIAS

  1. Zverev, Anatol I., “Handbook of Filter Synthesys”, Hoboken, New Jersey : John Wiley & Sons Inc., 1967. ISBN 978-0-471-74942-4.

¿Fallan las encuestas electorales?

14665983216010Las recientes elecciones del día 26 vuelven a mostrar una discrepancia entre las encuestas electorales y los resultados finales. Tal ha sido la diferencia que, una vez más, se vuelve a dudar de la eficacia de las mismas como barómetro sociológico. Aprovechando las últimas entradas referentes a la Estadística, en ésta vamos a aclarar algunos términos que muestren la diferencia entre las encuestas y el muestreo final que corresponde a datos corroborados, como son las propias elecciones. Conocer estas diferencias es lo que ayudará a dar las encuestas el justo valor que se merece, sin convertirlas en algo que se tiene que cumplir necesariamente.

Como en otras ocasiones, las encuestas y los sondeos han mostrado una diferencia abismal entre las tendencias recogidas y los datos finales. Y una vez más, se vuelve a cuestionar al mensajero, porque se ha equivocado. Sin embargo, no hay tanto error, puesto que la metodología de la encuesta es correcta, sino más bien deseos de que esos resultados se reproduzcan de este modo.

Una encuesta es un estudio sociológico. Con ella se pretende tomar el pulso a una sociedad muy diversa y a la que le afectan muchas variables, muchas veces incontroladas. Se trata, pues, de indagar cómo respira un sistema caótico como es una sociedad en determinadas circunstancias y en presencia de determinados estímulos externos, a partir de la elaboración de una serie de preguntas concretas, cuya finalidad es intentar conocer lo que los humanos guardamos en mente sobre algo determinado. Sus resultados no están, por tanto, basados en datos objetivos fruto de una medición empírica, como lo es un resultado electoral, sino que son la tendencia que se puede obtener en un determinado momento de una situación a base de conocer esas respuestas. Si la metodología aplicada en la elaboración de las preguntas es correcta, los resultados también son, en ese momento correctos. Otra cosa es que se consideren esos resultados como definitivos, ya que definitivo sólo es el resultado de la medición objetiva. Una variación en las condiciones de contorno o en los estímulos externos puede variar una opinión determinada en un momento determinado.

¿Dónde vas este año de vacaciones?

Una pregunta que nos suelen hacer muy a menudo: ¿dónde vas a ir de vacaciones este año? La respuesta variará claramente en función de cuándo te hagan la pregunta. No es lo mismo que la hagan en marzo, a 5 meses de coger las vacaciones, que en junio. Depende de otras variables claras, como la situación económica, las ofertas de las agencias de viajes, si vas a ir sólo con tu familia o vas a compartir las vacaciones con otra familia amiga… Nuestra respuesta está supeditada al estímulo externo y no a un patrón determinado que marque qué es lo que voy a hacer en dos o tres meses, porque es posible que ni lo haya planificado ni lo vaya a planificar.

No obstante, en una campaña electoral, en la precampaña y sobre todo, si ha habido 6 meses de intentos infructuosos de formar un gobierno, los estímulos han sido continuos y a veces pueden provocar reacciones contrarias y efectos contraproducentes. Y el manejo de los sondeos debe de hacerse con prudencia espartana, puesto que pueden producirse descalabros como el del 26-J. Sin embargo, ha habido mucha proliferación de sondeos, casi uno cada día, cuya finalidad también puede haber sido marcar un paso o un objetivo, y ese uso indiscriminado se ha dado de bruces con el frío, duro y descarnado resultado de la medición objetiva. Aquí no cabe preguntarse si las encuestas están mal hechas, sino si ha habido intención de utilizar esa información de forma interesada y sesgada para forzar el resultado que le gustaría al que la maneja. Porque en realidad, eso es lo que ha ocurrido: se ha querido transformar anhelos en realidades.

La imposibilidad de predecir con exactitud los sucesos en un sistema caótico

Como la previsión atmosférica, la sociedad es un sistema caótico difícilmente predecible. Cuando se predice el tiempo, se acuden a modelos en los que se introducen las variables y se estudian tendencias. Se estudian también las evoluciones de días anteriores, se hacen análisis estadísticos aleatorios basados en Monte Carlo como el que he mostrado en las entradas técnicas, y con todos esos datos, se lanza una previsión. Pero, ojo, se trata de una previsión, que no una confirmación. Esa previsión se hace con un margen de probabilidad que dependerá también de las variables que afecten al sistema en ese momento y en su falta de aislamiento frente a otros estímulos. Así, que no llueva en Santander por el viento sur no es debido a que el viento sur sea una característica típica de Santander (lo que llamamos clima local), sino que detrás de la cordillera, con un clima local diferente, cambie una variable que por efecto de acción y reacción provoque precisamente la aparición del viento sur. La previsión es correcta siempre que se tenga en cuenta la probabilidad de que ocurra, dato objetivo basado en la fiabilidad del modelo que en muchas ocasiones ni se contempla ni se tiene en cuenta. Y tomamos la decisión de ir de vacaciones a Santander basándonos en esa previsión, sin analizar las probabilidades de que nuestras vacaciones terminen pasadas por agua porque los meteorólogos han dicho que va a hacer buen tiempo.

Pues no, los meteorólogos han previsto una situación atmosférica en función de los datos registrados. Eres tú el que quiere que haga buen tiempo, porque te interesa. Es el famoso sesgo de confirmación. Y claro, si tus vacaciones se van al traste, no hay nada mejor que echar la culpa al hombre del tiempo, como si éste no te hubiese dado todos los datos, probabilidad incluida, de qué es lo que podría ocurrir. Al que no le ha interesado el resto de los datos es a ti. El principal interesado en coger la parte bonita de la previsión porque entra en sus planes de vacaciones eres tú. El meteorólogo sólo ha hecho el trabajo de darte los datos, pero la decisión la tomas tú. Por eso, echar la culpa de una decisión malograda a la persona que te proporciona los datos, cuando no los has usado todos, sólo sirve de consuelo. Pero el hecho claro, el dato objetivo principal es que la decisión de ir a un sitio donde parecía que no iba a llover la has tomado tú.

¿Qué fiabilidad tienen las encuestas?

Como hemos visto en las entradas anteriores, la fiabilidad estadística en un sistema no determinista como el social depende, sobre todo, abaco blogdel tamaño de la muestra. A mayor muestra, mayor convergencia. Tanto en las mediciones objetivas como en los estudios sociológicos humanos. Hace unos años publiqué una entrada sobre los sistemas caóticos, recordando el experimento del triángulo claveteado y la canica. Este fue uno de los primeros experimentos que tuve que hacer en la asignatura de Física General, en mi época de estudiante, y debería ser obligatorio para todos los alumnos, como en Termodinámica y Mecánica Estadística fue obligatorio el de la Teoría Cinética de los Gases.

El experimento es muy sencillo: se trata de arrojar un número de canicas en un triángulo de madera que contiene filas de clavos colocadas como se describe en la figura. Al bajar la canica y pasar entre dos clavos, se encuentra con el siguiente, y el choque y el efecto de bajada hará que tome una dirección u otra. El resultado final, después de tirarte tres días tirando canicas y contando posiciones (unas 5.000 canicas), tiende a ser una distribución gaussiana. ¡Ojo! he dicho tiende, porque si se dibuja la gráfica de la función y se compara con la gráfica real obtenida, se verá que los resultados obtenidos y la curva gaussiana tienen ligeras divergencias. Nos proporciona la información de cómo puede caer una canica, pero hasta que no la tires (decisión), no puedes saber con exactitud dónde caerá.

El censo electoral de 2016 tiene inscritos a 36 millones y medio de electores. Con este tamaño objetivo de muestra, hacer fiable una encuesta de 2.000 posibles electores es bastante difícil, teniendo en cuenta la distribución de población española. No proporcionará los mismos resultados una pregunta hecha en Castilla-León o La Rioja que en Andalucía, Cataluña o Madrid. Esto es un hecho que se tiene que dar por descontado: la fiabilidad de una encuesta depende también de que la muestra, que ya es un 0,055‰ de la muestra real, sea además una representación lo más fiel posible de la realidad social de la población española. Representación bastante difícil de lograr, puesto que la diversidad de la sociedad española depende de su situación geográfica, del nivel económico de la zona, de las necesidades que se tienen, etc. Son muchas variables no controlables a tener en cuenta para lograr una fiabilidad al 100%. Por tanto, a la encuesta hay que darle un grado de confianza similar al que habría que darle a la previsión meteorológica: que es una previsión, una tendencia, pero que para nada es un dato objetivo final y que puede estar sometido a vaivenes incontrolables debido a los estímulos que afecten a la sociedad, y que no es responsabilidad de los encuestadores la existencia de esos estímulos.

Como experto en simulación que soy, tengo muy claro que no me fío de los resultados de una simulación hasta que no tengo completamente probado todo. La simulación me permite conocer de antemano tendencias y tomar una decisión, pero para nada es un resultado absoluto, ya que depende de variables que, si no las tengo definidas y las meto en el sistema, pueden proporcionarme resultados físicos contradictorios. Por eso, la simulación y la medida son experiencias interactivas, como lo deben ser las encuestas.

Este aluvión de encuestas y sondeos, con la inclusión del ya famoso mercado de la fruta andorrano, ha hecho que la campaña se haya dirigido más a tratar de cumplir los vaticinios que a estudiar los vaivenes sociales. Se ha tratado más de lograr aproximar los optimistas datos de las encuestas al resultado objetivo de la medición, que son las elecciones generales, sin tener en cuenta que esos datos sólo eran previsiones puntuales. Y esto ha provocado en muchas personas una sensación brutal de frustración. Una frustración similar a la que sufrió el veraneante que fue a Santander pensando en la bonita previsión del tiempo y tuvo que comprarse un paraguas porque en la vecina provincia de Burgos cambió la presión atmosférica debida a un cambio brusco de temperatura.

No obstante, tiene que seguir habiendo encuestas. No se puede pretender conocer la realidad de una sociedad sin preguntar y esto se tiene que seguir haciendo. Pero siempre sin perder el norte: no es un dato objetivo fruto de una medición definitiva, sino la trayectoria de la canica o el hecho de que en Burgos haya caído la temperatura. Y eso tiene que ser correctamente utilizado por quienes necesitan pulsar a la sociedad.1466915869_295178_1466977429_noticia_normal

 

La estadística y su correcto uso


importancia-graficos-estadistica_image007Una de las herramientas más usadas en la actualidad, sobre todo desde que tenemos máquinas que son capaces de computar muchos datos, es la estadística
. Se trata de una potente herramienta que, bien utilizada, puede proporcionarnos previsiones, sobre todo en sistemas caóticos. Dentro de este tipo de sistemas podemos incluir desde fenómenos atmosféricos a comportamientos de grupos humanos, aunque también se usa para resolver problemas en sistemas deterministas, cuando aparecen fenómenos no previstos que hay que corregir. En estos tiempos, el uso de la estadística se ha extendido a todos los ámbitos, si bien hay que responder a una clara pregunta: ¿de veras sabemos utilizarla? ¿O sólo extraemos las conclusiones que a nosotros nos interesan? En esta entrada voy a tratar de mostrar algunos términos que hay que tener en cuenta en la mecánica estadística y cómo se deberían interpretar sus resultados.

 Por estadística podemos entender dos cosas:

  • Es la herramienta matemática que utiliza conjuntos de datos numéricos, que representan sucesos, para obtener resultados basados en el cálculo de probabilidades.
  • Es el estudio que reúne y clasifica todos los sucesos que posean alguna característica en común, para que con esa clasificación se puedan extraer conclusiones.

En estas dos definiciones tenemos dos conceptos diferentes: el primero, la estadística como disciplina matemática mecánica, con unas reglas claras basadas en la clasificación y el cálculo de probabilidades. Una herramienta que casi todas las disciplinas humanas, ya sean científicas, tecnológicas o sociales, tienen que usar para extraer conclusiones.

Por otro lado, tenemos el estudio estadístico, que no es estadística como disciplina, pero que se suele utilizar dicho término para referirse a él. La segunda definición está englobada en la primera, porque el estudio estadístico es el recuento de determinados sucesos para extraer una conclusión. Por tanto, la estadística, como tal, no muestra resultados, sólo clasifica los sucesos. Sólo nosotros somos los capacitados para interpretarlos.

Una de las frases a las que suelo recurrir muchas veces, cuando alguien me blande estadísticas como hechos incontestables, es un estudio estadístico muestra que las personas comemos un pollo a la semana. Esta semana yo me he comido dos pollos y tú ninguno, así que te deseo que te siente bien el pollo que no has comido. Uno de los mayores errores que se pueden cometer es el considerar a la estadística como un hecho incontestable, cuando sólo son datos agrupados. El hecho, que puede ser incontestable o no, es la interpretación que podamos hacer de esos datos, y ésta puede ser errónea si no aplicamos las reglas mecánicas de la estadística. Estas reglas se encuentran en la Teoría de Probabilidades, donde se definen una serie de herramientas a tratar en la disciplina para lograr obtener mejores interpretaciones. Si estas reglas no son utilizadas, las interpretaciones pueden ser de lo más variopintas.

La importancia de la estadística es tal, que hasta los Estados tienen departamentos exclusivos para trazar los estudios, interpretar los resultados y poder actuar en función de los mismos. El problema radica en cuando se transmiten esos datos a la sociedad, cómo se transmiten, qué porcentajes de error pueden presentar, qué correlación existe entre los sucesos y que conclusiones extrae el que los maneja, que es el que conoce todos los datos y los ha interpretado. Hay que tener en cuenta que la mayor parte de la población no tiene porqué saber más estadística que la estudiada en las matemáticas de la ESO y el Bachillerato, y que la estadística es una mecánica mucho más compleja que contar las caras de un dado y asignar una probabilidad.

Los sucesos, lo único medible de la estadística

Los sucesos, en la estadística, son los datos que se quieren medir. Y los sucesos pueden ser de varios tipos: elementales, compuestos, seguros, imposibles, compatibles, independientes, dependientes y contrarios. Dependiendo de lo que se vaya a estudiar, hay que clasificar los sucesos, que es lo único medible de la estadística.

Los sucesos, de por sí,  no proporcionan conclusiones. Las conclusiones se obtienen de su clasificación. Y la clasificación, para que las conclusiones sean realmente resultado de un estudio estadístico, son fruto de pasar por las reglas establecidas en la mecánica estadística.

Un ejemplo de violación de las reglas estadísticas se pueestudiode ver en el reciente debate de 13-J, donde los cuatro líderes de los partidos principales son sometidos al juicio del público. Según la captura de imagen, uno de los líderes ya era ganador antes de que el suceso medible ocurriese.

En cierto modo, podríamos pensar que la foto está trucada, y es una posibilidad a tener en cuenta, pero teniendo en cuenta también  que dicha estadística no pasa por las reglas establecidas de la estadística, independientemente de que sea o no verdadera la foto, los resultados no se pueden presentar como un estudio estadístico y sus conclusiones posteriores no se pueden tomar como válidas, aunque a algunos les guste el resultado.

Es en este punto cuando la estadística toma su más siniestra utilización: manipulación de los resultados.

El incorrecto uso de la estadística: la manipulación

Debido a que la mayoría de la población desconoce las reglas establecidas para el estudio estadístico (definición de sucesos, tamaño de las muestras, criterios de medición, estimaciones sobre resultados, contrastes de hipótesis, etc.), aquí vuelve otra vez a aparecer mi frase favorita acerca del consumo de pollo por la población: se publican los resultados y no los criterios que han llevado a esos resultados, por lo que aparece un elemento de manipulación evidente, ya que se están utilizando los datos bajo criterios evidentemente orientados a conseguir una respuesta determinada. La estadística no tiene esa función, su función es proporcionarnos los datos para mostrarnos tendencias que permitan corregir aquellas cosas que necesiten corrección, o poder determinar resultados cuando los sistemas son caóticos.

falsa encuestaHemos visto lo que un periódico digital publica antes de tiempo, pero podemos ver otra encuesta en la que también se observa una clara manipulación, ésta cortesía de 13TV. En esta “encuesta” se pregunta a los telespectadores quién ha ganado el debate del pasado lunes. Recordemos que en ese debate había cuatro líderes políticos, y la cadena de la Conferencia Episcopal ha eliminado, de un plumazo, a dos de ellos.

Podemos entender que no son santo de devoción ni de los periodistas de la cadena ni de sus principales accionistas, pero teniendo en cuenta quiénes son esos accionistas, tendrían que pensar en cierto mandamiento que ellos deberían cumplir a rajatabla porque forma parte de su doctrina: “No levantarás falso testimonio ni mentirás”. Parece ser que aquí se vuelve a recurrir al maquiavélico principio de que “el fin justifica los medios”, pero no sabía que la Iglesia Católica española tuviese al célebre escritor renacentista florentino entre sus bases doctrinales.

Podemos poner más ejemplos de encuestas y estudios estadísticos sesgados, más orientados a obtener una respuesta en la población que a analizar un suceso concreto. Osea, se tienen las conclusiones y hay que crear un espacio de sucesos y unos criterios de medición que permitan llegar a esas conclusiones, lo que vulnera las reglas de la estadística y, por tanto, se convierten en mero discurso manipulador para generar un estado de opinión y no una interpretación acertada de la realidad.

La estadística tiene que ser fría

Así es, aunque seamos humanos y tengamos sentimientos y las cosas nos afecten, para hacer un estudio estadístico hay que librarse de juicios previos y de ganas de obtención de resultados que nos den la razón y que se ajusten a nuestros deseos. Los sucesos se deben de obtener mediante la fría medición, sin ninguna intervención sobre ella. Por eso, la definición del espacio de muestras y de los sucesos debe de ser independiente a nuestros deseos y afinidades. Si no es así, el estudio carece de validez y no proporciona nada más que consuelo o euforia, cuando no es engañarnos a nosotros mismos.

Otra cosa es la elaboración de conclusiones e hipótesis, la célebre cocina a la que las empresas de estadística someten los resultados. Pero la validez del estudio sólo será aceptable si son conocidos los criterios para cocinar los resultados. Es una norma estadística básica y que debe de ser conocida y aceptada por el receptor para estimar si las conclusiones son acertadas o simplemente son fruto de una manipulación orientada a volver a obtener algo que nos guste y crear estados de opinión.

Es importante comprender que la estadística, como herramienta que nos ayuda a obtener hipótesis, es una magnífica herramienta. Pero que en malas manos, se transforma en algo odioso y pierde su verdadera utilidad.