Archivo de la etiqueta: sistemas

La importancia de la simulación en los sistemas físicos

Dedico muchas entradas de este blog a la simulación. Esto es debido a que a lo largo de los años he aprendido de la importancia del uso de computadores para el estudio y análisis de sistemas, circuitos y estructuras que, sin estas herramientas, no lograría a priori reproducir, debido a la cantidad de cálculos que hay que realizar. Los modernos simuladores, que son capaces de resolver cuestiones complejas gracias a la capacidad de cálculo de los computadores, nos permiten evaluar el comportamiento de un sistema complejo a través de la definición de las estructuras. Varias disciplinas de la Física y la Ingeniería recurren de forma habitual a la simulación para realizar sus cálculos previos y poder tomar decisiones y elecciones. En esta entrada deseo mostrar cuáles son las partes más importantes que se deben tener en cuenta a la hora de simular.

En el año 1982, Richard Feynman publicó un artículo en el que hablaba del análisis de los sistemas físicos a través de computadores (1). En aquellos años, la tecnología de los computadores había avanzando a un nivel tan alto que era posible conseguir una mayor capacidad de procesado. La generación de lenguajes de programación que pudiesen contener fórmulas complejas, como FORTRAN, permitía el cálculo y evaluación de sistemas que estuviesen definidos por complejas ecuaciones integro-diferenciales, cuya resolución en muchas ocasiones requería de métodos numéricos. De este modo, en los primeros años, los físicos podían hacer simulaciones a través de programas capaces de resolver las ecuaciones constitutivas del sistema, aunque no siempre con descripciones sencillas.

En el caso de la electrónica, la simulación de circuitos tuvo su principal baluarte en SPICE, a principios de los años 70 (2). El programa, basado en FORTRAN, era capaz de simular circuitos electrónicos no lineales, sin tener en cuenta los efectos de radiación, y resolver las complejas ecuaciones integro-diferenciales en el dominio del tiempo. Con los años, el SPICE de Berkeley se convirtió en la referencia absoluta de los programas de simulación, siendo su éxito tal que casi todos los simuladores desarrollados en los últimos años basan gran parte de sus algoritmos en los desarrollados por Nagel y Pederson en los años 70.

A partir de los 80, y buscando resolver problemas tridimensionales, fue muy popular el método de los momentos (MoM), que era capaz de resolver sistemas que han sido planteados como ecuaciones integrales en los límites (3). Fue de aplicación en mecánica de fluidos, acústica y electromagnetismo. Hoy en día el método se sigue utilizando para resolver problemas electromagnéticos en dos dimensiones.

Pero sin duda los algoritmos y los métodos han ido avanzando, apareciendo en los 90 los métodos de elementos finitos (FEM, para el dominio de la frecuencia) y de diferencias finitas en el dominio del tiempo (FDTD, para el dominio del tiempo), basados en la resolución de sistemas formulados por ecuaciones diferenciales, referencias importantes dentro una explosión de algoritmos destinados a la resolución de sistemas complejos (4). Y con estos avances, la contribución de la simulación al mundo de la Física cobra dimensiones espectaculares.

LA IMPORTANCIA DE UN BUEN MODELO

Cuando se estudia un fenómeno, en Física recurrimos habitualmente a trasladar ese fenómeno a un modelo. Se trate de un fenómeno aislado o dentro de un entorno, sea en Acústica, Electromagnetismo o Mecánica Cuántica, tener bien caracterizado un modelo es esencial para poder determinar el comportamiento del fenómeno en función de sus variables y de las relaciones entre ellas. Con un modelo adecuado aumenta nuestra certidumbre en los resultados.

Sin embargo, modelar es complejo. Hay que conocer cuáles son las relaciones entre las variables y a partir de ahí, establecer un sistema que reproduzca el comportamiento dentro de un computador.

Un ejemplo de modelo es el material piezoeléctrico. En Electrónica, los materiales piezoeléctricos son de uso común y es habitual ver dispositivos electrónicos que contengan cristales de cuarzo o cualquier otro material resonante basado en esta propiedad.

Un modelo de piezoeléctrico que tuvo mucho éxito en los años 40 fue el desarrollado por Mason (5). Gracias a la similitud entre los campos electromagnéticos y los acústicos, combinó ambas propiedades a través de líneas de transmisión definidas por las ecuaciones del telegrafista, extraídas de las ecuaciones constitutivas. De este modo desarrolló un modelo para el material piezoeléctrico que hoy en día se sigue utilizando. El modelo se puede ver en la Fig. 1 y ya se estudió en entradas anteriores.

Fig.1 – Modelo de piezoeléctrico de Mason

Este modelo resolvía prácticamente el análisis en frecuencia del material en pequeña señal, obteniendo la curva de resonancia en la impedancia que presentan habitualmente este tipo de componentes y que se puede ver en la Fig. 2

Fig.2 – Resultados del análisis del modelo de Mason

Sin embargo, los modelos necesitan evolucionar y ampliar su capacidad predictiva.

El modelo de Mason describe correctamente el comportamiento del piezoeléctrico cuando trabaja en forma lineal. Sin embargo, falla cuando se quiere conocer el comportamiento cuando se aplica un potencial intenso entre sus electrodos. Así que nuevos avances en el comportamiento del material llevaron a incluir el comportamiento no lineal en las ecuaciones constitutivas (6).

Fig. 3 – Modelo tridimensional de una inducción

En el caso de los modelos tridimensionales, hay que conocer bien cuáles son las características que definen a los materiales para tener un resultado óptimo. En el caso de la inducción de la Fig. 3, se está utilizando como material magnético CoFeHfO, con una permeabilidad magnética compleja dependiente de la frecuencia que hay que introducir en la librería de materiales.

Los resultados serán mejores cuanto mejor esté definido el modelo, y esa es la labor primordial del Físico: obtener modelos fiables a partir de los estudios realizados sobre los fenómenos y los materiales.

La forma de extraer el modelo suele realizarse mediante la medición directa de sus parámetros fundamentales o bien a través de las magnitudes derivadas, en forma de sistemas de ecuaciones. Con una correcta definición del modelo, los resultados obtenidos a través de la simulación serán fiables.

ANÁLISIS MEDIANTE SIMULACIÓN

Una vez se tiene correctamente definido el modelo, podemos realizar el análisis mediante simulación. En este caso, vamos a estudiar la excitación magnética H que se obtiene a 200 MHz en el inductor, usando el análisis FEM, y representando la excitación magnética en el interior de la inducción. La Fig. 4 nos muestra esa excitación magnética.

Fig. 4 -Excitación magnética en el interior del inductor

El resultado obtenido se representa de forma vectorial, ya que hemos elegido esa representación para ver el sentido de la excitación magnética en el espacio. Podemos comprobar, primero, que la excitación magnética máxima se produce en el interior del inductor, y que en su parte superior la orientación es hacia la zona positiva de eje Y, mientras que en la parte inferior la orientación es a la inversa. El nivel máximo de campo obtenido es de 2330 A/m para una excitación de 1 W entre los extremos del inductor.

El comportamiento observado es precisamente el de una inducción cuyo valor puede también ser estimado calculando su impedancia y representándola sobre la carta de Smith, Fig. 5.

Fig. 5 – Impedancia del inductor sobre carta de Smith

La curva mostrada en la carta de Smith muestra claramente una impedancia inductiva, cuyo valor va disminuyendo cuando aumenta la frecuencia, debido a las pérdidas del material magnético CoFeHfO utilizado. Estas pérdidas, además, contribuyen a que la resistencia aumente con la frecuencia. Habrá un Q máximo en la banda útil

Fig. 6 – Factor de calidad del inductor

Como una inducción con resistencia de pérdidas tiene un factor de calidad Q, representamos éste en función de la frecuencia en la Fig. 6.

Por tanto, con la simulación FEM hemos logrado analizar parámetros físicos en una estructura que nos hubiese costado mucho más tiempo y esfuerzo reproducir mediante complejos cálculos y ecuaciones. Esto demuestra, tal y como Feynman apuntó en aquella conferencia de 1982, el potencial que la simulación proporciona cuando se tienen buenos modelos y un software adecuado para poder realizar estos análisis.

Sin embargo, la simulación no ha tenido siempre las de ganar. Precisamente es el paso anterior, la importancia de tener un buen modelo que reproduzca fielmente el comportamiento físico de una estructura, el que nos va a garantizar la fiabilidad de los resultados.

RESULTADOS EXPERIMENTALES

El mejor modo de comprobar si la simulación es válida es recurrir a obtener resultados experimentales. Afortunadamente, la simulación realizada sobre el inductor está obtenida de (7), y en esta referencia los autores muestran resultados experimentales que validan los resultados del modelo obtenido. En las Fig. 7 y 8 podemos ver los valores de inductancia y resistencia obtenidas, que junto con el factor de calidad, pueden ser comparadas con los resultados experimentales que los autores indican en su artículo.

Fig. 7 – Valor de la inductancia en función de la frecuencia

Fig. 8 – Valor de la resistencia efectiva en función de la frecuencia

Los resultados obtenidos por los autores, que han usado HFSS para hacer la simulación del inductor, se pueden ver en la Fig. 9. Los autores han hecho la simulación sobre la estructura sin núcleo y con núcleo, y representan la simulación frente al resultado experimental. De las gráficas presentadas se puede concluir que los resultados obtenidos en la simulación tienen un alto nivel de concordancia con los obtenidos mediante las medidas experimentales.

Esto nos demuestra que la simulación es efectiva cuando el modelo es fiable, y que un modelo es fiable cuando los resultados obtenidos a través de la simulación convergen con los resultados experimentales. De este modo, tenemos una potente herramienta de análisis que nos permitirá conocer de antemano el comportamiento de una estructura y tomar decisiones antes de pasar al proceso de prototipado.

Fig. 9 – Resultados experimentales

En todo caso, en la simulación es importante también la convergencia. La simulación FEM requiere que el mallado que se realice sobre la estructura sea tan eficaz como para hacer converger las soluciones. Un bajo nivel de convergencia da resultados alejados del óptimo, y estructuras muy complejas requieren de mucha velocidad de procesado, mucha memoria RAM e incluso en ocasiones realizar una simulación sobre varios procesadores. A estructuras más complejas, el tiempo de simulación aumenta considerablemente, y esa es una de sus principales desventajas.

Aunque los simuladores FEM permiten la optimización de los valores e incluso hoy la integración con otros simuladores, siguen siendo simuladores que requieren, por la complejidad de los cálculos a realizar, computadores potentes que permitan hacer esos cálculos con fiabilidad.

CONCLUSIONES

Una vez más damos la razón a Feynman cuando en aquel seminario de 1982 eligió precisamente un tema que parecía que no tenía interés ninguno para los asistentes. Desde la publicación de esa charla, el artículo de Feynman se ha convertido en un clásico de las publicaciones de Física. La experiencia que he adquirido a lo largo de los años con simuladores de casi todos los tipos me indica que el camino abierto por éstos sufrirá un avance considerable cuando los computadores cuánticos sean una realidad, y la velocidad de procesado que se pueda obtener permitan a estas herramientas obtener resultados fiables en un corto espacio de tiempo.

La simulación en los sistemas físicos ha sido un avance considerable para poder conseguir resultados sin necesidad de realizar prototipos previos y supone un importante ahorro en los costes de investigación y desarrollo.

REFERENCIAS

  1. Feynman, R; “Simulating Physics with Computers”; International Journal of Theoretical Physics, 1982, Vols. 21, Issue 6-7, pp. 467-488, DOI: 10.1007/BF02650179.
  2. Nagel, Laurence W. and Pederson, D.O. “SPICE (Simulation Program with Integrated Circuit Emphasis)”, EECS Department, University of California, Berkeley, 1973, UCB/ERL M382.
  3. Gibson, Walton C., “The Method of Moments in Electromagnetics”, Segunda Edición, CRC Press, 2014, ISBN: 978-1-4822-3579-1.
  4. Reddy, J.N, “An Introduction to the Finite Element Method”, Segunda Edición,  McGraw-Hill, 1993, ISBN: 0-07-051355-4.
  5. Mason, Warren P., “Electromechanical Transducers and Wave Filters”, Segunda Edición, Van Nostrand Reinhold Inc., 1942, ISBN: 978-0-4420-5164-8.
  6. Dong, S. Shim and Feld, David A., “A General Nonlinear Mason Model of Arbitrary Nonlinearities in a Piezoelectric Film”, IEEE International Ultrasonics Symposium Proceedings, 2010, pp. 295-300.
  7. Li, LiangLiang, et al. 4, “Small-Resistance and High-Quality-Factor Magnetic Integrated Inductors on PCB”, IEEE Transactions on Advanced Packaging, Vol. 32, pp. 780-787, November 2009, DOI: 10.1109/TADVP.2009.2019845.
Anuncios

Simulando reguladores DC-DC conmutados

Los reguladores son dispositivos que convierten tensiones de DC a DC. Pueden ser de dos tipos: lineales (disipativos) y conmutados. Los primeros toman la tensión de entrada y la reducen a una tensión deseada, mientras que los segundos convierten la tensión de entrada en otra usando técnicas de conmutación, pudiendo ser la tensión de salida inferior o superior a la de entrada. Si la tensión de salida es inferior, se llaman reductores (“buck”), y si es superior, elevadores (“boost”). A diferencia de los reguladores lineales, con estos dispositivos se pueden obtener eficiencias en la transferencia de energía superiores al 80%, reduciendo la disipación en la regulación. En esta entrada vamos a proceder analizar un pequeño circuito elevador, desde una batería de 3V a 12V, y vamos a usar dos simuladores de circuitos para comprobar los resultados: LTSpice de Linear Technology Corp. y Tina-TI de Texas Instruments, ambos basados en los algoritmos SPICE.

En los circuitos electrónicos es necesario siempre alimentar con una fuente de alimentación DC. En la mayoría de las ocasiones, las tensiones de alimentación son superiores a las necesarias para alimentar las partes activas, por lo que se suelen usar reguladores lineales para conseguir la tensión adecuada. Sin embargo, hay ocasiones en las que es necesario obtener una tensión superior a la que disponemos, para alimentar el circuito.

Supongamos que tenemos un circuito que tenemos que alimentar a 12V, cuyo requisito es alimentarlo desde una batería de 3,2V. Al necesitar elevar la tensión, no se puede usar un regulador lineal, ya que la tensión de salida de éste siempre es inferior a la de la entrada. Por tanto, es necesario usar un “boost” para elevar la tensión hasta 12V.

El circuito que vamos a utilizar se puede ver en el esquema siguiente

Conversor DC-DC de 3,2V a 12V (esquema en LTSpice)

En este diseño, la conmutación se realiza a través del bipolar Q1 (BD139), gobernado por un temporizador NE555, que genera los pulsos para que el transistor conduzca. Cada vez que éste entra en conducción, la bobina L1 se carga a hasta una corriente máxima Im. Cuando el transistor deja de conducir, la corriente máxima Im a la que se ha cargado la bobina es descargada a través del diodo D1 a la carga representada por R5. El funcionamiento es en modo continuo, por tanto la corriente de la bobina nunca llega a ser nula en el ciclo de conmutación.

ANÁLISIS DEL CONVERTIDOR CON LTSpice

Uno de los simuladores de circuitos más populares es SPICE, un software basado en la resolución matricial por nudos de circuitos eléctricos y que incluye varios algoritmos de cálculo en función de la respuesta que se quiera estudiar. Los análisis típicos de SPICE son el análisis de continua DC, el análisis de alterna AC y el análisis transitorio TRAN. Mientras que con un regulador lineal, basta con realizar un análisis DC y comprobar la tensión de salida, en un regulador conmutado hay que hacer un análisis transitorio para obtener la respuesta del circuito.
LTSpice es una versión de SPICE realizada por Linear Technology, de carácter libre y con un algoritmo de cálculo transitorio optimizado para el estudio de los reguladores, ya que el principal mercado del fabricante americano son los componentes de gestión de potencia. Por tanto, incluye una gran librería de estos componentes y en su página se pueden observar varios tutoriales para analizar circuitos. El NE555 forma parte de sus librerías por lo que no hay que crear uno. Sin embargo, los modelos del transistor y del diodo deben incluirse usando la tarjeta .MODEL. Ambos semiconductores son de propósito general, pero vamos a poner aquí los modelos para poder incluirlos en el circuito.

Tarjetas .MODEL para el transistor y el diodo

Una vez incluidos ambos modelos, se realiza un análisis transitorio de 30ms. Para ver el funcionamiento, representaremos primero la caída de tensión en R5 en todo el rango del tiempo. Luego, iremos representando cada uno de los parámetros importantes del convertidor.

Para todo el tiempo de simulación, la tensión en R5 es

Tensión en la resistencia R5 en todo el rango de simulación

Podemos observar que hay un impulso amortiguado en el arranque, debido a la respuesta paso bajo que realiza la bobina L1 con el condensador C4, que es el que realizará el filtrado de las componentes de alterna. La amortiguación es prácticamente inmediata, cayendo 7V en 2,85ms. En dos oscilaciones más (a 8,55ms del arranque), la tensión se comienza a estabilizar hasta que se mantiene constante.

Vamos a ver ahora qué ciclo de trabajo se utiliza para obtener esta respuesta. El ciclo lo proporciona el NE555, por lo que estudiamos la onda a la salida de este integrado. Esta es

Señal de control a la salida del NE555

 donde se puede ver que la señal de control tiene una frecuencia de 47kHz y un ciclo de trabajo del 78%. Con esos valores, analizamos primero los resultados obtenidos en régimen permanente, que son los siguientes

Tensiones y corrientes en el convertidor

donde se miden las corrientes en la bobina L1 y la carga R5, así como las tensiones en el colector de Q1 y en la carga R5. De estos resultados se obtiene que la tensión de salida del conversor es 13,3V, con un rizado de ±60mV. La corriente en la carga es del orden de 60,5mA, lo que implica una potencia entregada a la carga de 805mW. La corriente media que se pide a la batería es la que circula por la bobina L1 y es del orden de 275mA, lo que significa que se pide a la batería una potencia de 880mW. Teniendo en cuenta la potencia entregada a la carga, el rendimiento del “boost” es η=805/880=0,92=92%, una eficiencia muy buena para un conversor DC-DC.

El transistor Q1 está sobredimensionado, se podría colocar un transistor de menos potencia para lograr la misma eficiencia (por ejemplo un BC337) y consumo. El circuito está pensado para ser usado con una batería de 3,2V y 2000mAh, por lo que a máximo consumo la batería durará 7h. Es un convertidor idóneo si no se quiere acudir a uno comercial y se quiere montar con componentes fáciles de localizar en una tienda de componentes electrónicos, ya que el NE555 y el BC337 son de uso muy común, así como los componentes pasivos.

Una de las ventajas de LTSpice sobre otros simuladores similares es que se puede ver la simulación en tiempo real, ya que actualiza los datos representados en las gráficas según va obteniendo los resultados, pudiendo detener o pausar la simulación en cualquier momento.

ANÁLISIS DEL CONVERTIDOR CON Tina-TI

Como hemos dicho, el simulador LTSpice es una versión de SPICE desarrollada por Linear Tech. para la simulación, preferentemente, de los componentes que comercializa este fabricante. Otros fabricantes, como Texas Instruments, también ponen a disposición de los diseñadores un software de simulación similar, llamado Tina-TI, que se puede encontrar en su página web y que es de distribución libre. Como LTSpice, Tina-TI incluye las librerías de componentes comercializados por Texas Inst., aparte de las librerías convencionales de componentes de propósito general, por lo que es un simulador dispuesto para el uso una vez descargado en instalado.

En este caso, nuestro diseño toma la siguiente forma

Esquema del convertidor en Tina-TI

En este caso, para estudiar las tensiones y corrientes ponemos puntos de test de corriente en serie con la bobina y la carga, así como de tensión en paralelo con el transistor y la carga. En este caso no es necesario incluir la tarjeta .MODEL ya que tanto el transistor como el diodo tienen incluidos sus modelos en la librería. La simulación, como en LTSpice, se puede visualizar en tiempo real, pudiendo también detenerla o pausarla.

Los resultados obtenidos con Tina-TI son los siguientes

Resultados obtenidos con Tina-TI

donde se puede observar una muy ligera variación en los valores de tensión y corriente, una desviación del orden de un 1,2% que es un valor muy aceptable. Por tanto, Tina-TI también es un simulador adecuado para analizar este tipo de circuitos.

CONCLUSIONES

El objetivo de la entrada era no sólo mostrar un diseño sencillo de “boost” con componentes de propósito general, sino además comparar dos simuladores de código libre y que son bastante potentes, puestos a disposición del ingeniero junto con unas librerías y actualizaciones periódicas de las mismas que permiten aumentar la capacidad del simulador. Para mi gusto, llevo trabajando más tiempo con LTSpice y es más intuitivo y de fácil manejo, aparte de que permite una jerarquía esquemática para los subcircuitos más sencilla. Su manual de ayuda también es bastante claro. Tina-TI no ofrece la posibilidad de jerarquía en el esquemático, pero tiene una librería de más de 20.000 componentes, además de macros ya realizadas para circuitos integrados del fabricante. Incluye además la posibilidad de trazar los resultados con instrumentos como el osciloscopio, multímetro o analizador de señal.

En cuanto a las presentaciones, LTSpice es más cómodo a la hora de representar los resultados, ya que basta con poner el puntero sobre el punto a testar: si es un nodo, se mide tensión, y si es un componente, corriente, mientras que Tina-TI debe de incluir componentes de test. De este modo, el esquemático de LTSpice queda limpio de componentes de test, aunque en éste también se pueden incluir. En ambos, sin embargo, se sigue echando de menos la posibilidad de realizar cálculos con los resultados obtenidos, como ocurre con otros simuladores más potentes. Sin embargo, son herramientas muy útiles para analizar sistemas electrónicos, y por tanto, recomendables para el diseñador.

REFERENCIAS

  1. Martínez García, Salvador; Gualda Gil, J. Andrés., “Electrónica de Potencia: Componentes, topologías y equipos”, Madrid : Thomson Editores Spain, 2006. ISBN 978-84-9732-397-0
  2. Getting started with LTSpice
  3. Soluciones para LTSpice
  4. Getting started with Tina-TI
  5. Documentos técnicos y blogs para Tina-TI

(Las referencias 2 a 5 contienen enlace para acceder a las páginas de Linear Technology y Texas Instruments)

Análisis estadísticos usando el método de Monte Carlo (II)

Art02_fig01En la anterior entrada mostramos con una serie de ejemplos simples cómo funciona el método de Monte Carlo para realizar análisis estadísticos. En esta entrada vamos a profundizar un poco más, haciendo un análisis estadístico más profundo sobre un sistema algo más complejo, analizando una serie de variables de salida y estudiando sus resultados desde una serie de ópticas que resultarán bastante útiles. La ventaja que tiene la simulación es que podemos realizar una generación aleatoria de variables, y además, podemos establecer una correlación de esas variables para conseguir distintos efectos al analizar el funcionamiento de un sistema. Así, cualquier sistema no sólo se puede analizar estadísticamente mediante una generación aleatoria de entradas, sino que podemos vincular esa generación aleatoria a análisis de lotes o fallos en la producción, así como su recuperación post-producción.

Los circuitos que vimos en la anterior entrada eran circuitos muy sencillos que permitían ver cómo funciona la asignación de variables aleatorias y el resultado obtenido cuando estas variables aleatorias forman parte de un sistema más complejo. Con este análisis, podíamos comprobar un funcionamiento y hasta proponer correcciones que, por sí solas, limitasen las variaciones estadísticas del sistema final.

En este caso, vamos a estudiar el efecto dispersivo que tienen las tolerancias sobre uno de los circuitos más difíciles de conseguir su funcionamiento de forma estable: el filtro electrónico. Partiremos de un filtro electrónico de tipo paso banda, sintonizado a una determinada frecuencia y con una anchura de banda de paso y rechazo determinadas, y realizaremos varios análisis estadísticos sobre el mismo, para comprobar su respuesta cuando se somete a las tolerancias de los componentes.

DISEÑO DEL FILTRO PASO BANDA

Vamos a plantear el diseño de un filtro paso banda, centrado a una frecuencia de 37,5MHz, con un ancho de banda de 7MHz para unas pérdidas de retorno mayores que 14dB, y un ancho de banda de rechazo de 19MHz, con atenuación mayor de 20dB. Calculando el filtro, se obtienen 3 secciones, con el siguiente esquema

Filtro paso banda de tres secciones

Filtro paso banda de tres secciones

Con los valores de componentes calculados, se buscan valores estándar que puedan hacer la función de transferencia de este filtro, cuya respuesta es

Respuesta en frecuencia del filtro paso banda

Respuesta en frecuencia del filtro paso banda

donde podemos ver que la frecuencia central es 37,5MHz, que las pérdidas de retorno están por debajo de 14dB en ±3,5MHz de la frecuencia central y que el ancho de banda de rechazo es de 18,8MHz, con 8,5MHz a la izquierda de la frecuencia central y 10,3MHz a la derecha de la frecuencia central.

Bien, ya tenemos diseñado nuestro filtro, y ahora vamos a hacer un primer análisis estadístico, considerando que las tolerancias de los condensadores son ±5%, y que las inducciones son ajustables. Además, no vamos a indicar correlación en ninguna variable, pudiendo tomar cada variable un valor aleatorio independiente de la otra.

ANÁLISIS ESTADÍSTICO DEL FILTRO SIN CORRELACIÓN ENTRE VARIABLES

Como vimos en la entrada anterior, cuando tenemos variables aleatorias vamos a tener dispersión en la salida, así que lo óptimo es poner unos límites según los cuales podremos considerar el filtro válido, y a partir de ahí analizar cuál es su respuesta. Para ello se recurre al análisis YIELD, que es un análisis que, usando el algoritmo de Monte Carlo, nos permite comprobar el rendimiento o efectividad de nuestro diseño. Para realizar este análisis hay que incluir las especificaciones según las cuales se puede dar el filtro por válido. Las especificaciones elegidas son unas pérdidas de retorno superiores a 13,5dB entre 35÷40MHz, con una reducción de 2MHz en la anchura de banda, y una atenuación mayor de 20dB por debajo de 29MHz y por encima de 48MHz. Haciendo el análisis estadístico obtenemos

Análisis estadístico del filtro. Variables sin correlación.

Análisis estadístico del filtro. Variables sin correlación.

que, sinceramente, es un desastre: sólo el 60% de los posibles filtros generados por variables con un ±5% de tolerancia podrían considerarse filtros válidos. El resto no serían considerados como válidos en un control de calidad, lo que significaría un 40% de material defectivo que se devolvería al proceso de producción.

De la gráfica se puede ver, además, que son las pérdidas de retorno las principales responsables de que exista tan bajo rendimiento. ¿Qué podemos hacer para mejorar este valor? En este caso, tenemos cuatro variables aleatorias. Sin embargo, dos de ellas son del mismo valor (15pF), que cuando son montadas en un proceso productivo, suelen pertenecer al mismo lote de fabricación. Si estas variables no presentan ninguna correlación, las variables pueden tomar valores completamente dispares. Cuando las variables no presentan correlación, tendremos la siguiente gráfica

Condensadores C1 y C3 sin correlación

Condensadores C1 y C3 sin correlación

Sin embargo, cuando se están montando componentes de un mismo lote de fabricación, las tolerancias que presentan los componentes varían siempre hacia el mismo sitio, por tanto hay correlación entre dichas variables.

ANÁLISIS ESTADÍSTICO DEL FILTRO CON CORRELACIÓN ENTRE VARIABLES

Cuando usamos la correlación entre variables, estamos reduciendo el entorno de variación. En este caso, lo que analizamos no es un proceso totalmente aleatorio, sino lotes de fabricación en los cuales se producen las variaciones. En este caso, hemos establecido la correlación entre las variables C1 y C3, que son del mismo valor nominal y que pertenecen la mismo lote de fabricación, por lo que ahora tendremos

Condensadores C1 y C3 con correlación

Condensadores C1 y C3 con correlación

donde podemos ver que la tendencia a la variación en cada lote es la misma. Estableciendo entonces la correlación entre ambas variables, estudiamos el rendimiento efectivo de nuestro filtro y obtenemos

Análisis estadístico con C1, C2 variables correladas

Análisis estadístico con C1, C2 variables correladas

que parece todavía más desastroso. Pero ¿es así? Tenemos que tener en cuenta que la correlación entre variables nos ha permitido analizar lotes completos de fabricación, mientras que en el análisis anterior no se podía discernir los lotes. Por tanto, lo que aquí hemos obtenido son 26 procesos de fabricación completos exitosos, frente al caso anterior que no permitía discernir nada. Por tanto, esto lo que nos muestra es que de 50 procesos completos de fabricación, obtendríamos que 26 procesos serían exitosos.

Sin embargo, 24 procesos completos tendrían que ser devueltos a la producción con todo el lote. Lo que sigue siendo, realmente, un desastre y el Director de Producción estaría echando humo. Pero vamos a darle una alegría y a justificar lo que ha intentado siempre que no exista: el ajuste post-producción.

ANÁLISIS ESTADÍSTICO CON AJUSTE POST-PRODUCCIÓN

Como ya he dicho, a estas alturas el Director de Producción está pensando en descuartizarte poco a poco, sin embargo, queda un as en la manga, recordando que las inducciones las hemos puesto de modo que sean ajustables. ¿Tendrá esto éxito? Para ello hacemos un nuevo análisis, dando valores variables en un entorno de ±10% sobre los valores nominales, y activamos el proceso de ajuste post-producción en el análisis y ¡voilà! Aun teniendo un defectivo antes del ajuste muy elevado, logramos recuperar el 96% de los filtros dentro de los valores que se habían elegido como válidos

Análisis estadístico con ajuste post-producción

Análisis estadístico con ajuste post-producción

Bueno, hemos ganado que el Director de Producción no nos corte en cachitos, ya que el proceso nos está indicando que podemos recuperar la práctica totalidad de los lotes, eso sí, con el ajuste, por lo que con este análisis podemos mostrar no sólo el defectivo sino la capacidad de recuperación del mismo.

Podemos representar cómo han variado las inducciones (en este caso las correspondientes a las resonancias en serie) para poder analizar cuál es la sensibilidad del circuito frente a las variaciones más críticas. Este análisis permite establecer un patrón de ajuste para reducir el tiempo en el que se debe de tener un filtro exitoso.

Análisis de los patrones de ajuste en las inducciones de las resonancias serie

Análisis de los patrones de ajuste en las inducciones de las resonancias serie

Así, con este tipo de análisis, realizado en el mismo momento del diseño, es posible tomar decisiones que fijen los patrones posteriores de la fabricación de los equipos y sistemas, pudiendo establecer patrones fijos de ajuste post-producción sencillos al conocer de antemano la respuesta estadística del filtro diseñado. Una cosa muy clara que he tenido siempre, es que cuando no he hecho este análisis, el resultado es tan desastroso como muestra la estadística, así que mi recomendación como diseñador es dedicarle tiempo a aprender cómo funciona y hacerle antes de que le digas a Producción que tu diseño está acabado.

CONCLUSIONES

En esta entrada hemos querido mostrar un paso más en las posibilidades del análisis estadístico usando Monte Carlo, avanzando en las posibilidades que muestra el método a la hora de hacer estudios estadísticos. El algoritmo nos proporciona resultados y nos permite fijar condicionantes para realizar diversos análisis y poder optimizar más si se puede cualquier sistema. Hemos acudido hasta a un ajuste post-producción, a fin de calmar la ira de nuestro Director de Producción, que ya estaba echando humo con el defectivo que le estábamos proporcionando. En la siguiente entrada, abundaremos un poco más en el método con otro ejemplo que nos permita ver más posibilidades en el algoritmo.

REFERENCIAS

  1. Castillo Ron, Enrique, “Introducción a la Estadística Aplicada”, Santander, NORAY, 1978, ISBN 84-300-0021-6.
  2. Peña Sánchez de Rivera, Daniel, “Fundamentos de Estadística”, Madrid,  Alianza Editorial, 2001, ISBN 84-206-8696-4.
  3. Kroese, Dirk P., y otros, “Why the Monte Carlo method is so important today”, 2014, WIREs Comp Stat, Vol. 6, págs. 386-392, DOI: 10.1002/wics.1314.

 

Análisis estadísticos usando el método de Monte Carlo (I)

imagesCuando nos enfrentamos a cualquier diseño electrónico, por lo general disponemos de métodos deterministas que permiten el cálculo de lo que estamos diseñando, de modo que podemos prever los parámetros que vamos a encontrar en la medida física de cualquier dispositivo o sistema. Estos cálculos previos facilitan el desarrollo y normalmente los resultados suelen coincidir en gran medida con la predicción. Sin embargo, sabemos que todo aquello que creemos o fabriquemos siempre está sometido a tolerancias. Y esas tolerancias provocan variaciones en los resultados que muchas veces no se pueden analizar de forma sencilla, sin una herramienta de cálculo potente. En 1944, Newmann y Ulam desarrollaron un método estadístico no determinista que denominaron Método de Monte Carlo. En las siguientes entradas vamos a analizar el uso de este potente método para la predicción de posibles tolerancias en circuitos, sobre todo cuando son fabricados de forma industrial.

En un sistema o proceso, el resultado final es consecuencia de las variables de entrada. Estas generan una respuesta que puede ser determinada tanto si el sistema es lineal como si es no lineal. A la relación entre la respuesta o salida del sistema y las variables de entrada la denominamos función de transferencia, y su conocimiento nos permite evaluar cualquier resultado en función de la excitación de entrada.

Sin embargo, hay que tener en cuenta que las variables de entrada son variables aleatorias, con su propia función de distribución, debido a que están sometidas a procesos estocásticos, aunque su comportamiento es predecible gracias a la teoría de la probabilidad. Por ejemplo, cuando describimos una medida de cualquier tipo, solemos representar su valor nominal o medio, así como el entorno de error asociado en el que esa magnitud medida puede estar. Esto nos permite limitar el entorno en el cual la magnitud es correcta y decidir cuándo la magnitud se comporta de modo incorrecto.

Durante muchos años, después de haber aprendido a transformar con éxito los resultados obtenidos mediante simulación en resultados físicos reales, con comportamientos predecibles y extrayendo conclusiones válidas, me he dado cuenta que en la mayoría de las ocasiones la simulación se reduce a obtener un resultado apetecido, sin profundizar en absoluto en ese resultado. Sin embargo, la mayoría de los simuladores están dotados de algoritmos estadísticos útiles que, correctamente utilizados, permiten al usuario de la aplicación obtener una serie de datos que puede usar para el futuro y permiten predecir el comportamiento de cualquier sistema, o al menos, analizar qué es lo que se puede producir.

Sin embargo, esos métodos que los simuladores incluyen nos suelen ser utilizados. Ya sea por falta de conocimiento de patrones estadísticos, ya sea por desconocimiento de cómo usar esos patrones. Por tanto, en esta serie de entradas vamos a desgranar el método de Monte Carlo que podemos encontrar en un simulador de circuitos e descubrir un potencial importante que es desconocido para muchos de los usuarios de los simuladores de circuitos.

LOS COMPONENTES COMO VARIABLES ALEATORIAS

Los circuitos electrónicos están formados por componentes electrónicos simples, pero que tienen un comportamiento estadístico, debido a los procesos de fabricación. No obstante, los fabricantes de componentes delimitan correctamente los valores nominales y el entorno de error en que se mueven. Así, un fabricante de resistencias no sólo publica sus valores nominales y dimensiones. También publica los entornos de error en los que esa resistencia varía, el comportamiento con la temperatura, el comportamiento con la tensión, etc. Todos estos parámetros, convenientemente analizados, proporcionan una información importante que, bien analizada dentro de una potente herramienta de cálculo como es el simulador, permite predecir el comportamiento de circuito total.

En este caso se va a analizar exclusivamente el entorno de error en el valor nominal. En una resistencia, cuando el fabricante define el valor nominal (en este caso, vamos a suponer 1kΩ) y expresa que tiene una tolerancia de ±5%, quiere decir que el valor de la resistencia puede estar comprendido entre 950Ω y 1,05kΩ. En el caso de un transistor, su ganancia de corriente β puede tomar un valor entre 100 y 600 (por ejemplo, el BC817 de NXP), por lo que puede haber una variación de corriente de colector importante e incontrolable. Por tanto, conociendo estos datos, podemos analizar el comportamiento estadístico de un circuito eléctrico gracias a la rutina de Monte Carlo.

Analicemos primero la resistencia: hemos dicho que la resistencia tiene una tolerancia de ±5%. Entonces, vamos a analizar usando el simulador el comportamiento de esta resistencia usando la rutina de Monte Carlo. A priori, desconocemos qué función densidad de probabilidad tiene la resistencia, aunque lo más habitual es una función de tipo gaussiano, cuya expresión es ya conocida

normal

donde μ es el valor medio y σ² es la varianza. Analizando con el simulador, mediante el método de Monte Carlo y para 2000 muestras, se puede obtener una representación de la variación del valor nominal de la resistencia, obteniendo un histograma como el que se muestra en la figura siguiente

Distribución de los valores de la resistencia usando el análisis de Monte Carlo

Distribución de los valores de la resistencia usando el análisis de Monte Carlo

El algoritmo de Monte Carlo introduce valor en la variable cuya distribución corresponde a una gaussiana, pero los valores que toma son en todo momento aleatorios. Si esas 2000 muestras se tomasen en 5 procesos de 400 muestras cada uno, seguiríamos teniendo una tendencia a la gaussiana, pero sus distribuciones serían diferentes

Distribuciones gaussianas con varios lotes

Distribuciones gaussianas con varios lotes

Por tanto, trabajando convenientemente con las variables aleatorias, se puede extraer un estudio completo de la fiabilidad del diseño realizado, así como de la sensibilidad que tiene cada una de las variables que se utilizan. En el siguiente ejemplo, vamos a proceder al análisis del punto de operación de un transistor bipolar convencional, cuya variación de β está comprendida entre 100 y 600, con un valor medio de 350 (comprendida β con una distribución gaussiana), polarizado con resistencias con una tolerancia nominal de ±5%, y estudiando la variación de la corriente de colector en 100 muestras.

ANÁLISIS DEL COMPORTAMIENTO ESTADÍSTICO DE UN BJT EN DC

Para estudiar el comportamiento de un circuito de polarización con transistor bipolar, partimos del circuito como el de la figura

Circuito de polarización de un BJT

Circuito de polarización de un BJT

donde las resistencias tienen tolerancias totales de ±5% y el transistor tiene una variación de β entre 100 y 600, con un valor nominal de 350. El punto de operación es Ic=1,8mA, Vce=3,2V. Haciendo el análisis de Monte Carlo para 100 muestras, obtenemos el siguiente resultado

Variación de la corriente del BJT en función de las variables aleatorias

Variación de la corriente del BJT en función de las variables aleatorias

Por la forma de la gráfica, se puede comprobar que el resultado converge a una gaussiana, donde el valor medio predominante es Ic=1,8mA, con una tolerancia de ±28%. Supongamos ahora que hacemos el mismo barrido que antes, en varios lotes de proceso, de 100 muestras cada uno. El resultado obtenido es

Variación de la corriente del BJT para varios lotes

Variación de la corriente del BJT para varios lotes

donde podemos ver que en cada lote tendremos una curva que converge a una gaussiana. En este caso, la gaussiana tiene un valor medio μ=1,8mA y una varianza σ²=7%. De este modo, podemos analizar cada proceso como un análisis estadístico global como por lotes. Supongamos que ahora β es una variable aleatoria con una función de distribución uniforme entre 100 y 600. Analizando sólo para las 100 muestras, se obtiene la curva

Distribución con b uniforme

Distribución con BETA uniforme

y se puede observar que la tendencia de la corriente es a converger a una distribución uniforme, aumentando el rango de tolerancia de la corriente y aumentando la probabilidad en los extremos de su valor. Por tanto, también podemos estudiar cómo se comporta el circuito cuando tenemos distintas funciones de distribución gobernando cada una de las variables.

Visto que, con el método de Monte Carlo podemos analizar el comportamiento en términos de tolerancias de un circuito complejo, también del mismo modo nos ayudará a estudiar cómo podemos corregir esos resultados. Por tanto, a lo largo de las entradas vamos a profundizar cada vez más en el potencial del método y lo que se puede conseguir con él.

CORRIGIENDO LAS TOLERANCIAS

En el circuito básico que hemos utilizado, al caracterizar la β del transistor como una variable uniforme, hemos aumentado la probabilidad de haya posibles valores de corriente que caigan en valores indeseados. Esto es uno de los puntos más problemáticos de los transistores bipolares y de efecto campo, las variaciones de sus ganancias en corriente. Vamos a ver, con un sencillo ejemplo, qué es lo que ocurre cuando usamos un circuito de corrección de la variación de β, como puede ser el circuito clásico de autopolarización por emisor

Circuito con autopolarización por emisor

Circuito con autopolarización por emisor

Usando este circuito, volvemos a hacer un análisis de Monte Carlo y lo comparamos con el análisis obtenido en el caso anterior,pero usando 1000 muestras. El resultado obtenido es

Resultados con ambos circuitos

Resultados con ambos circuitos

donde se puede ver que se ha incrementado la probabilidad en valores en torno a los 2mA, reduciendo la densidad de probabilidad en valores bajos de corriente y estrechando la distribución. Por tanto, el método de Monte Carlo no sólo es un método que nos permite analizar el comportamiento de un circuito cuando se somete a una estadística, sino que nos permitirá optimizar nuestro circuito y ajustarlo a los valores límite deseados. Usado convenientemente, es una potente herramienta de cálculo que mejorará el conocimiento de nuestros circuitos.

CONCLUSIONES

En esta primera entrada de una serie dedicada al método de Monte Carlo, en la que hemos querido presentar el método y su utilidad. Como hemos podido ver en el ejemplo, el uso del método de Monte Carlo proporciona datos de mucha utilidad, sobre todo si deseamos conocer cuáles son las limitaciones y variaciones del circuito que estamos analizando. Por otro lado, nos permite mejorar éste a través de los estudios estadísticos, además de fijar los patrones para la verificación del mismo en un proceso productivo.

En las siguientes entradas profundizaremos más en el método, realizando un estudio más exhaustivo del método a través de un circuito concreto de uno de mis proyectos más recientes, analizando cuáles son los resultados esperados y las diferentes simulaciones que se pueden realizar usando el método de Monte Carlo, como las de caso peor, sensibilidad, y optimización post-producción.

REFERENCIAS

  1. Castillo Ron, Enrique, “Introducción a la Estadística Aplicada”, Santander, NORAY, 1978, ISBN 84-300-0021-6.
  2. Peña Sánchez de Rivera, Daniel, “Fundamentos de Estadística”, Madrid,  Alianza Editorial, 2001, ISBN 84-206-8696-4.
  3. Kroese, Dirk P., y otros, “Why the Monte Carlo method is so important today”, 2014, WIREs Comp Stat, Vol. 6, págs. 386-392, DOI: 10.1002/wics.1314.

 

El Control Automático de Ganancia: topología, funcionamiento y uso (II)

En la entrada del mes pasado estudiábamos la filosofía de un amplificador con Control Automático de Ganancia. Para terminar este capítulo dedicado al AGC, vamos a estudiar la simulación del sistema usando la aplicación SIMULINK de MatLab, y dedicaremos un apartado a concretar el uso más habitual de este tipo de configuraciones.

DIAGRAMAS DE BLOQUES DE UN AGC EN SIMULINK

En primer lugar, vamos a recordar que el diagrama de bloques usual de un AGC es el siguiente

Diagrama de bloques de un AGC

Diagrama de bloques de un AGC

Es importante la traslación de este sistema a SIMULINK, para poder estudiar cómo funciona. Comenzamos por el VGA (amplificador controlado por tensión). En el apartado anterior comprobamos que la expresión que relaciona la tensión de salida con la tensión de entrada es una expresión definida por

img10

Expresión del VGA

por tanto, tenemos que construir un diagrama de bloques SIMULINK que realice esta expresión. El diagrama de bloques es

img1

Diagrama SIMULINK del VGA

Tenemos dos puertas de entrada: la puerta In1 es la puerta donde se aplicará VIN en unidades de magnitud, mientras que la entrada In2 es la puerta donde se aplicará VC, también en unidades de magnitud. Esta tensión VC pasa por un amplificador de ganancia -1 y por una función matemática 10u, para realizar la parte exponencial de la ganancia, que se multiplica mediante una función producto a la tensión de In1, correspondiente a VIN. Luego aplicamos un bloque Gain3, en el que proporcionamos la máxima ganancia de nuestro amplificador, que en este caso es 10. De este modo, nuestro amplificador tiene la siguiente expresión

img11

Expresión de la VGA a simular

VOUT, en unidades de magnitud, sale por Det a través de la salida Out2, mientras que por la salida Out1 sacamos VOUT en dB, ya que nos interesa más esa escala a la hora de realizar las medidas. La salida Det será utilizada para realizar la parte de la detección y aplicar un amplificador logarítmico.

El diagrama de bloques, entonces, queda como sigue

img2

Diagrama de bloques SIMULINK del AGC

Por un lado, tenemos Control Amp, que es nuestro VGA. La entrada, que se expresa en magnitud, entra en el amplificador y se lleva, a través de una conversión a dB, al Scope. La salida Out, que sale en dB, se lleva también al Scope.

La salida Det pasa por un detector de envolvente de ganancia unidad y un amplificador logarítmico de base 10. El resultado de esa operación se compara con el valor VREF, que es, en dB, el valor que queremos a la salida. Mediante el bloque dB to Mag se pasa VREF a unidades de magnitud.

El resultado se pasa por un integrador que tiene una constante de proporcionalidad 0,5. En el visualizador Control podemos estudiar la respuesta temporal de la salida del integrador, que nos proporcionará información acerca del tiempo que le lleva al AGC volver al estado nominal cuando haya un cambio en el valor de entrada.

La entrada está formada por los bloques In_dB (el valor nominal de entrada en dB) y dB_Step, en donde introduciremos el salto que se va a producir en el valor de entrada. Por ejemplo, en la figura tenemos un salto de 10dB, por lo que si el valor inicial de entrada In_dB es de 10dB, en el momento en que se produzca el salto tendremos 20dB, que el AGC tendrá que corregir.

El bloque dB to Mag with step es un bloque que nos proporcionará el valor de entrada en magnitud VIN, con el salto en dB en el tiempo que deseamos. Este bloque es

img3

Diagrama de bloques del dB to Mag with step

La entrada dB_Step se multiplica a un escalón retardado, para que el salto se produzca en ese momento, y la salida (que sigue estando expresada en dB) se suma a la entrada nominal dB_In, que es el valor inicial. Un bloque Gain (1/20) y un bloque 10u pasan los dB a magnitud, que es la que se introducirá en el amplificador.

PROCESO DE SIMULACIÓN

Vamos a proceder a la simulación de nuestro AGC. En primer lugar, vamos a ver cuál es la salida del amplificador cuando no tenemos salto.

img4

Respuesta del AGC cuando no hay variación en el valor de entrada (dB_Step=0)

Como podemos ver en la gráfica, cuando entramos con 10dB, el amplificador se va a su máxima ganancia (10dB+20dB de ganancia pasa a 30dB de nivel de salida). El AGC corrige la ganancia hasta que se obtienen los 15dB de VREF. Si cambiamos VREF a 20dB, el resultado en la salida es similar, pero se obtienen 20dB.

img5

Respuesta con Vref=20dB

Por tanto, queda comprobado que el amplificador está funcionando correctamente, por lo que aplicamos ahora los cambios en amplitud.

En primer lugar, introducimos un retardo en el bloque Step de dB to Mag with step de 15s. Esto quiere decir que la amplitud del amplificador cambiará a partir de la posición 15. Ahora introducimos un salto en dB_Step de 5dB, manteniendo la VREF en 15dB. El resultado es

img6

Respuesta del AGC a un incremento en la entrada de 5dB

Podemos ver que el amplificador ya se encuentra en estado estacionario a partir del instante 10, con 15dB de salida, y en el instante 15 la entrada sube 5 dB. El amplificador incrementa su salida a 20dB, pero el AGC realimenta la ganancia hasta que en el instante 25 volvemos a tener 15dB.

Apliquemos ahora la misma variación, pero negativa, disminuyendo el valor de entrada en 5dB. El resultado es

img7

Respuesta del AGC a una disminución en la entrada de 5dB

Donde vemos que el nivel de entrada, en el instante 15, pasa de 10dB a 5dB, provocando que el nivel de salida caiga a 10dB. Entonces comienza a actuar el AGC hasta que en el instante 25 se estabiliza y vuelve a los 15dB de salida.

¿Cómo es la señal de Control? En esta última gráfica, podemos comprobar que la señal de Control es

img8

Respuesta del control Vc

Por tanto, podemos ver el cambio que se produce en la ganancia, cuando VC pasa de 0,75 a 0,5 para estabilizar el nivel de salida.

Este AGC es muy sencillo. El tiempo de respuesta del AGC venía dado por la expresiónτ=1/α·A cuando el valor de la amplitud sube o cae α·A/e, donde A era el factor multiplicador del integrador y α la constante de proporcionalidad de la parte exponencial de la ganancia. Por tanto tenemos que t vale, con los números que hemos utilizado, 2.

Este valor se corresponde al instante en que la envolvente cae 0,18, que en la gráfica anterior se corresponde a un valor aproximado de 0,57. Podemos comprobar que ese valor cae en una posición inferior a la mitad del intervalo entre 15 y 20, por lo que los números son coherentes.

En esta simulación no hemos puesto limitación al valor del salto. Esto significa que si sobrepasamos el rango del AGC podremos tener valores de VC incoherentes. Pero dentro del rango del AGC, podemos estudiar el comportamiento de los integradores y de la respuesta del VGA de forma temporal, si introducimos dichos datos en el sistema.

USO HABITUAL DE LOS AGC

Por último, y para cerrar esta entrada correspondiente a los AGC, vamos a comentar brevemente el uso de los mismos en los equipos de telecomunicaciones.

Por lo general, cuando tenemos comunicación radiada a través del espacio libre, podemos encontrarnos con una gran diversidad de valor de campo eléctrico, que, al acoplarse a la antena, proporciona diferentes niveles de señal a la entrada de un receptor. Y las variaciones pueden ser del orden de decenas de dB.

Los receptores suelen tener un margen dinámico limitado. Por debajo de un determinado valor, el ruido interfiere en la señal dejándola irrecuperable, y por encima de un determinado valor, se produce la intermodulación, que genera señales indeseadas que también pueden hacer irrecuperable la señal. Se hace, por tanto, necesario que exista un rango dinámico controlado por el propio equipo para que absorba las variaciones propias de la señal de entrada. Es aquí donde entra el AGC.

Si observamos el diagrama de bloques de un equipo receptor, tendremos que los bloques principales son

img9

Diagrama de bloques típico de un receptor de telecomunicaciones

El primer amplificador, que está antes del mezclador de FI, es un amplificador controlado por tensión que realiza el AGC para garantizar que en el receptor (en este caso un demodulador I-Q) el nivel sea el óptimo.

Hay ocasiones que el propio receptor tiene un rango de AGC, que combinado con el rango del amplificador de entrada incrementa el rango dinámico del receptor.

Los AGC, aunque menos habituales, también se suelen usar en transmisión, aunque en este caso lo más habitual es tomar una muestra del nivel de salida y pasarlo por un ADC para que a través de un microcontrolador se corrija el nivel de ataque al amplificador, sin que el amplificador esté controlado por tensión.

CONCLUSIONES

Con esta entrada damos por cerrado el capítulo del estudio de los AGC y su uso. La mayoría de los equipos de telecomunicaciones tienen, hoy día AGC digitales que controlan las variaciones de la señal de entrada a través de los microprocesadores. Sin embargo, la gran ventaja del AGC analógico clásico es la rapidez de su respuesta y la alta estabilidad que se obtiene, ya que corrige un sistema exponencial que, a la hora de ser cuantificado, puede necesitar al menos de 8 bits para controlarlo y obtener un buen margen de estabilidad de nivel en el AGC. Su mayor inconveniente suele ser el espacio, la variación del margen con la temperatura y la necesidad de obtener una muestra de nivel lo suficientemente elevada para que el detector no introduzca ruido.

También hemos podido comprobar la utilidad de una herramienta como SIMULINK para analizar este tipo de sistemas, que nos puede proporcionar información de primera mano para comprobar si el sistema es viable.

REFERENCIAS

  1. Benjamin C. Kuo; “Automatic Control Systems”; 2nd ed.; Englewood Cliffs, NJ; Prentice Hall; 1975
  2. Pere Matí i Puig; “Subsistemas de radiocomunicaciones analógicos”;Universitat Oberta de Catalunya;2010

El Control Automático de Ganancia: topología, funcionamiento y uso (I)

Una de las topologías más comunes en el diseño electrónico la constituye el Control Automático de Ganancia (AGC). En esta entrada vamos a proceder a estudiar cuál es su filosofía de funcionamiento, la topología básica y su uso más común. Procederemos también a su simulación en MatLab, usando el simulador SIMULINK, para entender mejor el funcionamiento de este sistema.

LOS AMPLIFICADORES LINEALES

Uno de los bloques más comunes en un sistema es el amplificador lineal. Este es un dispositivo que proporciona una salida que es directamente proporcional a la entrada. Al ser el valor de salida mayor que el valor de entrada, el bloque realiza una elevación de nivel, por tanto, se trata de una amplificación. Si el nivel de salida fuese inferior al nivel de entrada, entonces hablaríamos de una reducción de nivel o atenuación.

Los amplificadores lineales pueden ser amplificadores con ganancia fija, que es la constante de proporcionalidad entre la entrada y la salida, y con ganancia variable, de modo que pueden variar su ganancia a través de una señal de control externa vc.

Expresiones de la ganancia: fija y variable

Esta señal de control es una variable que también depende del tiempo, aunque en condiciones de control libre, que es el realizado por el usuario, una vez elegido el valor del control esa variable pasa a ser estacionaria con el tiempo y el amplificador pasa a tener ganancia fija.

Sin embargo, las señales de entrada pueden tener oscilaciones debidas al canal de propagación, y subir o bajar de valor en función del tiempo. Si el amplificador tiene ganancia fija, la salida seguirá a las variaciones de entrada.

Por lo general los amplificadores convencionales suelen tener ganancia fija con una regulación externa manipulable por el usuario. Sin embargo, dentro de los sistemas de comunicaciones se pueden dar casos en los cuales hay que asegurar siempre que la salida tome un valor fijo. Y para ello es indispensable recurrir al Control Automático de Ganancia (AGC).

EL AGC O CONTROL AUTOMÁTICO DE GANANCIA

El AGC es un sistema realimentado, que usa la variable de salida, tomando una muestra, para procesarla debidamente y generar una señal de control vc(t) que permita variar la ganancia del amplificador en función del nivel de salida que se elija. Por tanto, un AGC proporciona una variable de salida fija frente a las variaciones de entrada.

El diagrama de bloques clásico de un AGC se puede ver en la siguiente figura

Fig. 1 – Diagrama de bloques de un AGC

Consta de un VGA o amplificador variable por tensión, que responde a la expresión vista en el apartado anterior, un detector de envolvente, porque la amplitud de la señal vout contiene la información de la variación de la señal de entrada, ya que vout es proporcional a vin, un comparador, que compara la señal detectada con una señal de referencia vref, que es la que gobernará el nivel de salida adecuado en vout y un filtro integrador, que proporciona la variable de control.

Al variar vin en el instante t0, el VGA está en estado estacionario, comportándose como un amplificador lineal de ganancia fija. Esto provoca una variación en la señal de salida vout que sigue a la entrada vin. Esta variación se detecta mediante el detector de envolvente provocando un cambio en la salida del comparador, que al ser integrado modifica el valor de vc adecuándolo para que vout se corrija y pase a mantener el valor antes del cambio.

Es un proceso dinámico: las señales vin y vout varían de forma temporal pero manteniendo un nivel estacionario de envolvente. Por ejemplo, una onda senoidal pura tiene una envolvente constante, ya que la función seno está acotada

Fig. 2 – Función variable de entrada de tipo senoidal

Cuando se detecta un cambio en la envolvente en un determinado instante de tiempo, el valor de pico de la amplitud cambia y es detectado por el detector, que inicia un proceso de realimentación temporal que no afecta a la forma de la onda, pero sí a su amplitud.

Fig. 3 – Variación de la amplitud en una señal senoidal

Este cambio es el que obligará a que vc tome el valor adecuado, realizándolo de forma gradual.

MECANISMOS DE CONTROL EN UN AGC

Volvemos al sistema de la Fig.1, donde el VGA tiene una ganancia representada por la expresión

Ganancia del VGA

En esta expresión se elimina el dominio temporal, puesto que en este instante no nos interesa la variación temporal de vc, ya que si no hay variación en vi, vc se mantiene estacionario.

La señal de entrada es una señal de la forma

ecuacion2

Señal de entrada

La señal de salida será de la forma

Señal de salida

Esta señal pasará por el detector de envolvente, cuya salida es una señal que es proporcional a la amplitud de la señal de entrada, siendo k la constante de proporcionalidad. Por tanto, la señal de salida del detector de envolvente será

Salida del detector de envolvente

Esta señal se pasa a través de un amplificador logarítmico, ya que la dependencia de vE con respecto a vc es exponencial. Como la base es natural, elegimos el logaritmo natural como amplificador logarítmico, y se obtiene una tensión de salida v2 cuya expresión es

Señal de salida del amplificador logarítmico

En esta expresión podemos comprobar que k y g0 son valores constantes, y que x y vc son los que pueden variar con respecto al tiempo. Si ahora incluimos la variación temporal de x, tendremos que la expresión toma la forma

ecuacion6

Variable de salida del amplificador logarítmico con variación temporal

Por tanto una variación de x queda contrarrestada por una variación de vc para que v2 vuelva a tener el valor anterior al cambio en x.

Al realizar la comparación entre la tensión v2(t) y vR, que es un valor fijo y que marcará el nivel de salida que debe mantener el amplificador, tenemos una señal v1 que tiene la siguiente expresión

ecuacion7

Señal de entrada al filtro paso bajo

Esta señal se pasa a través de un filtrado paso bajo que la integra, proporcionando vC(t). Si el filtro tiene una respuesta temporal h(t), lo que realizamos es una convolución de la señal v1 con la respuesta temporal h(t)

ecuacion8

Convolución de V1

Y de aquí obtenemos

ecuacion9

Expresión de V1 en función de X

En el dominio temporal la convolución es una ecuación integral dinámica, por lo que si usamos el dominio de Laplace, pasaremos esa respuesta convolucional a una respuesta en el dominio de la variable compleja s que es lineal. Usando este dominio, la ecuación anterior queda como

ecuacion10

Transformada de Laplace de la expresión anterior

que es el resultado de aplicar el operador de la transformada de Laplace. Vamos a estudiar el valor de V1(s) si la salida tiene un valor una amplitud y

ecuacion11

Señal de salida

quitando la dependencia con k y con g0. En este casi, siguiendo los mismos pasos que en el caso anterior, tendremos que

ecuacion12

Expresión de la función de transferencia del AGC

El primer término es el cociente de dos funciones, una que depende de la amplitud de salida y otra que depende de la amplitud de entrada. Si elegimos el producto k·g0=1, obtendremos que

ecuacion13

Relación entre entrada y salida

Como y(t) y x(t) tienen valores de tensión, podemos aplicar la definición de dB, que es:

ecuacion14

Expresiones de la entrada y salida en dB

por lo que el cociente anterior quedaría

ecuacion15

Relación de envolventes en dB

eliminando el dominio temporal y convirtiendo el sistema en un sistema totalmente lineal. Entonces tendremos que

ecuacion16

Función de transferencia de la relación de envolventes

siendo ésta la función de transferencia de la variación en dB de las amplitudes de salida y de entrada.

Si el filtro utilizado es un filtro integrador con polo en el origen, de la forma

ecuacion17

Filtro integrador

tendremos que la expresión nos quedará

ecuacion18

Función de transferencia final

Supongamos ahora que damos un salto de 1 dB a la envolvente de entrada XdB, pudiendo ser hacia arriba o hacia abajo. Llamamos a la nueva envolvente X’dB(s), y a la de salida Y’dB(s). Como subimos o bajamos un 1 dB, tenemos que :

ecuacion19

Variación de la envolvente de entrada

Y además tenemos que

ecuacion20

Relación entre señales con variación

ya que la realimentación debe responder siempre de la misma manera. Haciendo la sustiticuón de la expresión de la variación de entrada en la expresión anterior tenemos

ecuacion22

Espresión para el cálculo de la señal de salida

Por tanto, podremos calcular Y’dB(s) multiplicando por la función de transferencia

ecuacion23

Variación de la señal de salida con respecto a la entrada

Y sabiendo que el primer término es precisamente YdB(s), podemos poner la expresión como

ecuacion24

Diferencia entre envolventes de salida

La ecuación anterior liga a la nueva envolvente Y’dB(s) con la anterior YdB(s). Como es una respuesta temporal, tendremos que aplicar la transformada inversa, obteniendo

ecuacion25

Relación entre envolventes en el dominio del tiempo

Estudiemos este resultado: Cuando subimos 1 dB (instante t=0), la ecuación queda como y’dB(t)–ydB(t)=+δ(t)=+1, ya que en t=0 el filtro h(t) todavía no ha respondido. Por tanto, en el instante inicial la diferencia entre la envolvente nueva y la inicial es de 1dB. Cuando t comienza a crecer, tenemos una respuesta exponencial decreciente debido al segundo término de la expresión anterior, por lo que a medida que va aumentando el tiempo, la diferencia entre la envolvente nueva y’dB(t) y la inicial ydB(t) va disminuyendo (inicialmente y’dB(t)>ydB(t)) hasta que ambas son iguales.

Si por el contrario, disminuimos la envolvente de entrada 1dB, la respuesta queda como y’dB(t)–ydB(t)=-δ(t)=-1, de modo que cuando disminuimos 1dB (instante t=0), la envolvente final disminuye en ese valor por la misma razón que en el caso anterior. Por tanto, en el instante inicial la diferencia entre la envolvente nueva y la inicial es de –1dB, que es el salto que se produce en la señal de entrada. Cuando t comienza a crecer, se produce una exponencial creciente que reduce esa diferencia (en este caso tenemos que y’dB(t)<ydB(t)), por lo que la diferencia también va disminuyendo hasta que ambas vuelven a ser iguales.

De aquí se deduce que cuando la envolvente de entrada sube o baja 1 dB, la de salida, en el instante inicial, tiende a subir o bajar siguiendo a la variación de la envolvente de entrada, pero cuando pasa un tiempo, la de salida se estabiliza hasta que llega al valor inicial ydB(t).

El tiempo de respuesta t del AGC, en el que la diferencia de envolventes es precisamente α·A/e es τ=1/α·A, que es la constante de tiempo de respuesta del AGC. Si ese tiempo es muy alto, el AGC responde lentamente, mientras que si ese tiempo es muy bajo, el AGC responde rápidamente. Es necesario un compromiso con el tiempo de respuesta del AGC en señales que contienen también variaciones nominales por su contenido, como las señales analógicas de audio o vídeo, para no confundir una variación de nivel con una variación de ese contenido.

CONCLUSION

En esta entrada hemos podido comprobar cómo es el diagrama de bloques de un AGC, estudiando su respuesta en el dominio de Laplace y en el dominio temporal. Hemos llegado a una relación de transferencia que nos permite relacionar las variaciones de la señal de salida con las de entrada y cómo podemos calcular el tiempo de respuesta del AGC, que tendremos que incluir a través del filtro integrador y del estudio de la constante de variación de la ganancia del amplificador.

En la siguiente entrada realizaremos el estudio este sistema mediante SIMULINK.

REFERENCIAS

  1. Benjamin C. Kuo; “Automatic Control Systems”; 2nd ed.; Englewood Cliffs, NJ; Prentice Hall; 1975
  2. Pere Matí i Puig; “Subsistemas de radiocomunicaciones analógicos”;Universitat Oberta de Catalunya;2010

 

Simulación de un PLL digital con SIMULINK

En Octubre de 2013 realizábamos un análisis de un PLL digital con un filtro de segundo orden. Llegábamos a las expresiones matemáticas y representábamos en MatLab la forma de la fase estimada. En esta entrada vamos a utilizar la herramienta SIMULINK integrada en MatLab, que nos permite realizar análisis de sistemas mediante bloques definidos dentro del propio simulador.

Representación de un ADPLL en bloques

Si recordamos la entrada de octubre, el diagrama de bloques del PLL digital era

Diagrama de bloques del PLL digital

Diagrama de bloques del PLL digital

donde teníamos un comparador de fase, del que se obtenía la estimación de fase, el filtro de lazo y un VCO. Recordemos también que el filtro de lazo H(z) genérico, para un PLL de segundo orden, era

Función de transferencia del filtro de lazo digital

Función de transferencia del filtro de lazo digital

Tratándose de un filtro PI (proporcional-integrador), ya que la primera constante, α, es simplemente un factor multiplicador mientras que el segundo término es la transformada z de un integrador.

Para simular la respuesta de este diagrama de bloques, vamos a generar una serie de bloques que nos permitan realizar la simulación de la PLL.

Generación de la fase de entrada

Para generar la fase de entrada, lo que vamos a hacer es generar una onda que responda a un periodo concreto T, en el que tendremos n muestras que se hacen con un periodo de muestreo TS. Por tanto, el argumento ΦREF con el que vamos a comparar el argumento del VCO es

Generación del argumento de referencia

Generación del argumento de referencia

Esta señal se convierte en un fasor complejo del tipo

Representación fasorial del argumento de referencia

Representación fasorial del argumento de referencia

y separando las señales en su parte real e imaginaria, tendremos dos señales a comparar:

Argumento de referencia en parte real e imaginaria

Argumento de referencia en parte real e imaginaria

La fase θ(n) será la fase de referencia, la que queremos sintetizar con el ADPLL, mientras el el término discreto nos permite ver la evolución temporal de la fase.

Para realizar esta generación se recurre al siguiente diagrama de bloques en SIMULINK.

Diagrama de bloques SIMULINK del generador de argumento complejo

Diagrama de bloques SIMULINK del generador de argumento complejo

donde tenemos un bloque Clock que genera la base de tiempos discreta. Esa base de tiempos se multiplica por un valor K que corresponde a la pulsación 2π/T y se suma con la fase de referencia, que corresponde con la fase de referencia θ. La salida la multiplicamos por el valor complejo j y hacemos la exponencial de ese producto. Aplicando el bloque Complex to Real-Imag, podemos extraer dos líneas, una con el coseno del argumento y otra con el seno. De este modo podemos generar la fase de entrada.

Generación del VCO

El VCO será un dispositivo que posea la fase estimada de la forma

Argumento del VCO

Argumento del VCO

Para realizar esta operación, tendremos que usar el siguiente diagrama de bloques.

Diagrama de bloques SIMULINK del VCO

Diagrama de bloques SIMULINK del VCO

En este caso, la estimación de fase del VCO se pondrá en función de la ganancia del VCO, Kv·T. A esta estimación de fase se le suma ωT, siendo ω la pulsación 2π/Ts, con Ts el periodo de muestreo de la señal.

El resultado pasa después por un integrador y le aplicamos una función coseno y otra función seno. El bloque ()*, que cambia de signo la línea de seno, convirtiendo la señal en una compleja conjugada, extrae a la salida las ecuaciones descritas para el NCO.

Representación del comparador de fase

El comparador de fase debe proporcionar a la salida la diferencia de fase, que es:

Error de fase

Error de fase

A partir de las ecuaciones generadas para la fase de referencia y para la estimación de fase, tenemos que hacer un multiplicador de números complejos como el que se muestra en el diagrama de bloques

Multiplicador de números complejos

Multiplicador de números complejos

Con el bloque Real-Imag to Complex se convierte AR, AI, BR, BI en sendos números complejos A y B

Transformación de las entradas a número complejo

Transformación de las entradas a número complejo

el resultado es un complejo CP cuyo valor es

Valor complejo de la diferencia de fases

Valor complejo de la diferencia de fases

y podemos ver que la diferencia de fase está en el argumento de la exponencial compleja. Aplicando ahora un bloque que convierte este número en Real-Imag, obtenemos

Diferencia de fase en forma real e imaginaria

Diferencia de fase en forma real e imaginaria

Aplicándole un bloque que convierta Real-Imag en Mag-Angle, como éste

Transformación Real-Imag a Mag-Ang

Transformación Real-Imag a Mag-Ang

obtendremos el error de fase

Error de fase

Error de fase

que es la señal resultado del comparador de fase.

Filtro de lazo

El filtro de lazo utilizado en un ADPLL suele ser un filtro proporcional-integral

Diagrama de bloques de un filtro de lazo digital

Diagrama de bloques de un filtro de lazo digital

La transformada z de este filtro la hemos visto en la introducción. En SIMULINK vamos a poner la dependencia de α, β en función de dos variables externas. El filtro de lazo en SIMULINK es

Diagrama de bloques SIMULINK de un filtro de lazo digital

Diagrama de bloques SIMULINK de un filtro de lazo digital

Donde Kp es α (factor proporcional) y Ki es β (factor integrador). Por un lado, realizamos directamente el producto de Δθ por Kp y lo llevamos a un sumador, mientras que por otro lado hacemos el producto de Δθ por Kp, lo integramos y llevamos al sumador, y con la suma obtenemos el tune (T(n)) del VCO.

La respuesta de este filtro a una señal escalón u(n) es una señal de la forma

Respuesta del filtro de lazo a una señal escalón

Respuesta del filtro de lazo a una señal escalón

que se corresponde con la expresión

Expresión de la respuesta del filtro de lazo a señal escalón

Expresión de la respuesta del filtro de lazo a señal escalón

Estudio completo del transitorio

En SIMULINK se pueden dibujar los bloques y crear un bloque nuevo, de tal modo que tengamos simplificados los mismos. El diagrama de bloques que vamos a simular en SIMULINK es

Diagrama de bloques SIMULINK del ADPLL

Diagrama de bloques SIMULINK del ADPLL

donde PhaseRef será la fase de entrada o referencia. Tomaremos como medidas Phase_error (donde se podrá comprobar la evolución del error de fase) y Loop, donde se podrá comparar la evolución de las señales de VCO y de referencia.

Para los valores Kp y Ki (α y β), tenemos que recordar que se debía cumplir que

Segunda condición de enganche del PLL

Condición de enganche del PLL

Eligiendo α=0.03 y β=0.002, obtenemos que el error de fase, para una fase de entrada de π/3, es

Respuesta el PLL a un cambio de fase en la entrada

Respuesta el PLL a un cambio de fase en la entrada

Como podemos comprobar, cuando se inicia, el error de fase toma un valor muy alto, que se va trasladando como una forma senoidal amortiguada, hasta que se convierte en cero. En ese momento la fase está enganchada. Como se puede comprobar, es la respuesta a un escalón en un filtro de segundo orden con factor de amortiguamiento.

Si ahora representamos Loop, obtendremos

Seguimiento de la fase con respecto a la fase de referencia

Seguimiento de la fase con respecto a la fase de referencia

Donde podremos ver que al principio las fases son muy diferentes, pero que ambas ondas tienden a converger a la misma fase, por lo que hemos igualado la fase a la fase de referencia, lo que significa el enganche de fase.

Si ahora usásemos sólo un filtro proporcional α (β=0), y simulásemos, obtendríamos

Respuesta a un escalón de un ADPLL de primer orden

Respuesta a un escalón de un ADPLL de primer orden

Que es la respuesta a un escalón de un filtro paso bajo de primer orden.

Conclusiones

En esta entrada hemos podido ver el comportamiento de un ADPLL en régimen transitorio mediante el uso de SIMULINK, que nos proporciona una herramienta de simulación potente para poder analizar sistemas en diagrama de bloques. Hemos podido comprobar que lo analizado en la entrada de octubre de 2013 es correcto y hemos podido comprobar su comportamiento transitorio.

Referencias

  1. C. Joubert, J. F. Bercher, G. Baudoin, T. Divel, S. Ramet, P. Level; “Time Behavioral Model for Phase-Domain ADPLL based frequency synthesizer”; Radio and Wireless Symposium, 2006 IEEE, January 2006
  2. S. Mendel, C. Vogel;”A z-domain model and analysis of phase-domain all-digital phase-locked loops”; Proceedings of the IEEE Norchip Conference 2007, November 2007
  3. R. B. Staszewski, P. T. Balsara; “Phase-Domain All-Digital Phase-Locked Loop”; IEEE Transactions on Circuits and Systems II: Express Briefs; vol. 52, no. 3, March 2005