SHARENG Divulgación

Inicio » Apuntes

Category Archives: Apuntes

Ajustando filtros mediante el método de Dishal

filtroEn Telecomunicaciones es usual tener que usar filtros para poder eliminar frecuencias indeseadas. Estos filtros suelen ser de bandas muy estrechas y se suelen utilizar técnicas de líneas acopladas, por lo que en la mayor parte de los diseños se debe recurrir a la simulación electromagnética para verificar el diseño. La simulación electromagnética, aunque es una potente herramienta, suele ser lenta si se desea optimizar mediante algoritmos convencionales. Aunque estos algoritmos están incluidos en la mayor parte de los simuladores electromagnéticos, ya sea en 2D o en 3D, si la respuesta del filtro está muy alejada de la deseada, la optimización suele ser muy lenta, por lo que se requieren otros métodos que permitan ajustar previamente antes de realizar una optimización final. Uno de los métodos es el de Dishal, en el que se puede sintonizar un filtro de varias secciones a base de sintonizar cada una de ellas. En esta entrada, sintonizaremos un filtro microstrip de tipo HAIRPIN, de resonadores λ/2 acoplados, usando un simulador electromagnético como HPMomentum.

Los filtros son los dispositivos más comunes que se usan en Telecomunicaciones. Eliminan las frecuencias interferentes y el ruido, pudiendo procesar la señal recibida o transmitida de una forma más eficiente. Tienen bastante literatura para su diseño, y existen muchas combinaciones para obtener su respuesta. Sin embargo, es uno de los dispositivos en los que es más difícil obtener un óptimo resultado. Su sintonía física requiere habilidad y entrenamiento, y su sintonía en simulación paciencia y tiempo. Sin embargo, existen técnicas que permiten la optimización de un filtro a base de usar metodologías de ajuste que permita acercarse a los parámetros ideales del filtros. Una de metodología que permite sintonizar un filtro de forma sencilla es el método de Dishal y es el que vamos a usar para sintonizar un filtro paso banda HAIRPIN para la banda de subida de LTE-UHF.

Esta metodología permite realizar el ajuste de un filtro paso banda acoplado sintonizando tanto de los factores de calidad Qi y Qo que necesita el filtro para ser cargado, como de los factores de acoplamiento Mi,i+1 que acoplarán las diferentes etapas, de forma independiente. Estos parámetros son calculados a través de los parámetros del filtro prototipo, que se pueden obtener ya sea a través de las tablas presentes en cualquier libro de diseño de filtros como en programas de cálculo como MatLab. Las expresiones para calcular los parámetros fundamentales de un filtro paso banda acoplado son

formulas

donde fh y fl son las frecuencias de corte de la banda pasante, f0 es la frecuencia central y FBW el ancho de banda fraccional. Los valores g0..gn son los coeficientes del filtro prototipo normalizado. Con estos valores obtendremos los parámetros de acoplamiento de nuestro filtro.

FILTRO PASO BANDA HAIRPIN DE 5 SECCIONES

Vamos a desarrollar un filtro paso banda en tecnología microstrip, usando una configuración HAIRPIN de resonadores λ/2 acoplados. En este filtro, la línea resonante es una línea λ/2, que se acopla al siguiente resonador mediante la sección λ/4. O más concretamente, entre un 85 y un 95% de λ/4. Su denominación HAIRPIN es debida a que tiene forma física de peine. Nuestro filtro va a tener las siguientes características fundamentales:

  • Banda pasante : 791÷821MHz (banda de UHF para LTE de subida)
  • Número de secciones: 5
  • Tipo de filtro: Chebychev 1
  • Factor de rizado: 0,1dB
  • Impedancias de generador y carga: 50Ω

Con estos valores acudimos a las tablas para obtener los coeficientes g0..g6 del filtro prototipo y aplicando las expresiones anteriores obtenemos que

  • Qi=Qo=30,81
  • M12=M45=0,0297
  • M23=M34=0,0226

Con estos coeficientes se pueden calcular las impedancias Zoe y Zoo que definirán las líneas acopladas, así como la posición de los feeds de entrada y salida. En este último caso, esta posición se puede obtener a partir de

feed

Como soporte vamos a usar un substrato Rogers, el RO3006, que tiene una εr=6,15, usando un espesor de 0,76mm y 1oz de cobre (35μm). Con este substrato, el filtro obtenido es:

filter

y con estos valores, pasaremos a la simulación.

SIMULACIÓN DEL FILTRO PASO BANDA

Usando HPMomentum, el simulador electromagnético de ADS, vamos a poder simular la respuesta de este filtro, que se puede ver en la siguiente gráfica

Resultado de la simulación del filtro

Resultado de la simulación del filtro

que, la verdad sea dicha, no se nos parece ni por asomo a lo que pretendíamos realizar. El filtro está cerca de la frecuencia f0, tiene un ancho de banda de 30MHz, pero ni está centrado ni el rizado es, ni de lejos, 0,1dB. Por tanto, habrá que recurrir a una sintonía usando el método de Dishal y así llevar el filtro a la frecuencia deseada, con el acoplamiento deseado.

Buscando la posición del alimentador

Buscando la posición del alimentador

AJUSTANDO EL Q EXTERNO

En primer lugar vamos a ajustar los factores de calidad de los resonadores de generador y de carga, que tienen que ser de 30,81. Como ambos son iguales, la sintonía obtenida servirá para los dos. Para ajustar los Qi y Qo, tendremos que buscar la posición adecuada de la alimentación para que el valor sea el deseado.

Para calcular el Qext, se evalúa el coeficiente de reflexión del resonador y se obtiene su retardo de grupo. El factor de calidad será

qext Cuando hacemos la primera simulación y representamos Qext, obtenemos

qext2

donde se puede comprobar que ni el filtro está centrado ni su factor de calidad es el deseado. Para centrar el filtro, aumentamos la distancia entre las líneas en 1,1mm y recortamos las líneas resonantes en 0,34mm. De este modo, obtenemos

qext2_2

en el que ya están centradas las líneas, siendo el Qext de 37,28. Ahora aumentamos la distancia del feed al extremo de la pista en 0,54mm y obtenemos el Qext deseado.

qext2_3

Ya tenemos centrado el filtro y con el Qext requerido. Ahora tocaría ajustar los acoplamientos.

AJUSTE DE LOS ACOPLAMIENTOS

Para ajustar los acoplamientos, primero separamos el feed unos 0,2mm de la línea, y hacemos un espejo de la misma para que quede como sigue

coup_1

En este caso, para medir el acoplamiento usamos los picos que salen en la transmisión (S21), y aplicamos la expresión

coup_2

El resultado de la simulación, para el primer acoplo, es

coup_3

que como podemos comprobar está en el valor requerido.

En el caso del segundo acoplo

coup_4

que también está cerca de su valor requerido. Por tanto, con los cambios obtenidos, simulamos el filtro total y obtenemos

Filtro después de la primera sintonía

Filtro después de la primera sintonía

que ya se acerca al filtro deseado.

REITERANDO LA SINTONÍA

Si reiteramos sobre la sintonía, podremos llegar a mejorar el filtro hasta los valores que deseemos. Así, disminuyendo el Qext obtenemos

Disminución del Qext

Disminución del Qext

que supone ya una mejora importante. Jugando ahora con los acoplamientos, disminuyéndolos, llegamos a obtener

filt_3

Ajuste de los acoplamientos

que podemos dar por válido. Por tanto, el método de Dishal nos ha permitido, a partir de los parámetros calculados, ajustar el filtro hasta obtener las características deseadas.

CONCLUSIONES

Hemos analizado el método de Dishal como herramienta para el ajuste y sintonización de un filtro paso banda de 5 secciones, con óptimos resultados. La sencillez del método permite ajustar los principales parámetros de forma independiente, de manera que el ajuste final u optimización sean más sencillas, cosa de agradecer en simuladores electromagnéticos, que requieren de potencia de cálculo y tiempo de simulación. Vemos que el método, realizado paso a paso, nos permite ir ajustando las características hasta obtener el resultado deseado, por lo que podemos concluir que es un método muy útil en sintonización de filtros, tanto en discretos como en distribuidos, y que bien usado permite acercarse lo suficientemente al resultado final como para que la optimización electromagnética sea innecesaria.

REFERENCIAS

  1. Zverev, Anatol I., “Handbook of Filter Synthesys”, Hoboken, New Jersey : John Wiley & Sons Inc., 1967. ISBN 978-0-471-74942-4.
Anuncios

Análisis estadísticos usando el método de Monte Carlo (y III)

imagesCon esta entrada cerramos el capítulo dedicado al análisis de Monte Carlo. En las dos entradas anteriores vimos cómo se podía usar éste método para analizar los eventos que pueden ocurrir en un dispositivo electrónico, sino también lo que sucede cuando tenemos variables correladas y cuando sometemos al circuito a un ajuste posproducción. Estos análisis son estimables, puesto que nos permiten conocer previamente el funcionamiento de nuestro circuito y tomar decisiones acerca del diseño, elegir las topologías y componentes adecuados y realizar un primer diseño en el que se optimice al máximo el comportamiento del nuestro circuito. En esta entrada vamos a ver un ejemplo, incluyendo un factor que suele ser importante y que tampoco se suele tener en cuenta en las simulaciones, y que es el análisis térmico. En este caso, utilizaremos un amplificador de potencia diseñado para trabajar en conmutación, que alimenta a una carga. El objetivo es encontrar el componente más sensible en el amplificador y poder elegir la topología o componente adecuados para que el circuito siga funcionando en todas las condiciones definidas.

Hemos visto lo útil que puede llegar a ser el análisis de Monte Carlo para elegir topologías y componentes, e incluso para definir el ajuste que tenemos que hacer en el caso de que se produzca defectivo durante un proceso de fabricación. Este análisis reduce el tiempo de desarrollo físico, porque proporciona de antemano una información importante de cómo se va a comportar nuestro diseño, antes de montarlo y evaluarlo. No obstante, hay que llegar más allá, rizando el rizo, y añadiendo el comportamiento térmico.

Los dispositivos electrónicos están no sólo sometidos a variaciones de valores nominales, debidas a su estructura física, sino que también presentan variaciones térmicas en función de la temperatura a la que estén sometidos en su funcionamiento. Los dispositivos que más suelen sufrir estas variaciones térmicas suelen ser aquellos que disipan elevadas cantidades de potencia, como las fuentes de alimentación, los microprocesadores y los amplificadores. Las variaciones térmicas desgastan el componente y comprometen su vida útil, reduciendo su vida media cuando trabajan al límite. Si hacemos estos análisis previamente, podemos marcar las pautas para lograr el mejor funcionamiento posible y obtener un diseño que garantice una vida media suficiente.

Estudio sobre un amplificador de potencia

A continuación vamos a estudiar el efecto producido sobre un amplificador de potencia en clase E, como el de la figura.

Amplificador clase E con MOSFET

Amplificador clase E con MOSFET

Este amplificador proporciona a una carga de 6+j⋅40Ω, a 1,5MHz, una potencia de AC de 23W, con una eficiencia del 88% sobre la potencia DC entregada por la fuente de alimentación. El MOSFET, que es el elemento que más se calienta cuando está disipando la potencia de conmutación, que es del orden de 2,5W, es el elemento más crítico del sistema, ya que hay que garantizar una extracción del calor que haga que su unión no se rompa por superar la temperatura de unión. El valor máximo que puede alcanzar dicha temperatura es 175ºC, pero se establece una temperatura de seguridad de 150ºC. Por tanto, el diseño realizado debe de ser capaz de soportar cualquier variación de potencia AC que pueda superar la temperatura máxima, no sólo en condiciones normales (a temperatura ambiente de 25ºC), sino incluyendo las variaciones que se puedan producir en el consumo del dispositivo activo debido a las tolerancias de los componentes.

En este circuito, los componentes más críticos, aparte de la dispersión que presenta el propio MOSFET, son los componentes pasivos. Estos componentes forman parte de la red de adaptación, que transmite la máxima energía desde la alimentación a la carga y provocan una variación en la respuesta del drenador que influye en su consumo. Siendo potencias considerables, con valores superiores a 10W, la variación de carga provocará variaciones importantes en la potencia disipada en el MOSFET y su estudio nos mostrará las necesidades para la extracción del calor generado en el MOSFET por efecto Joule.

Análisis estadístico en condiciones normales

Lo primero que tenemos es que analizar el circuito en condiciones normales de laboratorio (25ºC, 760mmHg, 50-70% de humedad relativa) y ver las variaciones que presenta, sólo por tolerancias. Consideramos tolerancias gaussianas de ±5% en valores límite, y analizamos exclusivamente las tolerancias en estas condiciones, para un 500 eventos. De esta manera podemos ver cómo afectan los componentes a la respuesta del circuito a través de la siguiente gráfica

Potencia

Potencia de DC y potencia en la carga, frente a número de eventos

El histograma azul representa la potencia de DC suministrada por la carga, cuyo valor central máximo es de 26,4W, mientras que el histograma rojo es la potencia transferida a la carga, cuyo valor central máximo es de 23,2W. Esto representa un 87,9% de eficiencia en la entrega de potencia. La desviación estándar de la potencia de carga es ±1,6%, lo que significa una tolerancia de ±6,5% en los valores límite. Bajo estas condiciones, podemos representar la potencia disipada del MOSFET, que se puede ver en la siguiente gráfica

Potencia disipada en el MOSFET vs. número de eventos

Potencia disipada en el MOSFET, frente al número de eventos

donde obtenemos una potencia media de 2,9W y una desviación estándar de 1,2W. Esto significa que la potencia máxima puede llegar a ser del orden de 7,8W.

Si calculamos con estos valores la diferencia entre la temperatura de la unión y la ambiente, teniendo en cuenta que las resistencias térmicas Rth-JC=1,7K/W y Rth-CH=0,7K/W, y usando un disipador con una resistencia térmica en condiciones de ventilación no forzada de Rth-HA=10K/W, se puede obtener, para una Tamb=25ºC

temp

Por tanto, a 25ºC, con una refrigeración no forzada, la temperatura de la unión está a 118,95ºC en el valor límite de potencia consumida por el MOSFET, proporcionándonos un margen suficiente sobre los 150ºC máximos a los que la unión se rompe.

Análisis estadístico para tres temperaturas

El análisis anterior nos garantiza un correcto funcionamiento en condiciones normales, pero, ¿qué ocurre cuando subimos o bajamos la temperatura? Vamos a analizar bajo tres condiciones de temperatura: 0ºC, 25ºC y 50ºC, y para representarlo usaremos un histograma multidimensional, en el que agruparemos todos los eventos sin discernir temperaturas. De este modo obtenemos

Potencia de DC y potencia en la carga, frente a número de eventos y temperatura

Potencia de DC y potencia en la carga, frente a número de eventos y temperatura

donde la potencia media entregada a la carga, en todas las condiciones, es 22,6W, para todas las condiciones térmicas, y la eficiencia media es del 86,6%, cubriendo el rango de temperaturas entre 0ºC y 50ºC.

Analizando ahora la potencia disipada por el MOSFET, en las mismas condiciones

temp_mos_power

Potencia disipada en el MOSFET, frente al número de eventos y la temperatura

donde calculando el valor medio, se obtiene 2,9W, con un máximo de 7,8W. Estos valores, similares al calculado anteriormente, muestran que la máxima temperatura de la unión va a ser 143,95ºC, a 7ºC de la temperatura máxima de seguridad de 150ºC, y por tanto a 32ºC de la temperatura máxima de la unión.

Por tanto, podemos concluir del análisis que el circuito diseñado, bajo las condiciones de temperatura ambiente de 0ºC a 50ºC, y siempre con un disipador con una resistencia térmica en ventilación no forzada de Rth-HA=10K/W, presentará un funcionamiento óptimo para el rango de potencia de carga.

CONCLUSIÓN

Con esta entrada finalizamos el capítulo dedicado al análisis usando el método de Monte Carlo. Con los análisis realizados, hemos cubierto la optimización de características a través de diferentes topologías, el ajuste posproducción en un proceso de montaje industrial y el análisis térmico para comprobar los límites de seguridad en los que trabaja un circuito de potencia. No obstante, el método proporciona muchas más posibilidades que se pueden explorar a partir de estos sencillos experimentos.

REFERENCIAS

  1. Castillo Ron, Enrique, “Introducción a la Estadística Aplicada”, Santander, NORAY, 1978, ISBN 84-300-0021-6.
  2. Peña Sánchez de Rivera, Daniel, “Fundamentos de Estadística”, Madrid,  Alianza Editorial, 2001, ISBN 84-206-8696-4.
  3. Kroese, Dirk P., y otros, “Why the Monte Carlo method is so important today”, 2014, WIREs Comp Stat, Vol. 6, págs. 386-392, DOI: 10.1002/wics.1314.

Análisis estadísticos usando el método de Monte Carlo (II)

Art02_fig01En la anterior entrada mostramos con una serie de ejemplos simples cómo funciona el método de Monte Carlo para realizar análisis estadísticos. En esta entrada vamos a profundizar un poco más, haciendo un análisis estadístico más profundo sobre un sistema algo más complejo, analizando una serie de variables de salida y estudiando sus resultados desde una serie de ópticas que resultarán bastante útiles. La ventaja que tiene la simulación es que podemos realizar una generación aleatoria de variables, y además, podemos establecer una correlación de esas variables para conseguir distintos efectos al analizar el funcionamiento de un sistema. Así, cualquier sistema no sólo se puede analizar estadísticamente mediante una generación aleatoria de entradas, sino que podemos vincular esa generación aleatoria a análisis de lotes o fallos en la producción, así como su recuperación post-producción.

Los circuitos que vimos en la anterior entrada eran circuitos muy sencillos que permitían ver cómo funciona la asignación de variables aleatorias y el resultado obtenido cuando estas variables aleatorias forman parte de un sistema más complejo. Con este análisis, podíamos comprobar un funcionamiento y hasta proponer correcciones que, por sí solas, limitasen las variaciones estadísticas del sistema final.

En este caso, vamos a estudiar el efecto dispersivo que tienen las tolerancias sobre uno de los circuitos más difíciles de conseguir su funcionamiento de forma estable: el filtro electrónico. Partiremos de un filtro electrónico de tipo paso banda, sintonizado a una determinada frecuencia y con una anchura de banda de paso y rechazo determinadas, y realizaremos varios análisis estadísticos sobre el mismo, para comprobar su respuesta cuando se somete a las tolerancias de los componentes.

DISEÑO DEL FILTRO PASO BANDA

Vamos a plantear el diseño de un filtro paso banda, centrado a una frecuencia de 37,5MHz, con un ancho de banda de 7MHz para unas pérdidas de retorno mayores que 14dB, y un ancho de banda de rechazo de 19MHz, con atenuación mayor de 20dB. Calculando el filtro, se obtienen 3 secciones, con el siguiente esquema

Filtro paso banda de tres secciones

Filtro paso banda de tres secciones

Con los valores de componentes calculados, se buscan valores estándar que puedan hacer la función de transferencia de este filtro, cuya respuesta es

Respuesta en frecuencia del filtro paso banda

Respuesta en frecuencia del filtro paso banda

donde podemos ver que la frecuencia central es 37,5MHz, que las pérdidas de retorno están por debajo de 14dB en ±3,5MHz de la frecuencia central y que el ancho de banda de rechazo es de 18,8MHz, con 8,5MHz a la izquierda de la frecuencia central y 10,3MHz a la derecha de la frecuencia central.

Bien, ya tenemos diseñado nuestro filtro, y ahora vamos a hacer un primer análisis estadístico, considerando que las tolerancias de los condensadores son ±5%, y que las inducciones son ajustables. Además, no vamos a indicar correlación en ninguna variable, pudiendo tomar cada variable un valor aleatorio independiente de la otra.

ANÁLISIS ESTADÍSTICO DEL FILTRO SIN CORRELACIÓN ENTRE VARIABLES

Como vimos en la entrada anterior, cuando tenemos variables aleatorias vamos a tener dispersión en la salida, así que lo óptimo es poner unos límites según los cuales podremos considerar el filtro válido, y a partir de ahí analizar cuál es su respuesta. Para ello se recurre al análisis YIELD, que es un análisis que, usando el algoritmo de Monte Carlo, nos permite comprobar el rendimiento o efectividad de nuestro diseño. Para realizar este análisis hay que incluir las especificaciones según las cuales se puede dar el filtro por válido. Las especificaciones elegidas son unas pérdidas de retorno superiores a 13,5dB entre 35÷40MHz, con una reducción de 2MHz en la anchura de banda, y una atenuación mayor de 20dB por debajo de 29MHz y por encima de 48MHz. Haciendo el análisis estadístico obtenemos

Análisis estadístico del filtro. Variables sin correlación.

Análisis estadístico del filtro. Variables sin correlación.

que, sinceramente, es un desastre: sólo el 60% de los posibles filtros generados por variables con un ±5% de tolerancia podrían considerarse filtros válidos. El resto no serían considerados como válidos en un control de calidad, lo que significaría un 40% de material defectivo que se devolvería al proceso de producción.

De la gráfica se puede ver, además, que son las pérdidas de retorno las principales responsables de que exista tan bajo rendimiento. ¿Qué podemos hacer para mejorar este valor? En este caso, tenemos cuatro variables aleatorias. Sin embargo, dos de ellas son del mismo valor (15pF), que cuando son montadas en un proceso productivo, suelen pertenecer al mismo lote de fabricación. Si estas variables no presentan ninguna correlación, las variables pueden tomar valores completamente dispares. Cuando las variables no presentan correlación, tendremos la siguiente gráfica

Condensadores C1 y C3 sin correlación

Condensadores C1 y C3 sin correlación

Sin embargo, cuando se están montando componentes de un mismo lote de fabricación, las tolerancias que presentan los componentes varían siempre hacia el mismo sitio, por tanto hay correlación entre dichas variables.

ANÁLISIS ESTADÍSTICO DEL FILTRO CON CORRELACIÓN ENTRE VARIABLES

Cuando usamos la correlación entre variables, estamos reduciendo el entorno de variación. En este caso, lo que analizamos no es un proceso totalmente aleatorio, sino lotes de fabricación en los cuales se producen las variaciones. En este caso, hemos establecido la correlación entre las variables C1 y C3, que son del mismo valor nominal y que pertenecen la mismo lote de fabricación, por lo que ahora tendremos

Condensadores C1 y C3 con correlación

Condensadores C1 y C3 con correlación

donde podemos ver que la tendencia a la variación en cada lote es la misma. Estableciendo entonces la correlación entre ambas variables, estudiamos el rendimiento efectivo de nuestro filtro y obtenemos

Análisis estadístico con C1, C2 variables correladas

Análisis estadístico con C1, C2 variables correladas

que parece todavía más desastroso. Pero ¿es así? Tenemos que tener en cuenta que la correlación entre variables nos ha permitido analizar lotes completos de fabricación, mientras que en el análisis anterior no se podía discernir los lotes. Por tanto, lo que aquí hemos obtenido son 26 procesos de fabricación completos exitosos, frente al caso anterior que no permitía discernir nada. Por tanto, esto lo que nos muestra es que de 50 procesos completos de fabricación, obtendríamos que 26 procesos serían exitosos.

Sin embargo, 24 procesos completos tendrían que ser devueltos a la producción con todo el lote. Lo que sigue siendo, realmente, un desastre y el Director de Producción estaría echando humo. Pero vamos a darle una alegría y a justificar lo que ha intentado siempre que no exista: el ajuste post-producción.

ANÁLISIS ESTADÍSTICO CON AJUSTE POST-PRODUCCIÓN

Como ya he dicho, a estas alturas el Director de Producción está pensando en descuartizarte poco a poco, sin embargo, queda un as en la manga, recordando que las inducciones las hemos puesto de modo que sean ajustables. ¿Tendrá esto éxito? Para ello hacemos un nuevo análisis, dando valores variables en un entorno de ±10% sobre los valores nominales, y activamos el proceso de ajuste post-producción en el análisis y ¡voilà! Aun teniendo un defectivo antes del ajuste muy elevado, logramos recuperar el 96% de los filtros dentro de los valores que se habían elegido como válidos

Análisis estadístico con ajuste post-producción

Análisis estadístico con ajuste post-producción

Bueno, hemos ganado que el Director de Producción no nos corte en cachitos, ya que el proceso nos está indicando que podemos recuperar la práctica totalidad de los lotes, eso sí, con el ajuste, por lo que con este análisis podemos mostrar no sólo el defectivo sino la capacidad de recuperación del mismo.

Podemos representar cómo han variado las inducciones (en este caso las correspondientes a las resonancias en serie) para poder analizar cuál es la sensibilidad del circuito frente a las variaciones más críticas. Este análisis permite establecer un patrón de ajuste para reducir el tiempo en el que se debe de tener un filtro exitoso.

Análisis de los patrones de ajuste en las inducciones de las resonancias serie

Análisis de los patrones de ajuste en las inducciones de las resonancias serie

Así, con este tipo de análisis, realizado en el mismo momento del diseño, es posible tomar decisiones que fijen los patrones posteriores de la fabricación de los equipos y sistemas, pudiendo establecer patrones fijos de ajuste post-producción sencillos al conocer de antemano la respuesta estadística del filtro diseñado. Una cosa muy clara que he tenido siempre, es que cuando no he hecho este análisis, el resultado es tan desastroso como muestra la estadística, así que mi recomendación como diseñador es dedicarle tiempo a aprender cómo funciona y hacerle antes de que le digas a Producción que tu diseño está acabado.

CONCLUSIONES

En esta entrada hemos querido mostrar un paso más en las posibilidades del análisis estadístico usando Monte Carlo, avanzando en las posibilidades que muestra el método a la hora de hacer estudios estadísticos. El algoritmo nos proporciona resultados y nos permite fijar condicionantes para realizar diversos análisis y poder optimizar más si se puede cualquier sistema. Hemos acudido hasta a un ajuste post-producción, a fin de calmar la ira de nuestro Director de Producción, que ya estaba echando humo con el defectivo que le estábamos proporcionando. En la siguiente entrada, abundaremos un poco más en el método con otro ejemplo que nos permita ver más posibilidades en el algoritmo.

REFERENCIAS

  1. Castillo Ron, Enrique, “Introducción a la Estadística Aplicada”, Santander, NORAY, 1978, ISBN 84-300-0021-6.
  2. Peña Sánchez de Rivera, Daniel, “Fundamentos de Estadística”, Madrid,  Alianza Editorial, 2001, ISBN 84-206-8696-4.
  3. Kroese, Dirk P., y otros, “Why the Monte Carlo method is so important today”, 2014, WIREs Comp Stat, Vol. 6, págs. 386-392, DOI: 10.1002/wics.1314.

 

Análisis estadísticos usando el método de Monte Carlo (I)

imagesCuando nos enfrentamos a cualquier diseño electrónico, por lo general disponemos de métodos deterministas que permiten el cálculo de lo que estamos diseñando, de modo que podemos prever los parámetros que vamos a encontrar en la medida física de cualquier dispositivo o sistema. Estos cálculos previos facilitan el desarrollo y normalmente los resultados suelen coincidir en gran medida con la predicción. Sin embargo, sabemos que todo aquello que creemos o fabriquemos siempre está sometido a tolerancias. Y esas tolerancias provocan variaciones en los resultados que muchas veces no se pueden analizar de forma sencilla, sin una herramienta de cálculo potente. En 1944, Newmann y Ulam desarrollaron un método estadístico no determinista que denominaron Método de Monte Carlo. En las siguientes entradas vamos a analizar el uso de este potente método para la predicción de posibles tolerancias en circuitos, sobre todo cuando son fabricados de forma industrial.

En un sistema o proceso, el resultado final es consecuencia de las variables de entrada. Estas generan una respuesta que puede ser determinada tanto si el sistema es lineal como si es no lineal. A la relación entre la respuesta o salida del sistema y las variables de entrada la denominamos función de transferencia, y su conocimiento nos permite evaluar cualquier resultado en función de la excitación de entrada.

Sin embargo, hay que tener en cuenta que las variables de entrada son variables aleatorias, con su propia función de distribución, debido a que están sometidas a procesos estocásticos, aunque su comportamiento es predecible gracias a la teoría de la probabilidad. Por ejemplo, cuando describimos una medida de cualquier tipo, solemos representar su valor nominal o medio, así como el entorno de error asociado en el que esa magnitud medida puede estar. Esto nos permite limitar el entorno en el cual la magnitud es correcta y decidir cuándo la magnitud se comporta de modo incorrecto.

Durante muchos años, después de haber aprendido a transformar con éxito los resultados obtenidos mediante simulación en resultados físicos reales, con comportamientos predecibles y extrayendo conclusiones válidas, me he dado cuenta que en la mayoría de las ocasiones la simulación se reduce a obtener un resultado apetecido, sin profundizar en absoluto en ese resultado. Sin embargo, la mayoría de los simuladores están dotados de algoritmos estadísticos útiles que, correctamente utilizados, permiten al usuario de la aplicación obtener una serie de datos que puede usar para el futuro y permiten predecir el comportamiento de cualquier sistema, o al menos, analizar qué es lo que se puede producir.

Sin embargo, esos métodos que los simuladores incluyen nos suelen ser utilizados. Ya sea por falta de conocimiento de patrones estadísticos, ya sea por desconocimiento de cómo usar esos patrones. Por tanto, en esta serie de entradas vamos a desgranar el método de Monte Carlo que podemos encontrar en un simulador de circuitos e descubrir un potencial importante que es desconocido para muchos de los usuarios de los simuladores de circuitos.

LOS COMPONENTES COMO VARIABLES ALEATORIAS

Los circuitos electrónicos están formados por componentes electrónicos simples, pero que tienen un comportamiento estadístico, debido a los procesos de fabricación. No obstante, los fabricantes de componentes delimitan correctamente los valores nominales y el entorno de error en que se mueven. Así, un fabricante de resistencias no sólo publica sus valores nominales y dimensiones. También publica los entornos de error en los que esa resistencia varía, el comportamiento con la temperatura, el comportamiento con la tensión, etc. Todos estos parámetros, convenientemente analizados, proporcionan una información importante que, bien analizada dentro de una potente herramienta de cálculo como es el simulador, permite predecir el comportamiento de circuito total.

En este caso se va a analizar exclusivamente el entorno de error en el valor nominal. En una resistencia, cuando el fabricante define el valor nominal (en este caso, vamos a suponer 1kΩ) y expresa que tiene una tolerancia de ±5%, quiere decir que el valor de la resistencia puede estar comprendido entre 950Ω y 1,05kΩ. En el caso de un transistor, su ganancia de corriente β puede tomar un valor entre 100 y 600 (por ejemplo, el BC817 de NXP), por lo que puede haber una variación de corriente de colector importante e incontrolable. Por tanto, conociendo estos datos, podemos analizar el comportamiento estadístico de un circuito eléctrico gracias a la rutina de Monte Carlo.

Analicemos primero la resistencia: hemos dicho que la resistencia tiene una tolerancia de ±5%. Entonces, vamos a analizar usando el simulador el comportamiento de esta resistencia usando la rutina de Monte Carlo. A priori, desconocemos qué función densidad de probabilidad tiene la resistencia, aunque lo más habitual es una función de tipo gaussiano, cuya expresión es ya conocida

normal

donde μ es el valor medio y σ² es la varianza. Analizando con el simulador, mediante el método de Monte Carlo y para 2000 muestras, se puede obtener una representación de la variación del valor nominal de la resistencia, obteniendo un histograma como el que se muestra en la figura siguiente

Distribución de los valores de la resistencia usando el análisis de Monte Carlo

Distribución de los valores de la resistencia usando el análisis de Monte Carlo

El algoritmo de Monte Carlo introduce valor en la variable cuya distribución corresponde a una gaussiana, pero los valores que toma son en todo momento aleatorios. Si esas 2000 muestras se tomasen en 5 procesos de 400 muestras cada uno, seguiríamos teniendo una tendencia a la gaussiana, pero sus distribuciones serían diferentes

Distribuciones gaussianas con varios lotes

Distribuciones gaussianas con varios lotes

Por tanto, trabajando convenientemente con las variables aleatorias, se puede extraer un estudio completo de la fiabilidad del diseño realizado, así como de la sensibilidad que tiene cada una de las variables que se utilizan. En el siguiente ejemplo, vamos a proceder al análisis del punto de operación de un transistor bipolar convencional, cuya variación de β está comprendida entre 100 y 600, con un valor medio de 350 (comprendida β con una distribución gaussiana), polarizado con resistencias con una tolerancia nominal de ±5%, y estudiando la variación de la corriente de colector en 100 muestras.

ANÁLISIS DEL COMPORTAMIENTO ESTADÍSTICO DE UN BJT EN DC

Para estudiar el comportamiento de un circuito de polarización con transistor bipolar, partimos del circuito como el de la figura

Circuito de polarización de un BJT

Circuito de polarización de un BJT

donde las resistencias tienen tolerancias totales de ±5% y el transistor tiene una variación de β entre 100 y 600, con un valor nominal de 350. El punto de operación es Ic=1,8mA, Vce=3,2V. Haciendo el análisis de Monte Carlo para 100 muestras, obtenemos el siguiente resultado

Variación de la corriente del BJT en función de las variables aleatorias

Variación de la corriente del BJT en función de las variables aleatorias

Por la forma de la gráfica, se puede comprobar que el resultado converge a una gaussiana, donde el valor medio predominante es Ic=1,8mA, con una tolerancia de ±28%. Supongamos ahora que hacemos el mismo barrido que antes, en varios lotes de proceso, de 100 muestras cada uno. El resultado obtenido es

Variación de la corriente del BJT para varios lotes

Variación de la corriente del BJT para varios lotes

donde podemos ver que en cada lote tendremos una curva que converge a una gaussiana. En este caso, la gaussiana tiene un valor medio μ=1,8mA y una varianza σ²=7%. De este modo, podemos analizar cada proceso como un análisis estadístico global como por lotes. Supongamos que ahora β es una variable aleatoria con una función de distribución uniforme entre 100 y 600. Analizando sólo para las 100 muestras, se obtiene la curva

Distribución con b uniforme

Distribución con BETA uniforme

y se puede observar que la tendencia de la corriente es a converger a una distribución uniforme, aumentando el rango de tolerancia de la corriente y aumentando la probabilidad en los extremos de su valor. Por tanto, también podemos estudiar cómo se comporta el circuito cuando tenemos distintas funciones de distribución gobernando cada una de las variables.

Visto que, con el método de Monte Carlo podemos analizar el comportamiento en términos de tolerancias de un circuito complejo, también del mismo modo nos ayudará a estudiar cómo podemos corregir esos resultados. Por tanto, a lo largo de las entradas vamos a profundizar cada vez más en el potencial del método y lo que se puede conseguir con él.

CORRIGIENDO LAS TOLERANCIAS

En el circuito básico que hemos utilizado, al caracterizar la β del transistor como una variable uniforme, hemos aumentado la probabilidad de haya posibles valores de corriente que caigan en valores indeseados. Esto es uno de los puntos más problemáticos de los transistores bipolares y de efecto campo, las variaciones de sus ganancias en corriente. Vamos a ver, con un sencillo ejemplo, qué es lo que ocurre cuando usamos un circuito de corrección de la variación de β, como puede ser el circuito clásico de autopolarización por emisor

Circuito con autopolarización por emisor

Circuito con autopolarización por emisor

Usando este circuito, volvemos a hacer un análisis de Monte Carlo y lo comparamos con el análisis obtenido en el caso anterior,pero usando 1000 muestras. El resultado obtenido es

Resultados con ambos circuitos

Resultados con ambos circuitos

donde se puede ver que se ha incrementado la probabilidad en valores en torno a los 2mA, reduciendo la densidad de probabilidad en valores bajos de corriente y estrechando la distribución. Por tanto, el método de Monte Carlo no sólo es un método que nos permite analizar el comportamiento de un circuito cuando se somete a una estadística, sino que nos permitirá optimizar nuestro circuito y ajustarlo a los valores límite deseados. Usado convenientemente, es una potente herramienta de cálculo que mejorará el conocimiento de nuestros circuitos.

CONCLUSIONES

En esta primera entrada de una serie dedicada al método de Monte Carlo, en la que hemos querido presentar el método y su utilidad. Como hemos podido ver en el ejemplo, el uso del método de Monte Carlo proporciona datos de mucha utilidad, sobre todo si deseamos conocer cuáles son las limitaciones y variaciones del circuito que estamos analizando. Por otro lado, nos permite mejorar éste a través de los estudios estadísticos, además de fijar los patrones para la verificación del mismo en un proceso productivo.

En las siguientes entradas profundizaremos más en el método, realizando un estudio más exhaustivo del método a través de un circuito concreto de uno de mis proyectos más recientes, analizando cuáles son los resultados esperados y las diferentes simulaciones que se pueden realizar usando el método de Monte Carlo, como las de caso peor, sensibilidad, y optimización post-producción.

REFERENCIAS

  1. Castillo Ron, Enrique, “Introducción a la Estadística Aplicada”, Santander, NORAY, 1978, ISBN 84-300-0021-6.
  2. Peña Sánchez de Rivera, Daniel, “Fundamentos de Estadística”, Madrid,  Alianza Editorial, 2001, ISBN 84-206-8696-4.
  3. Kroese, Dirk P., y otros, “Why the Monte Carlo method is so important today”, 2014, WIREs Comp Stat, Vol. 6, págs. 386-392, DOI: 10.1002/wics.1314.

 

Estudio del comportamiento de un material piezoeléctrico (I)

Los dispositivos electrónicos, cada vez más, forman parte de nuestras herramientas de comunicación, y los componentes electrónicos son cada vez más conocidos, lo que permite aprovechar su potencial en el proceso de diseño. En esta entrada vamos a estudiar el comportamiento electromecánico de un material muy popular: el piezoeléctrico, explicaremos las ecuaciones constitutivas del fenómeno y realizaremos un modelo que permita el estudio del comportamiento en un simulador de circuitos.

LOS MATERIALES PIEZOELÉCTRICOS

Un piezoeléctrico consiste en un material no conductor que posee propiedades mecánicas activadas por la aplicación de campos eléctricos. Por reciprocidad, cuando a ese dispositivo piezoeléctrico le aplicamos torsiones y deformaciones mecánicas, también se generan fuerzas de tipo eléctrico.

El material piezoeléctrico más conocido por los diseñadores electrónicos es el cuarzo (SiO2), cristalizado en trigonal (cuarzo-α) hasta 570°C y en hexagonal (cuarzo-β) a temperaturas entre 570° y 870°C. A temperaturas superiores, el cuarzo se transforma en otro compuesto de sílice denominado tridimita.

La cristalización del cuarzo en su variedad hexagonal proporciona propiedades piezoeléctricas cuando se aplica al material campos eléctricos o tensiones mecánicas, y es muy utilizado en electrónica por este comportamiento, logrando obtener resonadores electromecánicos con muy alto factor de calidad.

Otros materiales piezoeléctricos muy utilizados en la industria electrónica son el nitruro de Aluminio (AlN), el óxido de Zinz (ZnO) y los materiales PZT, en diversas variantes.

En esta entrada vamos a estudiar el comportamiento piezoeléctrico a partir de las ecuaciones constitutivas que relacionan las propiedades mecánicas con las eléctricas, y a partir de ahí, obtener un modelo eléctrico que permita su uso en una herramienta de simulación de circuitos.

CONCEPTO DE ONDAS ACÚSTICAS

En Física denominamos onda acústica a un fenómeno mecánico de propagación de una onda de presión a lo largo de un material. Al poseer esta onda de presión una variación temporal periódica, puede propagarse a diversas frecuencias. Las ondas de presión que están situadas en la banda desde 100Hz a 10KHz se caracterizan porque son audibles, esto es, nuestro sentido del oído puede captarlas, enviar la información captada al cerebro y ser procesada para realizar una determinada acción. Sin embargo, todas las ondas de presión entran dentro del concepto de onda acústica, puesto que es un campo de fuerzas que se asemeja al campo eléctrico por su comportamiento.

En las ondas de presión acústicas distinguimos dos magnitudes importantes: la tensión T y la deformación S,. La primera, T, es la fuerza por unidad de superficie que aparece en el entorno de un punto material de un medio continuo. Es, por tanto, una presión mecánica cuyas unidades son N/m2.

Descripción de la tensión mecánica

Asociada a ésta aparece la deformación S, que es desplazamiento que se produce en las partículas del material al aplicar una presión sobre éstas. La deformación se mide en m/m.

Desplazamiento producido por una deformación

Desplazamiento producido por una deformación

La relación entre ambas magnitudes se puede expresar asemejando la tensión T con el desplazamiento eléctrico D y la deformación S con el campo eléctrico E. Por tanto, si el campo eléctrico E es proporcional al desplazamiento eléctrico D a través de la constante dieléctrica del material ε, la deformación S es proporcional a la tensión T a través de un tensor constante [cE], como se puede ver en la expresión

Si al desplazamiento mecánico producido le denominamos u, podemos poner la deformación S como un gradiente de este desplazamiento mecánico a través de

deformación

Con lo que se puede ver la similitud con el campo eléctrico, que deriva en forma de gradiente de un potencial eléctrico V.

Normalmente T y S son magnitudes vectoriales, y [cE]  es un tensor. Pero si manipulamos el material de modo que sólo tengamos deformación en uno de los ejes (por convenio, a partir de aquí vamos a usar el eje Z), las expresiones se simplifican siendo T y S simples magnitudes escalares, y cE una constante de proporcionalidad. Las dimensiones de esta constante son las mismas que la tensión, tiene dimensiones de presión (N/m2).

La deformación está sujeta a la 2ª ley de Newton, que relaciona la velocidad de deformación con la tensión aplicada a través de

ley de newton donde ρ es la densidad de masa por unidad de volumen. Como hemos escogido trabajar sólo en una dirección de propagación, podemos poner la divergencia de T como

divT

y teniendo en cuenta que S es la derivada con respecto a z del desplazamiento mecánico u, introduciendo ésto en la expresión de la Ley de Newton y agrupando los términos obtenemos

helemholtzque es una ecuación de onda similar a la que se obtiene del desarrollo de las ecuaciones de Maxwell en electromagnetismo. De esta ecuación se puede derivar la ecuación de Helmholtz, asumiendo que la solución de esta ecuación es una solución del tipo

desplazay usando esta solución en la ecuación de onda anterior, obtenemos que

onda_ecua

que corresponde a la ecuación de Helmholtz. En la ecuación de Helmholtz, la constante de propagación K se define por

propaga

donde v es la velocidad de propagación de la onda acústica (velocidad del sonido en el medio acústico). De aquí se puede obtener la constante cE, que está relacionada con el material a través de su densidad y de la velocidad de propagación de la onda acústica en el mismo.

conste

Al tratarse de una onda viajando a través de un medio material, podemos tratar la misma como una onda que se propaga a través de una línea de transmisión, cuya impedancia Z0 se obtiene por

impedance_ac

que denominamos impedancia acústica del medio y que se expresa en Rayl o N⋅s/m3. La velocidad de propagación v, que es la velocidad del sonido en el medio material, está relacionada con el desplazamiento acústico lineal a través de

velci

y el desplazamiento acústico angular se puede expresar por

angular

Viendo la similitud entre las ecuaciones de la acústica y las ecuaciones del campo electromagnéticos, podemos establecer una analogía en ambos tipos de interacciones que nos va a permitir desarrollar correctamente el estudio de los materiales piezoeléctricos.

ECUACIONES CONSTITUTIVAS DE UN MATERIAL PIEZOELÉCTRICO

En un medio piezoeléctrico, como en cualquier otro material, se producen tensiones y deformaciones acústicas. La peculiaridad del piezoeléctrico es que esas tensiones que aplicamos generan campos eléctricos. Del mismo modo, por reciprocidad, cuando aplicamos un campo eléctrico a un piezoeléctrico, generamos tensiones acústicas en el material. Por tanto, podemos relacionar estas tensiones y campos eléctricos mediante las ecuaciones constitutivas del piezoeléctrico, que son

consti

Estas ecuaciones muestran la relación entre la tensión generada en la superficie del piezoeléctrico T con la deformación S, cuando se le aplica un campo eléctrico E. Recíprocamente, se produce un desplazamiento eléctrico en el piezoeléctrico cuando se aplica una deformación S, apareciendo un campo eléctrico E. En este caso, además de la constante que relaciona la deformación con la tensión cE, también aparece la constante dieléctrica del material εS y la constante piezoeléctrica e33, que liga la tensión T con el campo eléctrico E en la dirección Z. En un sistema tridimensional, esa constante estaría representada por un tensor.

Con estas ecuaciones constitutivas, podemos obtener la ecuación de onda anterior, teniendo en cuenta las mismas condiciones. Sabiendo que el desplazamiento eléctrico es, por el teorema de Gauss

gauss

y que aunque se le aplique una deformación o un campo eléctrico no hay variación de la carga espacial, podemos reescribir la ecuación de onda anterior como

onda2donde la constante cD es la constante de deformación cuando aparece un campo electrostático en el medio material y se puede escribir por

consta2

que es característica de un medio piezoeléctrico. Así, la solución a la ecuación de onda será similar a la del caso de un medio material acústico, donde esa constante cD, se puede calcular a través de

consta3

manteniéndose el resto de ecuaciones igual.

Como la solución de la ecuación de onda del piezoeléctrico es una onda que se propaga en una dirección determinada, podemos representar el medio de propagación como una línea de transmisión de impedancia A⋅Z0, donde Z0 es la impedancia acústica que depende exclusivamente del medio material a través de su densidad ρ y la velocidad de propagación del sonido v en el medio material; y A es la superficie del material piezoeléctrico.

linea

Línea de transmisión equivalente de la parte acústica

Al ser una línea de transmisión, tendrá resonancias cada n·λ/4, siendo λ la longitud de onda de la onda acústica. Si el dieléctrico tiene un espesor d, una resonancia λ/4 en la línea de transmisión. Por tanto, el material piezoeléctrico se puede usar para realizar resonadores eléctricos, ya que la resonancia acústica se puede relacionar, a través de las ecuaciones constitutivas, con la resonancia eléctrica.

CONCLUSIÓN

Hemos visto en esta entrada cómo se producen las ondas acústicas en un material, y la relación existente, a través de las ecuaciones constitutivas, entre los campos acústico y eléctrico.

Los materiales piezoeléctricos son de uso cada vez más común en electrónica, ya sea como resonadores, como generadores de sonido o como generadores de energía eléctrica para Energy Harvesting, realizando alimentadores eléctricos que usan la energía procedente de la vibración acústica para generar una tensión eléctrica.

El modelado circuital equivalente de estos componentes está resuelto a través de las ecuaciones constitutivas, siendo los modelos más habituales el modelo de Redwood o el de Mason.

En las próximas entradas trataremos de explicar el modelo equivalente de Mason de un piezoeléctrico, tanto en su versión lineal como no lineal.

REFERENCIAS

  1. W.P. Mason, Electromechanical Transducers and Wave Filters”Princeton NJ, Van Nostrand, 1948
  2. J. F. Rosenbaum, “Bulk Acoustic Wave Theory and Devices”, Artech House, Boston, 1988.
  3. M. Redwood, “Transient performance of a piezoelectric transducer”, J. Acoust. Soc. Amer., vol. 33, no. 4, pp. 527-536, April 1961.
  4. R. Krimholtz, D.A. Leedom, G.L. Mathaei, “New Equivalent Circuit for Elementary Piezoelectric Transducers”, Electron. Lett. 6, pp. 398-399, June 1970.

Estudio avanzado de los radioenlaces

Hablabamos en diciembre del año pasado del cálculo de radioenlaces. Habíamos puesto como modelos iniciales para dicho cálculo el del espacio libre (representado por la fórmula de Friis) y los modelos de Okumura y Okumura-Hata, que son modelos extrapolados de cálculos estadísticos realizados a través de mediciones reales en entornos urbanos. Sin embargo, estos modelos no incluyen la orografía del terreno, la obstrucción debida a los propios enlaces o fenómenos como la difracción. Estos fenómenos físicos son bastante complejos de analizar, pero cualquier radioenlace que los incluya tendrá más posibilidades de éxito que los que se realicen con el simple modelo del espacio libre o el de Okumura-Hata. En esta entrada estudiamos el modelo de Longley-Rice, basado en el modelo de tierra irregular, que data de los años 60 y que fue desarrollado debido a la que los EE.UU. estaban realizando un plan de asignación de frecuencias para la difusión de TV (Broadcast).

EL MODELO DE LONGLEY-RICE

El modelo de Longley-Rice es un modelo de tierra irregular, conocido por las siglas ITM. Es un modelo de estudio de cobertura de radioenlaces, inicialmente pensado para la cobertura broadcast de TV, dentro del plan de asignación de frecuencias del espectro radioeléctrico.

El modelo se basa en la aplicación de los fenómenos físicos ya conocidos: atenuación en el espacio libre de Friis, elipsoides de Fresnel, difracción, trayectorias multicamino, etc., a los que se añade el efecto de la irregularidad de la Tierra. A partir de ese modelo, se realizan análisis estadísticos de cobertura que se plasman en algoritmos que permitan una predicción lo más atinada posible de esa cobertura.

Imagen de una Tierra con orografía irregular

La Tierra no es regular. Si añadimos al fenómeno de la curvatura terrestre el de la orografía, la propagación electromagnética se encuentra con muchos obstáculos. A frecuencias por debajo de los 30MHz, la emisión radiada suele ser bastante eficaz (las célebres emisoras de Onda Media y Onda Corta), llegando a muchas partes del planeta gracias a la reflexión en la ionosfera, permitiendo que lleguen a otras partes del planeta e incluso dar una vuelta completa. Son las bandas de transmisión de radio y de los radioaficionados, y por lo general es el propio planeta el repetidor.

En función de la banda, las frecuencias radiadas se verán favorecidas en la radioemisión, siendo la banda más baja (Onda Media) una banda nocturna (se ve más favorecida en alcance por la noche), y pasando a diurna hasta que los fenómenos de reflexión debidos a la ionosfera desaparecen y se vuelven caprichosos.

El modelo ITM cubre la banda de 20MHz÷20GHz y hasta 2000km, aunque se está extendiendo ya, debido a la necesidad de realizar radioenlaces a más alta frecuencia, hasta los 40GHz.

El modelo, que incluye los fenómenos electromagnéticos ya conocidos y los combina con una cartografía terrestre donde se incluyen los fenómenos urbanos, de bosque, orográficos y de obstáculos, permite, mediante un análisis estadístico, conocer las posibilidades de una cobertura realizada por un repetidor, estimando cuáles son los valores medios que se pueden llegar a tener en un receptor fijo y en uno móvil.

No obstante, el modelo, que nació en 1968, está en continua evolución, puesto que algunos resultados muestran diferencias con las medidas realizadas, por lo que se hace necesaria una combinación de diversos modelos para tener una estimación más realista.

SOFTWARE BASADO EN LONGLEY-RICE

Existen varias aplicaciones basadas en el modelo de Longley-Rice. Una de ellas, libre y muy sencilla de usar, está realizada por el ingeniero de RF canadiense Roger Coudé, denominada Radio Mobile. Con ella es posible cargar un mapa de una cierta zona, abarcando un determinado territorio, y establecer una red de radioenlaces en la que podamos estudiar la cobertura con cierta seguridad.

El software, de tipo freeware, establece la definición de los sistemas, del tipo de red, de la orografía del terreno, del entorno climático, del tipo de orografía del terreno. También permite la definición de las potencias emitidas por el transmisor y las recibidas por el receptor, así como las ganancias de antena y el tipo de antena utilizado.

Análisis de un enlace de radio punto a punto.

El software permite el análisis punto a punto con la transcripción de la orografía del terreno, representando, además, las elipsoides de Fresnel, y mostrando las contribuciones a las pérdidas en el espacio libre de las obstrucciones, los entornos urbanos y las zonas boscosas.

También es posible analizar redes punto-multipunto, topologías de tipo estrella o de tipo cluster.

Una de las cosas más interesantes del programa es la posibilidad de realizar sobre el mapa diagramas de cobertura, limitando los parámetros óptimos de la red y caracterizándola en función de la posición sobre el terreno, así como de obtener localizaciones favorecidas para obtener la mejor ubicación.

No obstante, tenemos que recordar que se trata de un simulador, y como todos los simuladores, tiene la eficiencia de la cantidad de datos que proporcionemos, y muchos de ellos no son de fácil modelización. Para ello, voy a estudiar un ejemplo que realicé hace unos años con un radioenlace que tuve que colocar en un camping de la Bretaña francesa, en Quimper.

EL PROBLEMA DEL CAMPING DE QUIMPER

En el año 2008 tuve que ir a instalar un radioenlace en el camping Port de Plaisance, en Quimper. Se trataba de una instalación destinada a emitir la TNT (Télévision Numérique Terrestre) dentro del entorno del camping, ya que la señal del repetidor llegaba con una señal ya muy baja a algunos de los bungalows del camping.

Parecía que se trataba de una instalación sencilla: el camping no tenía más de 700m de longitud, por lo que un repetidor de 500mW parecía más que suficiente para cubrir el terreno. El problema partía de la normativa de TNT en Francia exigía que cualquier repetidor tenía que ponerse en modo SFN (Single Frequency Network), por lo que había que emitir en el mismo canal que se recibía. No era posible realizar, pues, cambio de canalización.

Esta situación limitaba mucho la potencia de nuestro repetidor, ya que al emitir en la misma frecuencia y carecer de un sistema de cancelación de ecos (realimentación producida al acoplarse la frecuencia emitida en la antena de recepción del repetidor), había que disminuir el nivel de salida del repetidor para evitar oscilaciones.

El camping tenía una distribución que podemos ver en el siguiente mapa:

benodet

Camping “Port de Plaisance”

Por supuesto, el objetivo era cubrir todos los bungalows, y para ello utilizamos el modelo de espacio libre. La ubicación tanto de la antena de recepción como la de transmisión fueron definidas por la dirección del camping, así como la ubicación de los equipos, que serían colocados en unas dependencias a las que no podían acceder los clientes.

Atendiendo al modelo de cobertura del espacio libre, teníamos entre 70 y 80dB de pérdidas en las frecuencias de UHF en las que íbamos a emitir. Por tanto, el problema de la potencia quedaba resuelto, ya que con 50mW de emisión llegábamos perfectamente a cualquier punto del camping con una antena omnidireccional, con una ganancia del orden de 9dBi. De hecho, en el peor punto llegábamos con 57dBμV, 10dB más que los que se recomiendan como límite inferior para recibir una señal de TV COFDM correcta. Así que con la alegría de que íbamos a poner un repetidor en Francia, nos acercamos a Quimper a finales del invierno de 2008, a hacer la instalación y tomar las medidas.

El primer inconveniente con el que nos encontramos fue, precisamente, el problema de la realimentación. Ya sabíamos que podría ocurrir, pero las estimaciones calculadas y las reales nos mostraron que no podíamos sacar más de 75mW en el mejor de los casos, y con este nivel en algunas ocasiones el canal concreto se ponía a oscilar. El valor de 50mW era también algo optimista, aunque era un valor, en principio, seguro.

Otra de las cosas que no introdujimos en los cálculos era el gran número de ostáculos a los que se enfrentaba nuestro repetidor. Como buen camping situado en una zona tan húmeda como la Bretaña francesa, el terreno tenía abundante vegetación y arbolado, y en muchas ocasiones los árboles se topaban con el camino radioeléctrico como si fuesen un muro. No obstante, logramos colocar el repetidor y de las mediciones que hicimos, vimos que teníamos nivel de señal óptimo, aunque 6 o 7 dB inferior al que el modelo del espacio libre nos predecía.

Al cabo de dos meses, desde la dirección del camping nos telefonearon indicando que en muchos sitios del camping no se recibía la señal de TNT, y que los clientes se quejaban porque era un servicio ofertado por el camping y querían dicho servicio. Así que con los equipos en la mano, volvimos para estudiar “in situ” lo que ocurría.

A nuestra llegada, pudimos comprobar con estupor que las arboledas sin hojas de marzo se habían convertido en un frondoso bosque. Teniendo a mano las medidas realizadas, volvimos a hacer la comparativa y donde antes teníamos del orden de 50dBμV, ahora teníamos menos de 45dBμV, por lo que en algunos sitios la señal estaba pixelando continuamente o entraba a negro, dependiendo de la calidad del receptor. Un desastre, vamos.

Así que tuvimos que recurrir a reajustar el repetidor, teniendo en cuenta que no podíamos dar más de 75mW, si no queríamos que el canal oscilase. La dirección del camping tampoco permitía el cambio de canal, por lo que teníamos pocas opciones. Así que la solución fue buscar un punto de potencia de salida que permitiese la cobertura justa, e intentar buscar los lugares donde esta cobertura era mala, para intentar dar con una solución, que consistía en la instalación de un microrrepetidor de menos potencia.

Por tanto, ahí descubrí que el modelo del espacio libre era eso: del espacio libre. No era válido para realizar una estimación de cobertura para una instalación sobre un determinado terreno.

¿Y SI HUBIESE TENIDO EL SIMULADOR RADIO MOBILE?

Hoy, después de 6 años y medio de aquella instalación, he hecho el análisis de la misma a través del software Radio Mobile y me he encontrado con que aquellos datos que tomé en su momento eran correctos, y que mi hipótesis inicial, presentada en el informe de la instalación, era acertada. Al justificar que la existencia de obstrucciones en el camping no me permitían una cobertura total, las conclusiones eran discutidas y tomadas como poco rigurosas.

De hecho, al tomar el peor punto de la red, que llamaremos Receptor 2, pude comprobar que en condiciones de obstrucción la señal, que en espacio libre estaba sobrada, estaba atenuada en 12dB más, lo que hacía que la señal cayese por debajo de la señal que habíamos puesto como límite, e incluso por debajo de la señal óptima.

Transmisión simulada en el punto peor del camping Port de Plaisance

Entonces, decidí hacer una simulación de la cobertura desde el repetidor, para ver cómo se distribuía la señal, y obtuve el siguiente plano de cobertura

Mapa de cobertura del camping “Port de Plaisance”. En rojo, fuera de cobertura. En amarillo, cobertura débil. En verde, buena cobertura.

donde pude comprobar, a partir del mapa de terreno que usa el programa, que había zonas internas de mala cobertura y que las zonas donde tenía una cobertura débil (que dependiendo de las condiciones climatológicas podía ser incluso mala), eran superiores a las que en principio me mostraba el modelo del espacio libre. Y que la zona en la que el modelo de espacio libre nos daba como peor, pero dentro de características, se ajustaba a los valores obtenidos en las medidas.

CONCLUSIONES

Si hubiese tenido este software de simulación en el momento de estudiar la instalación del repetidor en “Port de Plaisance”, para nada hubiese acudido a montar el repetidor si no tengo la cobertura garantizada. Incluso con el máximo nivel de 500mW la cobertura no estaba garantizada, con algunas zonas de sombra que no podríamos cubrir.

cover2

Cobertura con el máximo nivel de 500mW.

El programa me ha demostrado, pues, mucha utilidad para el cálculo de coberturas. Al menos, se obtienen cosas bastante más realistas que el optimismo inicial del modelo del espacio libre.

REFERENCIAS

  1. P.L. Rice, “Transmission loss predictions for tropospheric communication circuits”, Volume I & II, National Bureau of Standards, Tech. Note 101
  2. A. G. Longley and P. L. Rice, “Prediction of tropospheric radio transmission loss over irregular terrain. A computer method-1968”, ESSA Tech. Rep. ERL 79-ITS 67, U.S. Government Printing Office, Washington, DC, July 1968

El Control Automático de Ganancia: topología, funcionamiento y uso (II)

En la entrada del mes pasado estudiábamos la filosofía de un amplificador con Control Automático de Ganancia. Para terminar este capítulo dedicado al AGC, vamos a estudiar la simulación del sistema usando la aplicación SIMULINK de MatLab, y dedicaremos un apartado a concretar el uso más habitual de este tipo de configuraciones.

DIAGRAMAS DE BLOQUES DE UN AGC EN SIMULINK

En primer lugar, vamos a recordar que el diagrama de bloques usual de un AGC es el siguiente

Diagrama de bloques de un AGC

Diagrama de bloques de un AGC

Es importante la traslación de este sistema a SIMULINK, para poder estudiar cómo funciona. Comenzamos por el VGA (amplificador controlado por tensión). En el apartado anterior comprobamos que la expresión que relaciona la tensión de salida con la tensión de entrada es una expresión definida por

img10

Expresión del VGA

por tanto, tenemos que construir un diagrama de bloques SIMULINK que realice esta expresión. El diagrama de bloques es

img1

Diagrama SIMULINK del VGA

Tenemos dos puertas de entrada: la puerta In1 es la puerta donde se aplicará VIN en unidades de magnitud, mientras que la entrada In2 es la puerta donde se aplicará VC, también en unidades de magnitud. Esta tensión VC pasa por un amplificador de ganancia -1 y por una función matemática 10u, para realizar la parte exponencial de la ganancia, que se multiplica mediante una función producto a la tensión de In1, correspondiente a VIN. Luego aplicamos un bloque Gain3, en el que proporcionamos la máxima ganancia de nuestro amplificador, que en este caso es 10. De este modo, nuestro amplificador tiene la siguiente expresión

img11

Expresión de la VGA a simular

VOUT, en unidades de magnitud, sale por Det a través de la salida Out2, mientras que por la salida Out1 sacamos VOUT en dB, ya que nos interesa más esa escala a la hora de realizar las medidas. La salida Det será utilizada para realizar la parte de la detección y aplicar un amplificador logarítmico.

El diagrama de bloques, entonces, queda como sigue

img2

Diagrama de bloques SIMULINK del AGC

Por un lado, tenemos Control Amp, que es nuestro VGA. La entrada, que se expresa en magnitud, entra en el amplificador y se lleva, a través de una conversión a dB, al Scope. La salida Out, que sale en dB, se lleva también al Scope.

La salida Det pasa por un detector de envolvente de ganancia unidad y un amplificador logarítmico de base 10. El resultado de esa operación se compara con el valor VREF, que es, en dB, el valor que queremos a la salida. Mediante el bloque dB to Mag se pasa VREF a unidades de magnitud.

El resultado se pasa por un integrador que tiene una constante de proporcionalidad 0,5. En el visualizador Control podemos estudiar la respuesta temporal de la salida del integrador, que nos proporcionará información acerca del tiempo que le lleva al AGC volver al estado nominal cuando haya un cambio en el valor de entrada.

La entrada está formada por los bloques In_dB (el valor nominal de entrada en dB) y dB_Step, en donde introduciremos el salto que se va a producir en el valor de entrada. Por ejemplo, en la figura tenemos un salto de 10dB, por lo que si el valor inicial de entrada In_dB es de 10dB, en el momento en que se produzca el salto tendremos 20dB, que el AGC tendrá que corregir.

El bloque dB to Mag with step es un bloque que nos proporcionará el valor de entrada en magnitud VIN, con el salto en dB en el tiempo que deseamos. Este bloque es

img3

Diagrama de bloques del dB to Mag with step

La entrada dB_Step se multiplica a un escalón retardado, para que el salto se produzca en ese momento, y la salida (que sigue estando expresada en dB) se suma a la entrada nominal dB_In, que es el valor inicial. Un bloque Gain (1/20) y un bloque 10u pasan los dB a magnitud, que es la que se introducirá en el amplificador.

PROCESO DE SIMULACIÓN

Vamos a proceder a la simulación de nuestro AGC. En primer lugar, vamos a ver cuál es la salida del amplificador cuando no tenemos salto.

img4

Respuesta del AGC cuando no hay variación en el valor de entrada (dB_Step=0)

Como podemos ver en la gráfica, cuando entramos con 10dB, el amplificador se va a su máxima ganancia (10dB+20dB de ganancia pasa a 30dB de nivel de salida). El AGC corrige la ganancia hasta que se obtienen los 15dB de VREF. Si cambiamos VREF a 20dB, el resultado en la salida es similar, pero se obtienen 20dB.

img5

Respuesta con Vref=20dB

Por tanto, queda comprobado que el amplificador está funcionando correctamente, por lo que aplicamos ahora los cambios en amplitud.

En primer lugar, introducimos un retardo en el bloque Step de dB to Mag with step de 15s. Esto quiere decir que la amplitud del amplificador cambiará a partir de la posición 15. Ahora introducimos un salto en dB_Step de 5dB, manteniendo la VREF en 15dB. El resultado es

img6

Respuesta del AGC a un incremento en la entrada de 5dB

Podemos ver que el amplificador ya se encuentra en estado estacionario a partir del instante 10, con 15dB de salida, y en el instante 15 la entrada sube 5 dB. El amplificador incrementa su salida a 20dB, pero el AGC realimenta la ganancia hasta que en el instante 25 volvemos a tener 15dB.

Apliquemos ahora la misma variación, pero negativa, disminuyendo el valor de entrada en 5dB. El resultado es

img7

Respuesta del AGC a una disminución en la entrada de 5dB

Donde vemos que el nivel de entrada, en el instante 15, pasa de 10dB a 5dB, provocando que el nivel de salida caiga a 10dB. Entonces comienza a actuar el AGC hasta que en el instante 25 se estabiliza y vuelve a los 15dB de salida.

¿Cómo es la señal de Control? En esta última gráfica, podemos comprobar que la señal de Control es

img8

Respuesta del control Vc

Por tanto, podemos ver el cambio que se produce en la ganancia, cuando VC pasa de 0,75 a 0,5 para estabilizar el nivel de salida.

Este AGC es muy sencillo. El tiempo de respuesta del AGC venía dado por la expresiónτ=1/α·A cuando el valor de la amplitud sube o cae α·A/e, donde A era el factor multiplicador del integrador y α la constante de proporcionalidad de la parte exponencial de la ganancia. Por tanto tenemos que t vale, con los números que hemos utilizado, 2.

Este valor se corresponde al instante en que la envolvente cae 0,18, que en la gráfica anterior se corresponde a un valor aproximado de 0,57. Podemos comprobar que ese valor cae en una posición inferior a la mitad del intervalo entre 15 y 20, por lo que los números son coherentes.

En esta simulación no hemos puesto limitación al valor del salto. Esto significa que si sobrepasamos el rango del AGC podremos tener valores de VC incoherentes. Pero dentro del rango del AGC, podemos estudiar el comportamiento de los integradores y de la respuesta del VGA de forma temporal, si introducimos dichos datos en el sistema.

USO HABITUAL DE LOS AGC

Por último, y para cerrar esta entrada correspondiente a los AGC, vamos a comentar brevemente el uso de los mismos en los equipos de telecomunicaciones.

Por lo general, cuando tenemos comunicación radiada a través del espacio libre, podemos encontrarnos con una gran diversidad de valor de campo eléctrico, que, al acoplarse a la antena, proporciona diferentes niveles de señal a la entrada de un receptor. Y las variaciones pueden ser del orden de decenas de dB.

Los receptores suelen tener un margen dinámico limitado. Por debajo de un determinado valor, el ruido interfiere en la señal dejándola irrecuperable, y por encima de un determinado valor, se produce la intermodulación, que genera señales indeseadas que también pueden hacer irrecuperable la señal. Se hace, por tanto, necesario que exista un rango dinámico controlado por el propio equipo para que absorba las variaciones propias de la señal de entrada. Es aquí donde entra el AGC.

Si observamos el diagrama de bloques de un equipo receptor, tendremos que los bloques principales son

img9

Diagrama de bloques típico de un receptor de telecomunicaciones

El primer amplificador, que está antes del mezclador de FI, es un amplificador controlado por tensión que realiza el AGC para garantizar que en el receptor (en este caso un demodulador I-Q) el nivel sea el óptimo.

Hay ocasiones que el propio receptor tiene un rango de AGC, que combinado con el rango del amplificador de entrada incrementa el rango dinámico del receptor.

Los AGC, aunque menos habituales, también se suelen usar en transmisión, aunque en este caso lo más habitual es tomar una muestra del nivel de salida y pasarlo por un ADC para que a través de un microcontrolador se corrija el nivel de ataque al amplificador, sin que el amplificador esté controlado por tensión.

CONCLUSIONES

Con esta entrada damos por cerrado el capítulo del estudio de los AGC y su uso. La mayoría de los equipos de telecomunicaciones tienen, hoy día AGC digitales que controlan las variaciones de la señal de entrada a través de los microprocesadores. Sin embargo, la gran ventaja del AGC analógico clásico es la rapidez de su respuesta y la alta estabilidad que se obtiene, ya que corrige un sistema exponencial que, a la hora de ser cuantificado, puede necesitar al menos de 8 bits para controlarlo y obtener un buen margen de estabilidad de nivel en el AGC. Su mayor inconveniente suele ser el espacio, la variación del margen con la temperatura y la necesidad de obtener una muestra de nivel lo suficientemente elevada para que el detector no introduzca ruido.

También hemos podido comprobar la utilidad de una herramienta como SIMULINK para analizar este tipo de sistemas, que nos puede proporcionar información de primera mano para comprobar si el sistema es viable.

REFERENCIAS

  1. Benjamin C. Kuo; “Automatic Control Systems”; 2nd ed.; Englewood Cliffs, NJ; Prentice Hall; 1975
  2. Pere Matí i Puig; “Subsistemas de radiocomunicaciones analógicos”;Universitat Oberta de Catalunya;2010