Archivo del Autor: Tomás Rosich

Acerca de Tomás Rosich

From Spain. Physicist. Lover of music, of science diffusion and life.

Simulating transitions with waveguides

adapterWaveguides are transmission lines widely used in very high frequency applications as guided propagation devices. Their main advantages are the reduction of losses in the propagation, due to the use of a single conductor and air, instead of using dielectrics as in the coaxial cable, a greater capacity to use high power and a simple building. Their main drawbacks are usually that they are bulky devices, that they cannot operate below their cutoff frequency and that the guide transitions to other technologies (such as coaxial or microstrip) have often losses. However, finite element method (FEM) simulation allows us to study and optimize the transitions that can be built with these devices, getting very good results. In this post we will study the waveguides using an FEM simulator such as HFSS, which is able to analyze tridimensional electromagnetic fields (3D simulation).

Waveguides are very popular in very high frequency circuits, due to the ease of their building and their low losses. The propagated fields, unlike the coaxial guides, are electric or magnetic transverse (TE or TM fields), so they have a magnetic field component (TE) or electric field (TM) in the propagation direction. These fields are the solutions for the Helmholtz equation under certain boundary conditions

  • For the TE modes, Ez(x,y)=0

\left( \dfrac {{\partial}^2}{\partial x^2} +\dfrac {{\partial}^2}{\partial y^2} +k_c^2\right)H_z(x,y)=0

  • For the TM modes, Hz(x,y)=0

\left( \dfrac {{\partial}^2}{\partial x^2} +\dfrac {{\partial}^2}{\partial y^2} +k_c^2\right)E_z(x,y)=0

and solving these differential equations by separation of variables, and applying the boundary conditions of a rectangular enclosure, where all the walls are electrical walls (conductors, in which the tangential component of the electric field is canceled)

Fig. 2 – Boundary conditions on a rectangular waveguide

we can obtain a set of solutions for the electromagnetic field inside the guide, starting from the solution obtained for the expressions shown in fig. 1.

Fig. 3 – Table of electromagnetic fields and parameters in rectangular waveguides

Therefore, electromagnetic fields are propagated like propagation modes, called TEmn, for the transverse electric (Ez=0), or TMmn, for the transverse magnetic (Hz=0). From the propagation constant Kc is got an expression for the cutoff frequencyfc, which is the lowest frequency for propagating fields inside the waveguide, which expression is

f_c=\dfrac {c}{2} \sqrt {\left( \dfrac {m}{a} \right) ^2+\left( \dfrac {n}{b} \right) ^2}

The lowest mode is when m=0, since although the function has extremes for m,n=0, the modes TE00 or TM00 do not exist. And like a>b, the lowest cutoff frequency of the waveguide is for the mode TE10. That is the mode we are going to analyze using a 3D FEM simulation.


In a 3D simulator it is very easy to model a rectangular waveguide, since it is enough to draw a rectangular prism with the appropriate dimensions a and b. In this case, a=3,10mm and b=1,55mm. The TE10 mode start to propagate at 48GHz the next mode, TE01, at 97GHz, then the waveguide is analyzed at 76GHz, frequency in which it will work. Drawing the waveguide in HFSS, it is shown so

Fig. 5 – Rectangular waveguide. HFSS model

The inner rectangular prism is assigned to vacuum, and the side faces are assigned perfect E boundaries. Two wave ports are assigned on the rectangles at -z/2 and +z/2 , using the first propagation mode. The next figure shows the E-field along the waveguide

Fig. 6 – Electric field inside the waveguide

Analyzing the Scattering parameters from 40 to 90GHz, it is got

Fig. 7 – S parameters for the rectangular waveguide

where it can be seen that the first mode starts to propagate inside the waveguide at 48,5GHz.

From 97GHz, TE01 mode could be propagated too, it does not interest us, then the analysis is done at 76GHz.


The most common transitions are from waveguide to coaxial, or from waveguide to microstrip line, to be able to use the propagated energy in another kind of applications. For this, a probe is placed in the direction of the E-field, coupling its energy on the probe. (TE01 mode is in Y-axis)

Fig. 8 – Probe location

The probe is a quarter wavelength resonant antenna at the desired frequency. In X-axis, E-field maximum value happens at x=a/2, while to find the maximum in Z-axis, the guide is finished in a short circuit. So, E-field is null on the guide wall, being maximum at a quarter guide wavelength which is

{\lambda_g}=\dfrac {\lambda}{\sqrt {1-\left( \dfrac {f_c}{f} \right)^2}}

and in our case, at 76GHz, λ is 3,95mm and λg, 5,11mm. Then, the probe length will be 0,99mm and the shortcircuit distance, 2,56mm.

In coaxial transitions, it is enough to put a coax whose internal conductor protrude λ/4 at λg/4 from the shortcircuit. But in microstrip transitions dielectrics are used as support of the conductor lines, then it should be kept in mindpor the dielectric effect, too.

Our transition can be modeled in HFSS by assigning different materials. The probe is built on Rogers RO3003 substrate, with low dielectric constant and losses, making the transition to microstrip. The lateral faces and the lines are assigned to perfect E boundaries, and form of the substrate, to a RO3003 material. The waveguide inside and the transition cavity is assigned to vacuum. In the extreme face of the transition, a wave port is assigned.

Fig. 10 – Rectangular waveguide to microstrip transition

Now, the simulation is done analyzing the fields and S parameters.

Fig. 11 – E-field on the transition

and it can be seen how the E-field couples to the probe and the signal is propagated along the microstrip.

Fig. 12 – Transition S parameters

Seeing the S parameters, we can see that the least loss coupling happens at 76÷78GHz, our working frequency.


Among the usual waveguide devices, one of the most popular is the Magic Tee, a special combiner which can be used like a divider, a combiner and a signal adder/subtractor.

Fig. 13 – Magic Tee

Its behavior is very simple: when an EM field is fed by port 2, the signal is divided and in phase by ports 1 and 3. Port 4 is isolated because its E-plane is perpendicular to the port 2 E-plane. But if the EM field is fed by port 4, it is divided into ports 1 and 3 in phase opposition (180deg) while port 2 is now isolated.

Using the FEM simulation to analyze the Magic Tee, and feeding the power through port 2, it is got the next response

Fig. 14 – E-field inside the Magic Tee feeding by the port 2.

and the power is splitted in ports 1 and 3 while port 4 is isolated. Doing the same operation from port 4, it is got

Fig. 15 – E-field inside the Magic Tee feeding by the port 4.

where now port 2 is isolated.

To see the phases, it is used a vector plot of the E-field

Fig. 16 – Vector E-field inside the Magic Tee feeding by the port 2

where it is seen that the field in ports 1 and 3 has the same direction and therefore they are in phase. Feeding from port 4

Fig. 17 – Vector E-field inside the Magic Tee feeding by the port 2

in which it is seen that the signals in port 1 and 3 has the same level, but in phase opposition (180deg between them).

FEM simulation allows us to analyze the behavior of the EM field from different points of view, only changing the excitations. For example, feeding a signal in phase by port 2 and 4, both signals will be added in phase at port3 and will be nulled at port 1.

Fig. 18 – E-field inside the feeding by ports 2 and 4 in phase.

whereas if inverting the phase in port 2 or port 4, the signals will be added at port 1 and will be nulled at port 3.

Fig. 19 – E-field inside the feeding by ports 2 and 4 in phase opposition

and the result is a signal adder/subtractor.


The object of this post was the analysis of the electrical behavior of the waveguides using a 3D FEM simulator. The advantage of using these simulators is that they allow to analyze with good precision the EM fields on three-dimensional structures, being the modeling the most important part to rightly define the structure to be studied, since a 3D simulator requires meshing in the structure, and this meshing, as it needs a high number of tetrahedra to achieve good convergence, also tends to need more machine memory and processing capacity.
The structures analyzed, due to their simplicity, have not required long simulation time and relevant processing capacity, but as the models become more complex, the processing capacity increases, it it is needed to achieve a good accuracy.

In subsequent posts, another methods to reduce modeling in complex structures will be analyzed, through the use of planes of symmetry that allow us to divide the structure and reduce meshing considerably..


  1. Daniel G. Swanson, Jr.,Wolfgang J. R. Hoefer; “Microwave Circuit Modeling Using Electromagnetic Field Simulation”; Artech House, 2003, ISBN 1-58053-308-6
  2. Paul Wade, “Rectangular Waveguide to Coax Transition Design”, QEX, Nov/Dec 2006

Simulando transiciones en guía de onda

adapterLas guías de onda son líneas de transmisión muy utilizadas en aplicaciones de muy alta frecuencia como elementos de propagación guiada. Sus mayores ventajas son la reducción de pérdidas en la propagación, debido al uso de un sólo conductor y aire, en lugar de usar dieléctricos como en el cable coaxial, un mayor capacidad para usar potencias elevadas y una construcción sencilla. Sus principales inconvenientes suelen ser que son dispositivos voluminosos, que no pueden funcionar por debajo de su frecuencia de corte y que las transiciones de guía a otras tecnologías (como coaxial o microstrip) suelen tener pérdidas. La simulación por el método de los elementos finitos (FEM), permite, no obstante, estudiar y optimizar las transiciones que se pueden realizar con estos dispositivos, obteniendo muy buenos resultados. En esta entrada vamos a estudiar las guías de onda usando un simulador FEM como HFSS, que es capaz de analizar los campos electromagnéticos en 3D.

Las guías de onda son muy populares en los circuitos de muy alta frecuencia, debido a la facilidad de construcción y bajas pérdidas. Los campos propagados, a diferencia de las guías coaxiales, son transversales eléctricos o magnéticos (campos TE o TM), por lo que tienen una componente de campo magnético (los TE) o campo eléctrico (los TM) en la dirección de propagación. Estos campos son resultado de la solución de la ecuación de Helmholtz bajo determinadas condiciones de contorno

  • Para los modos TE, Ez(x,y)=0

\left( \dfrac {{\partial}^2}{\partial x^2} +\dfrac {{\partial}^2}{\partial y^2} +k_c^2\right)H_z(x,y)=0

  • Para los modos TM, Hz(x,y)=0

\left( \dfrac {{\partial}^2}{\partial x^2} +\dfrac {{\partial}^2}{\partial y^2} +k_c^2\right)E_z(x,y)=0

que resolviendo por separación de variables, y aplicando las condiciones de contorno de un recinto rectangular donde todas las paredes son paredes eléctricas (conductores, en las que la componente tangencial del campo eléctrico se anula)

Fig. 2 – Condiciones de contorno de la guía rectangular

obtenemos un conjunto de soluciones para el campo electromagnético en el interior de la guía, partiendo de la solución obtenida para las expresiones de la fig. 1.

Fig. 3 – Tabla de campos electromagnéticos y parámetros en guías rectangulares

Por tanto, los campos electromagnéticos se propagan en forma de modos de propagación, denominados TEmn, si son transversales eléctricos (Ez=0), o TMmn, si son transversales magnéticos (Hz=0). De la constante de propagación Kc obtenemos una expresión para la frecuencia de cortefc, que es la frecuencia más baja a la que se pueden propagar campos dentro de la guía, y cuya expresión es

f_c=\dfrac {c}{2} \sqrt {\left( \dfrac {m}{a} \right) ^2+\left( \dfrac {n}{b} \right) ^2}

El modo más bajo se da cuando m=0, ya que a aunque la función tiene extremos para m,n=0, no existen los modos TE00 o TM00. Y como a>b, la frecuencia de corte más baja de la guía se da en el modo TE10. Ese es el modo que vamos a analizar mediante simulación FEM en 3D.


En un simulador 3D es muy sencillo modelar una guía rectangular, ya que basta dibujar un rectángulo de las dimensiones adecuadas a y b. En este caso vamos a usar a=3,10mm y b=1,55mm. El modo TE10 se comenzará a propagar a 48GHz y el segundo modo, el  TE01, a 97GHz, así que vamos a analizar la guía a 76GHz, que es donde queremos hacerla funcionar. La guía, dibujada en un simulador como HFSS, se ve así

Fig. 5 – Guía rectangular. Modelo en HFSS

El prisma rectangular interior se asigna al vacío como medio material, y en los laterales se asignan paredes eléctricas como condiciones de contorno. A los rectángulos de los planos -z/2 y +z/2 se les asignan sendas fuentes de excitación, con el primer modo de propagación.

El campo eléctrico propagado a lo largo de la guía es de la forma

Fig. 6 – Campo eléctrico en el interior de la guía

Analizando los parámetros S de la guía, de 40 a 90GHz, obtenemos

Fig. 7 – Parámetros S de la guía rectangular

donde podemos ver  que es a partir de 48,5GHz cuando comienza a haber propagación en la guía.

A partir de 97GHz, el modo TE01 se comenzaría a propagar también, no interesándonos y centrándonos en los 76GHz, que es donde se quiere hacer funcionar la guía.


Las transiciones más comunes son aquellas que van de la guía a coaxial, o de guía a línea microstrip, para poder utilizar la energía propagada en otro tipo de aplicaciones. Para ello, lo que se hace es colocar una sonda en la dirección del campo eléctrico (en el modo TE01 es la dirección y), para que la energía que está asociada a ese campo se acople directamente a la sonda

Fig. 8 – Posición de la sonda

La sonda consiste en una antena resonante de cuarto de longitud de onda a la frecuencia que queremos acoplar. En el eje x, el máximo del campo eléctrico se encuentra en x=a/2, mientras que para encontrar el máximo en la dirección de propagación z, cerramos con un cortocircuito la guía, de modo que el campo E es mínimo en la pared de la guía, siendo máximo a un cuarto de onda de la longitud de onda de la guía, que es

{\lambda_g}=\dfrac {\lambda}{\sqrt {1-\left( \dfrac {f_c}{f} \right)^2}}

y en nuestro caso, a 76GHz, λ es 3,95mm mientras que λg es 5,11mm. Por tanto, la longitud de la sonda será 0,99mm y la distancia al cortocircuito 2,56mm.

En transiciones coaxiales, basta con poner un coaxial cuyo conductor interno emerja en λ/4 a λg/4 del cortocircuito. Pero en transiciones a microstrip se usan dieléctricos como soporte de las pistas de metal, por lo que hay que tener en cuenta el efecto del dieléctrico sobre la longitud de onda del material.

Nuestra transición puede ser modelada en HFSS asignando diferentes materiales. Construimos la sonda sobre substrato Rogers RO3003, de baja constante dieléctrica y bajas pérdidas, realizando la transición a línea microstrip. Todo el contorno lateral, así como las líneas de metal, se asignan a paredes eléctricas (conductores perfectos), mientras que el soporte de la línea es RO3003. El interior de la guía y la cavidad donde se aloja la transición es vacío. En el extremo de la transición asignamos un puerto.

Fig. 10 – Transición guía rectangular a microstrip

y ahora realizamos la simulación para ver cuáles son los campos y la respuesta de la transición.

Fig. 11 – Campo eléctrico en la transición

donde se puede ver cómo la sonda es excitada por el campo eléctrico y acopla este a la línea microstrip.

Fig. 12 – Parámetros S de la transición

Viendo la respuesta de los parámetros S, podemos ver que el acoplamiento con menos pérdidas de retorno se produce en la banda de 76÷78GHz, que es donde deseábamos que nuestra transición funcionase.


Dentro de los componentes populares que se pueden realizar en guía de onda, uno de los más populares es la T mágica, un combinador especial que puede ser usado como divisor  como combinador y como sumador/restador de señales.

Fig. 13 – T Mágica

El funcionamiento es muy sencillo: cuando se excita un campo electromagnético por el puerto 2, la señal sale dividida y en fase por los puertos 1 y 3. El puerto 4 queda aislado porque su plano E es perpendicular al plano E del puerto 2. En cambio, si el campo se excita desde el puerto 4, éste se divide en los puertos 1 y 3 en contrafase (180deg) mientras que el puerto 2 queda aislado.

Vamos a usar la simulación FEM para analizar la T mágica, y excitamos la potencia por el puerto 2, obteniendo

Fig. 14 – Campo eléctrico dentro de la T mágica  excitando desde el puerto 2.

donde se puede ver que la potencia es repartida en los puertos 1 y 3 mientras que el puerto 4 queda aislado. Haciendo lo mismo desde el puerto 4, obtenemos

Fig. 15 – Campo eléctrico en el interior de la T mágica excitando desde el puerto 4.

donde ahora es el puerto 2 el que queda aislado.

Para poder ver las fases, es necesario recurrir a un diagrama vectorial del campo eléctrico

Fig. 16 – Campo eléctrico vectorial excitando desde el puerto 2

donde se ve que el campo en los puertos 1 y 3 tiene la misma orientación y por tanto están en fase. Excitando desde el puerto 4

Fig. 17 – Campo eléctrico vectorial excitando desde el puerto 4

en la que se ve que las señales en el puerto 1 y 3 son del mismo nivel, pero están en contrafase (180deg entre ellas).

La simulación FEM nos permite analizar el comportamiento del campo electromagnético desde diferentes puntos de vista, ya que podemos cambiar las excitaciones. Por ejemplo, si introducimos por 2 una señal en fase con la que introducimos en 4, ambas señales se sumarán en fase en 3 y se anularán en 1.

Fig. 18 – Campo eléctrico en el interior de la guía excitando desde 2 y 4 en fase.

mientras que si invertimos la fase en 2 o en 4, las señales se sumaran en 1 y se anularán en 3.

Fig. 19 – Campo eléctrico en el interior de la guía excitando desde 2 y 4 en contrafase

con lo que estamos haciendo un sumador/restador de señales.


El objeto de la entrada era el análisis del comportamiento eléctrico de las guías de onda a través de un simulador 3D que usa el método de los elementos finitos (FEM). La ventaja del uso de estos simuladores es que permiten analizar con buena precisión los campos electromagnéticos en estructuras tridimensionales, siendo el modelado la parte más importante para definir correctamente la estructura a estudiar, ya que un simulador tridimensional requiere realizar un mallado en la estructura, y este mallado, a medida que necesita más tetraedros para lograr una buena convergencia, tiende también a necesitar más memoria de máquina y capacidad de procesado.
Las estructuras analizadas, debido a su simplicidad, no han requerido de tiempos largos de simulación y capacidad de procesado relevantes, pero a medida que se hacen más complejos los modelos, la capacidad de procesado aumenta, si se desea conseguir una buena precisión.

En posteriores entradas analizaremos otros métodos para lograr reducir el modelado en estructuras complejas, a través del uso de planos de simetría que permiten dividir la estructura y reducir considerablemente el mallado.


  1. Daniel G. Swanson, Jr.,Wolfgang J. R. Hoefer; “Microwave Circuit Modeling Using Electromagnetic Field Simulation”; Artech House, 2003, ISBN 1-58053-308-6
  2. Paul Wade, “Rectangular Waveguide to Coax Transition Design”, QEX, Nov/Dec 2006

Using the Three-Dimensional Smith Chart

The Smith Chart is a standard tool in RF design. Developed by Phillip Smith in 1939, it has become the most popular graphic method for representing impedances and solving operations with complex numbers. Traditionally, the Smith Chart has been used as 2-D polar form, centered at an unit radius circle. However, the 2D format has some restrictions when the active impedances (oscillators) or stability circles (amplifiers) are represented, since these ones usually leave the polar chart. Last years, three-dimensional Smith Chart has become popular. Advances in 3D rendering software make it easy to use for design. In this post, I will try to show the handling of the three-dimensional Smith Chart and its application for a low-noise amplifier design.

When Phillip Smith was working at Bell Labs, he have to match one antenna and he was looked for a way to solve the design graphically. By means of the mathematical expressions that define the impedances in the transmission lines, he got to represent the impedance complex plane by circles with constant resistances and reactances. These circles made it easier for him to represent any impedance in a polar space, with the maximum matching placed in the center of the chart and the outer circle representing the pure reactance. Traditionally, Smith’s Chart has been represented in polar form as shown below

Fig. 1 – Traditional Smith’s Chart

The impedance is normalized calculating the ratio between the impedance and the generator impedance. The center of the chart is pure unit resistance (maximum matching) while the peripheral circle that limits the chart is the pure reactance. The left end of the chart represents the pure short circuit and the right end, the pure open circuit. The chart was then very popular to be able to perform calculations for matching networks with transmission lines using a graphical method. However, the design difficulties with the chart happened when active impedances were analyzed, studying amplifiers stability and designing oscillators.

By its design, the chart is limited to the impedances with positive real part, but it could represent, extending the complex plane through the Möbius transformation, impedances with negative real part [1]. This expanded chart, to the negative real part plane, can be seen in the following figure

Fig. 2- Smith’s Chart expanded to active impedances

However,this chart shows two issues: 1) although it allows to represent all the impedances, there is a problem with the complex infinity, so it remains limited and 2) the chart has large dimensions that make it difficult to us in a graphic environment, even in a computer-aided environment. However, the extension is needed when the amplifier stability circles are analyzing, since in most of cases the centers of these circles are located outside the passive impedance chart.

In a graphical computer environment, representing the circles is already performed by the software itself through the calculations, being able to limit the chart to the passive region and drawing only a part of the circle of stability. But with oscillators still have the problem of complex infinity, which could be solved through a representation in a Riemann’s sphere.


The Riemann’s sphere is a mathematical solution for representing the complete complex plane, including infinity. The entire complex surface is represented on a spherical surface by a stereographic projection of this plane.

Fig. 3 – Projection of the complex plane on a sphere

In this graphic form the southern hemisphere represents the origin, the northern hemisphere represents infinity and the equator the circle of unitary radius. The distribution of complex values in the sphere can be seen in the following figure

Fig. 4 – Distribution of complex values in the sphere

So, it is possible to represent any complex number on a surface easy to handle.


Since Smith’s Chart is a complex representation, it can be projected in the same way to a Riemann’s sphere [2], as shown in the following figure

Fig. 5 – Projection of the Smith’s Chart on a Riemann’s sphere

In this case, the northern hemisphere shows the impedances with positive resistance (passive impedances), in the southern hemisphere, the impedances with negative resistance (active impedances), in the eastern hemisphere, the inductive impedances, and in the western one the capacitive impedances. The main meridian shows the pure resistive impedance.

Thus, when we wish to represent any impedance, either active or passive, it can be represented at any point in the sphere, greatly facilitating its drawing. In the same way, we can represent the stability circles of any amplifier without having to expand the chart. For example, if we want to represent the stability circles for one transistor, which parameters S at 3GHz are the next

S11=0,82/-69,5   S21=5,66/113,8   S12=0,03/48,8  S22=0,72/-37,6

its representation in the conventional Smith’s Chart is

Fig. 6 – Traditional representation for stability circles


while in the three-dimensional chart it is

Fig. 7 – Stability circles on the 3D chart

where both circles can be seen, a fraction in the northern hemisphere and the other one in the south. Thus, its representation has been greatly facilitated.


Let’s see a practical application of the 3D chart matching the previous amplifier with the maximum stable gain and minimum figure of noise, at 3GHz. Using traditional methods, and knowing the transistor parameters which are the next

S11=0,82/-69,5   S21=5,66/113,8   S12=0,03/48,8  S22=0,72/-37,6

NFmin=0,62  Γopt=0,5/67,5 Rn=0,2

S-parameters are represented in the3D Smith’s chart and the stability circles are drawn. For a better representation 3 frequencies are used, with a 500MHz bandwidth.

Fig. 8 – S-parameters and stability circles for the transistor (S11 S21 S12 S22 Input Stability Circle Output Stability Circle)

It can be seen that S-parameters as well as the stability circles in both the conventional Smith’s chart and 3D one. In the conventional Smith’s chart, the stability circles leave the chart.

One amplifier is unconditionally stable when the stability circles are placed in the active impedance area of the chart, in the southern hemisphere, under two conditions: if the circles are placed in the active region and do not surround the passive one, the unstable impedances are located inside the circle. If the circles surround the passive region, the unstable impedances are located outside the circle.


Fig. 9 – Possible cases for stability circles in the active region

In this case, since part of the circles enters on the passive impedances region, the amplifier is conditionally stable.Then the impedances that could unstabilize the amplifier are placed inside the circles. This is something that cannot be seen clearly in the three-dimensional chart yet, the app does not seem to calculate it and would be interesting to include in later versions, because it would greatly facilitate the design.

Let’s match now the input for the minimum noise. For this, it is needed to design a matching network to transform from 50Ω to reflection coefficient Γopt, being its normalized impedance Zopt=0,86+j⋅1,07. In the app, opening the design window and writing this impedance

Fig. 10 – Representation of Γopt

Using now the admittance, we translate in the circle of constant conductance until the real part of the impedance is 1. This is down by estimation and a 0,5 subsceptance is got. It should be increased 0,5 – (- 0,57) = 1.07 and this is a shunt capacitor, 1,14pF.

Fig. 11 – Translating to circle with real part 1.

Now it is only needed to put a component that makes zero the reactance, when the resistance is constant. As the reactance is -1.09, the added value should be 1.09, so that the reactance is zero. This is equivalent to a series inductor, 2,9nH.

Fig. 12 – Source impedance matched to Γopt

Once calculated the input matching network for the lower noise figure, we recalculate the S-parameters. Being an active device, the matching network transforms the S parameters, which are:

S11=0,54/-177   S21=8,3/61,1   S12=0,04/-3,9  S22=0,72/-48,6

and which are represented in the Smith’s chart to get the stability circles.

Fig. 13 – Transistor with matching network to Γopt and stability circles.

The unstable regions are the internal regions, so the amplifier remains stable.

Now the output matching network is got for maximum stable gain, and the ouput reflection coefficient S22=0,72/-48,6 should be loaded by ΓL (S22  conjugate), translating from 50Ω to ΓL=0,72/48,6. This operation is performed in the same way that input matching network. By doing the complete matching , S parameters are recalculated, with input and oputput matching networks. These are

S11=0,83/145   S21=12/-7.5   S12=0,06/-72,5  S22=0,005/162

The gain is 20·log(S21)=21,6dB, and the noise figure, 0,62dB (NFmin). Now it is only represented these parameters in the three-dimensional chart to get the stability circles.

Fig. 14 – Low noise amplifier and stability circles

In this case, the stable region in the input stability circle is inside and in the otuput stabiliy circle is outside. Due to both reflection coefficients, S11 y S22 are into the stable regions, then the amplifier is stable.


In this entry I had the first contact with the three-dimensional Smith’s chart. The object was to study its potential with respect the traditional chart in microwave engineering. New advantages are observed in this respect in that it is possible to represent the infinite values ​​from the Möbius transform to a Riemann’s sphere and thus having a three-dimensional graphical tool where practically all passive and active impedances and parameters which can be difficult to draw in the traditional chart as stability circles.

In its version 1, the app, which can be found on the website 3D Smith Chart / A New Vision in Microwave Analysis and Design, shows some design options and configurations, although some applications should be undoubtedly added In future versions. In this case, one of the most advantageous applications for the chart, having studied the stability circles of an amplifier, is the location of the stability regions graphically. Although this can be solved by calculation, the visual image is always more advantageous.

The app has a user manual with examples explained in a simple way, so that the designer becomes familiar with it immediately. In my professional opinion, it is an ideal tool for those of us who are used to using Smith’s chart to perform our matching network calculations.


    1. Müller, Andrei; Dascalu, Dan C; Soto, Pablo; Boria, Vicente E.; ” The 3D Smith Chart and Its Practical Applications”; Microwave Journal, vol. 5, no. 7, pp. 64–74, Jul. 2012
    2. Andrei A. Muller, P. Soto, D. Dascalu, D. Neculoiu and V. E. Boria, “A 3D Smith Chart based on the Riemann Sphere for Active and Passive Microwave Circuits,” IEEE Microwave and Wireless Components. Letters, vol 21, issue 6, pp 286-288, june, 2011
    3. Zelley, Chris; “A spherical representation of the Smith Chart”; IEEE Microwave, vol. 8, pp. 60–66, July 2007
    4. Grebennikov, Andrei; Kumar, Narendra; Yarman, Binboga S.; “Broadband RF and Microwave Amplifiers”; Boca Raton: CRC Press, 2016; ISBN 978-1-1388-0020-5

Diseñando con la Carta de Smith 3D

La Carta de Smith es una herramienta habitual en el diseño de circuitos de RF. Desarrollada por Phillip Smith en 1939, se ha convertido en el método gráfico más popular para representar impedancias y resolver de forma sencilla operaciones con números complejos. Tradicionalmente la Carta de Smith se ha usado en su forma polar, para dos dimensiones, en un círculo de radio 1. Sin embargo, la carta en su formato 2D presenta algunas restricciones cuando se trata de representar impedancias activas de osciladores o círculos de estabilidad de amplificadores, ya que estas últimas representaciones suelen salirse de la carta. En los últimos años se ha popularizado el uso de la Carta de Smith tridimensional. Los avances en el software de representación 3D posibilitan su uso para el diseño. En esta entrada se va a tratar de conocer el manejo de la Carta de Smith tridimensional y su aplicación a un secillo amplificador de baja figura de ruido.

Cuando Phillip Smith estaba trabajando en los Laboratorios Bell, se encontró con la necesidad de tener que adaptar una antena y para ello buscó una forma de resolver el problema gráficamente. Mediante las expresiones matemáticas que rigen las impedancias en las líneas de transmisión, logró representar el plano complejo de impedancias mediante círculos de resistencia y reactancia constante. Estos círculos le facilitaban el poder representar cualquier impedancia en un espacio polar, con la máxima adaptación situada en el centro de la carta y el círculo exterior representando la reactancia pura. Tradicionalmente, la carta de Smith ha sido representada en forma polar tal y como se observa a continuación.

Fig. 1 – Carta de Smith tradicional

Las impedancias se representan normalizadas, esto es, se representa la relación entre la impedancia que se quiere representar y la impedancia de generador. El centro de la carta es la resistencia pura unidad (máxima adaptación) mientras que el círculo periférico que limita la carta es la reactancia pura. El extremo izquierdo de la carta representa el cortocircuito puro y el extremo derecho, el circuito abierto puro. La carta se hizo enseguida muy popular para poder realizar cálculos de adaptación de impedancias con líneas de transmisión usando el método gráfico. Sin embargo,las dificultades de diseño con la carta empezaron a producirse cuando se quería analizar dispositivos activos como amplificadores, para estudiar su estabilidad, y osciladores.

Obviamente, la carta limita a las impedancias de parte real positiva, pero la carta puede representar, mediante extensión del plano complejo a través de la transformación de Möbius, impedancias con parte real negativa [1]. Esta carta expandida al plano de parte real negativa se puede ver en la siguiente figura

Fig. 2-Carta de Smith expandida a parte real negativa

Esta carta, sin embargo, tiene dos inconvenientes: 1) aunque nos permite representar todas las impedancias, existe el problema del infinito complejo, por lo que sigue limitada y 2) la carta toma unas dimensiones grandes que la hacen difícil de manejar en un entorno gráfico, incluso tratándose de un entorno asistido por computador. Sin embargo, su ampliación es necesaria cuando se desean analizar los círculos de estabilidad en amplificadores, ya que en muchas ocasiones, los centros de estos círculos están situados fuera de la carta de impedancias pasivas.

En un entorno gráfico por computador, representar los círculos ya lo realiza el propio programa a través de sus cálculos, pudiendo limitar la carta a la carta pasiva y dibujando sólo una parte del círculo de estabilidad. Pero con osciladores se sigue teniendo el problema del infinito complejo, cosa que se resuelve a través de la esfera de Riemann.


La esfera de Riemann es la solución matemática para representar todo el plano complejo, incluido el infinito. Toda la superficie compleja se representa en una superficie esférica mediante una proyección estereográfica de dicho plano.

Fig. 3 – Proyección del plano complejo a una esfera

En esta representación el hemisferio sur de la esfera representa el origen, el hemisferio norte representa el infinito y el ecuador el círculo de radio unidad. La distribución de los valores complejos en la esfera se puede ver en la siguiente figura

Fig. 4 – Distribución de los valores complejos en la esfera

De este modo, es posible representar cualquier número del espacio complejo en una superficie manejable.


Como la Carta de Smith es una representación compleja, se puede proyectar del mismo modo a una esfera de Riemann [2], tal y como se muestra en la figura siguiente

Fig. 5 – Proyección de la Carta de Smith sobre una esfera de Riemann

En este caso, el hemisferio norte corresponde a la impedancias de parte resistiva positiva (impedancias pasivas), en el hemisferio sur se representan las impedancias con resistencia negativa (impedancias activas), en el hemisferio este se representan las impedancias inductivas y en el oeste las impedancias capacitivas. El meridiano principal se corresponde con la impedancia resistiva pura.

Así, se se desea representar una impedancia cualquiera, ya sea activa o pasiva, se puede representar en cualquier punto de la esfera, facilitando notablemente su representación. Del mismo modo, se pueden representar los círculos de estabilidad de cualquier amplificador sin tener que expandir la carta. Por ejemplo, si queremos representar los círculos de estabilidad de un transistor cuyos parámetros S a 3GHz son

S11=0,82/-69,5   S21=5,66/113,8   S12=0,03/48,8  S22=0,72/-37,6

el resultado en la carta de Smith convencional sería

Fig. 6 – Representación tradicional de los círculos de estabilidad

mientras que en la carta tridimensional sería

Fig. 7 – Círculos de estabilidad en la carta tridimensional

donde se pueden ver ubicados ambos círculos, parte en el hemisferio norte y parte en el sur. Como se puede ver, se ha facilitado enormemente su representación.


Vamos a ver una aplicación práctica de la carta tratando de conseguir que el amplificador de la sección anterior esté adaptado a la máxima ganancia estable y mínima figura de ruido, a 3GHz. Usando los métodos tradicionales, y conociendo los datos del transistor, que son

S11=0,82/-69,5   S21=5,66/113,8   S12=0,03/48,8  S22=0,72/-37,6

NFmin=0,62  Γopt=0,5/67,5 Rn=0,2

Representamos en la carta de Smith tridimensional esos parámetros S y dibujamos los círculos de estabilidad del transistor. Para una mejor representación usamos 3 frecuencias, con un ancho de banda de 500MHz.

Fig. 8 – Parámetros S y círculos de estabilidad del transistor (S11 S21 S12 S22 Círculo se estabilidad de entrada Círculo de estabilidad de salida)

y podemos ver los parámetros S, así como los círculos de estabilidad, tanto en el diagrama polar convencional como en la carta tridimensional. Como se puede observar, en el diagrama polar convencional los círculos se salen de la carta.

Para que un amplificador sea incondicionalmente estable, los círculos de estabilidad deberían estar situados en la zona externa de impedancia pasiva de la carta (en la carta tridimensional, en el hemisferio sur, que es la región expandida) bajo dos condiciones: si los círculos son externos a la carta pasiva y no la rodean, la zona inestable se encuentra en el interior del círculo. Si rodean a la carta, las cargas inestables se encuentran en el exterior del círculo.

Fig. 9 – Posibles situaciones de los círculos de estabilidad en la región activa

En nuestro caso, al entrar parte de los círculos a la región de impedancias pasivas, el amplificador es condicionalmente estable. Entonces las impedancias que podrían desestabilizar el amplificador son las que se encuentran en el interior de los círculos. Esto es algo que todavía no se puede ver con claridad en la carta tridimensional, no parece que lo calcule y sería interesante de incluir en posteriores versiones, porque facilitaría enormemente el diseño.

Vamos ahora a adaptar la entrada para obtener el mínimo ruido. Para ello hay que diseñar una red de adaptación que partiendo de 50Ω llegue al coeficiente de reflexión Γopt y que representa una impedancia normalizada Zopt=0,86+j⋅1,07. En la carta de Smith tridimensional abrimos el diseño y representamos esta impedancia

Fig. 10 – Representación de Γopt

Ahora usando la admitancia, nos desplazamos en la región de conductancia constante hasta que obtengamos que la parte real de la impedancia sea 1. Esto lo hacemos tanteando y obtenemos una subsceptancia de 0,5,. Como hemos tenido que incrementar 0,5–(-0,57)=1,07, esto equivale a una capacidad a tierra de 1,14pF.

Fig. 11 – Transformación hasta el círculo de impedancia con parte real unidad.

Ahora sólo queda colocar un componente que anule la parte imaginaria de la impedancia (reactancia), a resistencia constante. Como la reactancia obtenida es -1,09, hay que añadir 1,09, por lo que el valor de reactancia se anula. Esto equivale a una inducción serie de 2,9nH.

Fig. 12 – Impedancia de generador adaptada a Γopt

Ya tenemos la red de adaptación de entrada que nos consigue la mínima figura de ruido. Como el dispositivo es activo, al colocar esta red de adaptación nos cambian los parámetros S del transistor. Los nuevos parámetros son:

S11=0,54/-177   S21=8,3/61,1   S12=0,04/-3,9  S22=0,72/-48,6

que representamos en la carta de Smith para ver sus círculos de estabilidad.

Fig. 13 – Transistor con entrada adaptada a Γopt y sus círculos de estabilidad

Las regiones inestables son las internas, por lo que el amplificador sigue siendo estable.

Ahora hay que adaptar la salida para obtener la máxima ganancia, por lo que hay que cargar a S22=0,72/-48,6 un coeficiente de reflexión ΓL adaptación conjugada, pasando de 50Ω a un coeficiente de reflexión ΓL=0,72/48,6. Esta operación se realiza del mismo modo que operamos en la adaptación de la entrada. Haciendo esta operación y obteniendo los parámetros S del conjunto completo, con redes de adaptación en entrada y salida, obtenemos

S11=0,83/145   S21=12/-7.5   S12=0,06/-72,5  S22=0,005/162

La ganancia es 20·log(S21)=21,6dB, y la figura de ruido obtenida es 0,62dB, que corresponde a su NFmin. Ahora sólo queda representar en la carta de Smith tridimensional estos parámetros para observar sus círculos de estabilidad.

Fig. 14 – Amplificador de bajo ruido y sus círculos de estabilidad

En este caso, la región estable del círculo de estabilidad de entrada es la interior, mientras que en el círculo de estabilidad de salida es la exterior. Como ambos coeficientes de reflexión, S11 y S22 se encuentran en la región estable, el amplificador es entonces estable.


En esta entrada hemos tenido la primera toma de contacto con la Carta de Smith tridimensional. El objetivo de la entrada era estudiar su potencial respecto a una herramienta ya tradicional en la ingeniería de Microondas como es la Carta de Smith tradicional. Se observan novedosas ventajas sobre ésta en cuanto a que podemos representar los valores infinitos de la transformada de Möbius sobre una esfera de Riemann y de este modo tener una herramienta gráfica tridimensional donde se pueden representar prácticamente todas las impedancias, tanto pasivas como activas, y parámetros difíciles de representar en la carta tradicional como los círculos de estabilidad.

En su versión 1 la herramienta, que se puede encontrar en la página web 3D Smith Chart / A New Vision in Microwave Analysis and Design, presenta bastantes opciones de diseño y configuración, aunque se echa de menos algunas aplicaciones que, sin duda, irán incorporándose en futuras versiones. En este caso, una de las aplicaciones más ventajosas para la carta, al haber estudiado los círculos de estabilidad de un amplificador, es la ubicación de las regiones de estabilidad de forma gráfica. Aunque esto lo podemos resolver por cálculo, siempre es más ventajosa la imagen visual.

La aplicación tiene un manual de usuario con ejemplos explicados de forma sencilla, de modo que el diseñador se familiarice enseguida con ella. En mi opinión profesional, es una herramienta idónea para los que estamos acostumbrados a usar la carta de Smith para realizar nuestros cálculos de redes de adaptación.


    1. Müller, Andrei; Dascalu, Dan C; Soto, Pablo; Boria, Vicente E.; ” The 3D Smith Chart and Its Practical Applications”; Microwave Journal, vol. 5, no. 7, pp. 64–74, Jul. 2012
    2. Andrei A. Muller, P. Soto, D. Dascalu, D. Neculoiu and V. E. Boria, “A 3D Smith Chart based on the Riemann Sphere for Active and Passive Microwave Circuits,” IEEE Microwave and Wireless Components. Letters, vol 21, issue 6, pp 286-288, june, 2011
    3. Zelley, Chris; “A spherical representation of the Smith Chart”; IEEE Microwave, vol. 8, pp. 60–66, July 2007
    4. Grebennikov, Andrei; Kumar, Narendra; Yarman, Binboga S.; “Broadband RF and Microwave Amplifiers”; Boca Raton: CRC Press, 2016; ISBN 978-1-1388-0020-5

Diseño de un amplificador de audio en Emisor Común con Qucs

Un blog interesante.


El amplificador que vamos a diseñar en esta ocasión, ya fue utilizado para enseñar como funcionaba el análisis en AC de un circuito amplificador o filtro. Este análisis sirve para obtener la respuesta en frecuencia de un dispositivo en concreto.

En esta ocasión voy a utilizar el simulador Qucs, en concreto la versión 0.0.18-2. Esta versión la tenéis que descargar de la página de los desarrolladores. La versión que os comente en un artículo anterior, me ha dado problemas y he tenido que volver a instalar la anterior.

Ver la entrada original 765 palabras más

Simulando reguladores DC-DC conmutados

Los reguladores son dispositivos que convierten tensiones de DC a DC. Pueden ser de dos tipos: lineales (disipativos) y conmutados. Los primeros toman la tensión de entrada y la reducen a una tensión deseada, mientras que los segundos convierten la tensión de entrada en otra usando técnicas de conmutación, pudiendo ser la tensión de salida inferior o superior a la de entrada. Si la tensión de salida es inferior, se llaman reductores (“buck”), y si es superior, elevadores (“boost”). A diferencia de los reguladores lineales, con estos dispositivos se pueden obtener eficiencias en la transferencia de energía superiores al 80%, reduciendo la disipación en la regulación. En esta entrada vamos a proceder analizar un pequeño circuito elevador, desde una batería de 3V a 12V, y vamos a usar dos simuladores de circuitos para comprobar los resultados: LTSpice de Linear Technology Corp. y Tina-TI de Texas Instruments, ambos basados en los algoritmos SPICE.

En los circuitos electrónicos es necesario siempre alimentar con una fuente de alimentación DC. En la mayoría de las ocasiones, las tensiones de alimentación son superiores a las necesarias para alimentar las partes activas, por lo que se suelen usar reguladores lineales para conseguir la tensión adecuada. Sin embargo, hay ocasiones en las que es necesario obtener una tensión superior a la que disponemos, para alimentar el circuito.

Supongamos que tenemos un circuito que tenemos que alimentar a 12V, cuyo requisito es alimentarlo desde una batería de 3,2V. Al necesitar elevar la tensión, no se puede usar un regulador lineal, ya que la tensión de salida de éste siempre es inferior a la de la entrada. Por tanto, es necesario usar un “boost” para elevar la tensión hasta 12V.

El circuito que vamos a utilizar se puede ver en el esquema siguiente

Conversor DC-DC de 3,2V a 12V (esquema en LTSpice)

En este diseño, la conmutación se realiza a través del bipolar Q1 (BD139), gobernado por un temporizador NE555, que genera los pulsos para que el transistor conduzca. Cada vez que éste entra en conducción, la bobina L1 se carga a hasta una corriente máxima Im. Cuando el transistor deja de conducir, la corriente máxima Im a la que se ha cargado la bobina es descargada a través del diodo D1 a la carga representada por R5. El funcionamiento es en modo continuo, por tanto la corriente de la bobina nunca llega a ser nula en el ciclo de conmutación.


Uno de los simuladores de circuitos más populares es SPICE, un software basado en la resolución matricial por nudos de circuitos eléctricos y que incluye varios algoritmos de cálculo en función de la respuesta que se quiera estudiar. Los análisis típicos de SPICE son el análisis de continua DC, el análisis de alterna AC y el análisis transitorio TRAN. Mientras que con un regulador lineal, basta con realizar un análisis DC y comprobar la tensión de salida, en un regulador conmutado hay que hacer un análisis transitorio para obtener la respuesta del circuito.
LTSpice es una versión de SPICE realizada por Linear Technology, de carácter libre y con un algoritmo de cálculo transitorio optimizado para el estudio de los reguladores, ya que el principal mercado del fabricante americano son los componentes de gestión de potencia. Por tanto, incluye una gran librería de estos componentes y en su página se pueden observar varios tutoriales para analizar circuitos. El NE555 forma parte de sus librerías por lo que no hay que crear uno. Sin embargo, los modelos del transistor y del diodo deben incluirse usando la tarjeta .MODEL. Ambos semiconductores son de propósito general, pero vamos a poner aquí los modelos para poder incluirlos en el circuito.

Tarjetas .MODEL para el transistor y el diodo

Una vez incluidos ambos modelos, se realiza un análisis transitorio de 30ms. Para ver el funcionamiento, representaremos primero la caída de tensión en R5 en todo el rango del tiempo. Luego, iremos representando cada uno de los parámetros importantes del convertidor.

Para todo el tiempo de simulación, la tensión en R5 es

Tensión en la resistencia R5 en todo el rango de simulación

Podemos observar que hay un impulso amortiguado en el arranque, debido a la respuesta paso bajo que realiza la bobina L1 con el condensador C4, que es el que realizará el filtrado de las componentes de alterna. La amortiguación es prácticamente inmediata, cayendo 7V en 2,85ms. En dos oscilaciones más (a 8,55ms del arranque), la tensión se comienza a estabilizar hasta que se mantiene constante.

Vamos a ver ahora qué ciclo de trabajo se utiliza para obtener esta respuesta. El ciclo lo proporciona el NE555, por lo que estudiamos la onda a la salida de este integrado. Esta es

Señal de control a la salida del NE555

 donde se puede ver que la señal de control tiene una frecuencia de 47kHz y un ciclo de trabajo del 78%. Con esos valores, analizamos primero los resultados obtenidos en régimen permanente, que son los siguientes

Tensiones y corrientes en el convertidor

donde se miden las corrientes en la bobina L1 y la carga R5, así como las tensiones en el colector de Q1 y en la carga R5. De estos resultados se obtiene que la tensión de salida del conversor es 13,3V, con un rizado de ±60mV. La corriente en la carga es del orden de 60,5mA, lo que implica una potencia entregada a la carga de 805mW. La corriente media que se pide a la batería es la que circula por la bobina L1 y es del orden de 275mA, lo que significa que se pide a la batería una potencia de 880mW. Teniendo en cuenta la potencia entregada a la carga, el rendimiento del “boost” es η=805/880=0,92=92%, una eficiencia muy buena para un conversor DC-DC.

El transistor Q1 está sobredimensionado, se podría colocar un transistor de menos potencia para lograr la misma eficiencia (por ejemplo un BC337) y consumo. El circuito está pensado para ser usado con una batería de 3,2V y 2000mAh, por lo que a máximo consumo la batería durará 7h. Es un convertidor idóneo si no se quiere acudir a uno comercial y se quiere montar con componentes fáciles de localizar en una tienda de componentes electrónicos, ya que el NE555 y el BC337 son de uso muy común, así como los componentes pasivos.

Una de las ventajas de LTSpice sobre otros simuladores similares es que se puede ver la simulación en tiempo real, ya que actualiza los datos representados en las gráficas según va obteniendo los resultados, pudiendo detener o pausar la simulación en cualquier momento.


Como hemos dicho, el simulador LTSpice es una versión de SPICE desarrollada por Linear Tech. para la simulación, preferentemente, de los componentes que comercializa este fabricante. Otros fabricantes, como Texas Instruments, también ponen a disposición de los diseñadores un software de simulación similar, llamado Tina-TI, que se puede encontrar en su página web y que es de distribución libre. Como LTSpice, Tina-TI incluye las librerías de componentes comercializados por Texas Inst., aparte de las librerías convencionales de componentes de propósito general, por lo que es un simulador dispuesto para el uso una vez descargado en instalado.

En este caso, nuestro diseño toma la siguiente forma

Esquema del convertidor en Tina-TI

En este caso, para estudiar las tensiones y corrientes ponemos puntos de test de corriente en serie con la bobina y la carga, así como de tensión en paralelo con el transistor y la carga. En este caso no es necesario incluir la tarjeta .MODEL ya que tanto el transistor como el diodo tienen incluidos sus modelos en la librería. La simulación, como en LTSpice, se puede visualizar en tiempo real, pudiendo también detenerla o pausarla.

Los resultados obtenidos con Tina-TI son los siguientes

Resultados obtenidos con Tina-TI

donde se puede observar una muy ligera variación en los valores de tensión y corriente, una desviación del orden de un 1,2% que es un valor muy aceptable. Por tanto, Tina-TI también es un simulador adecuado para analizar este tipo de circuitos.


El objetivo de la entrada era no sólo mostrar un diseño sencillo de “boost” con componentes de propósito general, sino además comparar dos simuladores de código libre y que son bastante potentes, puestos a disposición del ingeniero junto con unas librerías y actualizaciones periódicas de las mismas que permiten aumentar la capacidad del simulador. Para mi gusto, llevo trabajando más tiempo con LTSpice y es más intuitivo y de fácil manejo, aparte de que permite una jerarquía esquemática para los subcircuitos más sencilla. Su manual de ayuda también es bastante claro. Tina-TI no ofrece la posibilidad de jerarquía en el esquemático, pero tiene una librería de más de 20.000 componentes, además de macros ya realizadas para circuitos integrados del fabricante. Incluye además la posibilidad de trazar los resultados con instrumentos como el osciloscopio, multímetro o analizador de señal.

En cuanto a las presentaciones, LTSpice es más cómodo a la hora de representar los resultados, ya que basta con poner el puntero sobre el punto a testar: si es un nodo, se mide tensión, y si es un componente, corriente, mientras que Tina-TI debe de incluir componentes de test. De este modo, el esquemático de LTSpice queda limpio de componentes de test, aunque en éste también se pueden incluir. En ambos, sin embargo, se sigue echando de menos la posibilidad de realizar cálculos con los resultados obtenidos, como ocurre con otros simuladores más potentes. Sin embargo, son herramientas muy útiles para analizar sistemas electrónicos, y por tanto, recomendables para el diseñador.


  1. Martínez García, Salvador; Gualda Gil, J. Andrés., “Electrónica de Potencia: Componentes, topologías y equipos”, Madrid : Thomson Editores Spain, 2006. ISBN 978-84-9732-397-0
  2. Getting started with LTSpice
  3. Soluciones para LTSpice
  4. Getting started with Tina-TI
  5. Documentos técnicos y blogs para Tina-TI

(Las referencias 2 a 5 contienen enlace para acceder a las páginas de Linear Technology y Texas Instruments)

Ajustando filtros mediante el método de Dishal

filtroEn Telecomunicaciones es usual tener que usar filtros para poder eliminar frecuencias indeseadas. Estos filtros suelen ser de bandas muy estrechas y se suelen utilizar técnicas de líneas acopladas, por lo que en la mayor parte de los diseños se debe recurrir a la simulación electromagnética para verificar el diseño. La simulación electromagnética, aunque es una potente herramienta, suele ser lenta si se desea optimizar mediante algoritmos convencionales. Aunque estos algoritmos están incluidos en la mayor parte de los simuladores electromagnéticos, ya sea en 2D o en 3D, si la respuesta del filtro está muy alejada de la deseada, la optimización suele ser muy lenta, por lo que se requieren otros métodos que permitan ajustar previamente antes de realizar una optimización final. Uno de los métodos es el de Dishal, en el que se puede sintonizar un filtro de varias secciones a base de sintonizar cada una de ellas. En esta entrada, sintonizaremos un filtro microstrip de tipo HAIRPIN, de resonadores λ/2 acoplados, usando un simulador electromagnético como HPMomentum.

Los filtros son los dispositivos más comunes que se usan en Telecomunicaciones. Eliminan las frecuencias interferentes y el ruido, pudiendo procesar la señal recibida o transmitida de una forma más eficiente. Tienen bastante literatura para su diseño, y existen muchas combinaciones para obtener su respuesta. Sin embargo, es uno de los dispositivos en los que es más difícil obtener un óptimo resultado. Su sintonía física requiere habilidad y entrenamiento, y su sintonía en simulación paciencia y tiempo. Sin embargo, existen técnicas que permiten la optimización de un filtro a base de usar metodologías de ajuste que permita acercarse a los parámetros ideales del filtros. Una de metodología que permite sintonizar un filtro de forma sencilla es el método de Dishal y es el que vamos a usar para sintonizar un filtro paso banda HAIRPIN para la banda de subida de LTE-UHF.

Esta metodología permite realizar el ajuste de un filtro paso banda acoplado sintonizando tanto de los factores de calidad Qi y Qo que necesita el filtro para ser cargado, como de los factores de acoplamiento Mi,i+1 que acoplarán las diferentes etapas, de forma independiente. Estos parámetros son calculados a través de los parámetros del filtro prototipo, que se pueden obtener ya sea a través de las tablas presentes en cualquier libro de diseño de filtros como en programas de cálculo como MatLab. Las expresiones para calcular los parámetros fundamentales de un filtro paso banda acoplado son

Q_i=\dfrac {g_0g_1}{FBW}

Q_o=\dfrac {g_ng_{n+1}}{FBW}

M_{i,i+1}=\dfrac {FBW}{\sqrt{g_ig_{i+1}}}

FBW=\dfrac {f_h-f_l}{f_0}



donde fh y fl son las frecuencias de corte de la banda pasante, f0 es la frecuencia central y FBW el ancho de banda fraccional. Los valores son los coeficientes del filtro prototipo normalizado. Con estos valores obtendremos los parámetros de acoplamiento de nuestro filtro.


Vamos a desarrollar un filtro paso banda en tecnología microstrip, usando una configuración HAIRPIN de resonadores λ/2 acoplados. En este filtro, la línea resonante es una línea λ/2, que se acopla al siguiente resonador mediante la sección λ/4. O más concretamente, entre un 85 y un 95% de λ/4. Su denominación HAIRPIN es debida a que tiene forma física de peine. Nuestro filtro va a tener las siguientes características fundamentales:

  • Banda pasante : 791÷821MHz (banda de UHF para LTE de subida)
  • Número de secciones: 5
  • Tipo de filtro: Chebychev 1
  • Factor de rizado: 0,1dB
  • Impedancias de generador y carga: 50Ω

Con estos valores acudimos a las tablas para obtener los coeficientes g0..g6 del filtro prototipo y aplicando las expresiones anteriores obtenemos que

  • Qi=Qo=30,81
  • M12=M45=0,0297
  • M23=M34=0,0226

Con estos coeficientes se pueden calcular las impedancias Zoe y Zoo que definirán las líneas acopladas, así como la posición de los feeds de entrada y salida. En este último caso, esta posición se puede obtener a partir de

t=\dfrac {\lambda}{4\pi} \sin^{-1} \sqrt {\dfrac {\pi}{2Q_{i/o}}\dfrac {Z_G}{Z_L}}


Como soporte vamos a usar un substrato Rogers, el RO3006, que tiene una εr=6,15, usando un espesor de 0,76mm y 1oz de cobre (35μm). Con este substrato, el filtro obtenido es:


y con estos valores, pasaremos a la simulación.


Usando HPMomentum, el simulador electromagnético de ADS, vamos a poder simular la respuesta de este filtro, que se puede ver en la siguiente gráfica

Resultado de la simulación del filtro

Resultado de la simulación del filtro

que, la verdad sea dicha, no se nos parece ni por asomo a lo que pretendíamos realizar. El filtro está cerca de la frecuencia f0, tiene un ancho de banda de 30MHz, pero ni está centrado ni el rizado es, ni de lejos, 0,1dB. Por tanto, habrá que recurrir a una sintonía usando el método de Dishal y así llevar el filtro a la frecuencia deseada, con el acoplamiento deseado.

Buscando la posición del alimentador

Buscando la posición del alimentador


En primer lugar vamos a ajustar los factores de calidad de los resonadores de generador y de carga, que tienen que ser de 30,81. Como ambos son iguales, la sintonía obtenida servirá para los dos. Para ajustar los Qi y Qo, tendremos que buscar la posición adecuada de la alimentación para que el valor sea el deseado.

Para calcular el Qext, se evalúa el coeficiente de reflexión del resonador y se obtiene su retardo de grupo. El factor de calidad será

Q_{ext}=- \dfrac {d(phase(S_{11}))}{df}f_0

 Cuando hacemos la primera simulación y representamos Qext, obtenemos


donde se puede comprobar que ni el filtro está centrado ni su factor de calidad es el deseado. Para centrar el filtro, aumentamos la distancia entre las líneas en 1,1mm y recortamos las líneas resonantes en 0,34mm. De este modo, obtenemos


en el que ya están centradas las líneas, siendo el Qext de 37,28. Ahora aumentamos la distancia del feed al extremo de la pista en 0,54mm y obtenemos el Qext deseado.


Ya tenemos centrado el filtro y con el Qext requerido. Ahora tocaría ajustar los acoplamientos.


Para ajustar los acoplamientos, primero separamos el feed unos 0,2mm de la línea, y hacemos un espejo de la misma para que quede como sigue


En este caso, para medir el acoplamiento usamos los picos que salen en la transmisión (S21), y aplicamos la expresión

M=\dfrac {f_h^2-f_l^2}{f_h^2+f_l^2}


El resultado de la simulación, para el primer acoplo, es


que como podemos comprobar está en el valor requerido.

En el caso del segundo acoplo


que también está cerca de su valor requerido. Por tanto, con los cambios obtenidos, simulamos el filtro total y obtenemos

Filtro después de la primera sintonía

Filtro después de la primera sintonía

que ya se acerca al filtro deseado.


Si reiteramos sobre la sintonía, podremos llegar a mejorar el filtro hasta los valores que deseemos. Así, disminuyendo el Qext obtenemos

Disminución del Qext

Disminución del Qext

que supone ya una mejora importante. Jugando ahora con los acoplamientos, disminuyéndolos, llegamos a obtener


Ajuste de los acoplamientos

que podemos dar por válido. Por tanto, el método de Dishal nos ha permitido, a partir de los parámetros calculados, ajustar el filtro hasta obtener las características deseadas.


Hemos analizado el método de Dishal como herramienta para el ajuste y sintonización de un filtro paso banda de 5 secciones, con óptimos resultados. La sencillez del método permite ajustar los principales parámetros de forma independiente, de manera que el ajuste final u optimización sean más sencillas, cosa de agradecer en simuladores electromagnéticos, que requieren de potencia de cálculo y tiempo de simulación. Vemos que el método, realizado paso a paso, nos permite ir ajustando las características hasta obtener el resultado deseado, por lo que podemos concluir que es un método muy útil en sintonización de filtros, tanto en discretos como en distribuidos, y que bien usado permite acercarse lo suficientemente al resultado final como para que la optimización electromagnética sea innecesaria.


  1. Zverev, Anatol I., “Handbook of Filter Synthesys”, Hoboken, New Jersey : John Wiley & Sons Inc., 1967. ISBN 978-0-471-74942-4.

¿Fallan las encuestas electorales?

14665983216010Las recientes elecciones del día 26 vuelven a mostrar una discrepancia entre las encuestas electorales y los resultados finales. Tal ha sido la diferencia que, una vez más, se vuelve a dudar de la eficacia de las mismas como barómetro sociológico. Aprovechando las últimas entradas referentes a la Estadística, en ésta vamos a aclarar algunos términos que muestren la diferencia entre las encuestas y el muestreo final que corresponde a datos corroborados, como son las propias elecciones. Conocer estas diferencias es lo que ayudará a dar las encuestas el justo valor que se merece, sin convertirlas en algo que se tiene que cumplir necesariamente.

Como en otras ocasiones, las encuestas y los sondeos han mostrado una diferencia abismal entre las tendencias recogidas y los datos finales. Y una vez más, se vuelve a cuestionar al mensajero, porque se ha equivocado. Sin embargo, no hay tanto error, puesto que la metodología de la encuesta es correcta, sino más bien deseos de que esos resultados se reproduzcan de este modo.

Una encuesta es un estudio sociológico. Con ella se pretende tomar el pulso a una sociedad muy diversa y a la que le afectan muchas variables, muchas veces incontroladas. Se trata, pues, de indagar cómo respira un sistema caótico como es una sociedad en determinadas circunstancias y en presencia de determinados estímulos externos, a partir de la elaboración de una serie de preguntas concretas, cuya finalidad es intentar conocer lo que los humanos guardamos en mente sobre algo determinado. Sus resultados no están, por tanto, basados en datos objetivos fruto de una medición empírica, como lo es un resultado electoral, sino que son la tendencia que se puede obtener en un determinado momento de una situación a base de conocer esas respuestas. Si la metodología aplicada en la elaboración de las preguntas es correcta, los resultados también son, en ese momento correctos. Otra cosa es que se consideren esos resultados como definitivos, ya que definitivo sólo es el resultado de la medición objetiva. Una variación en las condiciones de contorno o en los estímulos externos puede variar una opinión determinada en un momento determinado.

¿Dónde vas este año de vacaciones?

Una pregunta que nos suelen hacer muy a menudo: ¿dónde vas a ir de vacaciones este año? La respuesta variará claramente en función de cuándo te hagan la pregunta. No es lo mismo que la hagan en marzo, a 5 meses de coger las vacaciones, que en junio. Depende de otras variables claras, como la situación económica, las ofertas de las agencias de viajes, si vas a ir sólo con tu familia o vas a compartir las vacaciones con otra familia amiga… Nuestra respuesta está supeditada al estímulo externo y no a un patrón determinado que marque qué es lo que voy a hacer en dos o tres meses, porque es posible que ni lo haya planificado ni lo vaya a planificar.

No obstante, en una campaña electoral, en la precampaña y sobre todo, si ha habido 6 meses de intentos infructuosos de formar un gobierno, los estímulos han sido continuos y a veces pueden provocar reacciones contrarias y efectos contraproducentes. Y el manejo de los sondeos debe de hacerse con prudencia espartana, puesto que pueden producirse descalabros como el del 26-J. Sin embargo, ha habido mucha proliferación de sondeos, casi uno cada día, cuya finalidad también puede haber sido marcar un paso o un objetivo, y ese uso indiscriminado se ha dado de bruces con el frío, duro y descarnado resultado de la medición objetiva. Aquí no cabe preguntarse si las encuestas están mal hechas, sino si ha habido intención de utilizar esa información de forma interesada y sesgada para forzar el resultado que le gustaría al que la maneja. Porque en realidad, eso es lo que ha ocurrido: se ha querido transformar anhelos en realidades.

La imposibilidad de predecir con exactitud los sucesos en un sistema caótico

Como la previsión atmosférica, la sociedad es un sistema caótico difícilmente predecible. Cuando se predice el tiempo, se acuden a modelos en los que se introducen las variables y se estudian tendencias. Se estudian también las evoluciones de días anteriores, se hacen análisis estadísticos aleatorios basados en Monte Carlo como el que he mostrado en las entradas técnicas, y con todos esos datos, se lanza una previsión. Pero, ojo, se trata de una previsión, que no una confirmación. Esa previsión se hace con un margen de probabilidad que dependerá también de las variables que afecten al sistema en ese momento y en su falta de aislamiento frente a otros estímulos. Así, que no llueva en Santander por el viento sur no es debido a que el viento sur sea una característica típica de Santander (lo que llamamos clima local), sino que detrás de la cordillera, con un clima local diferente, cambie una variable que por efecto de acción y reacción provoque precisamente la aparición del viento sur. La previsión es correcta siempre que se tenga en cuenta la probabilidad de que ocurra, dato objetivo basado en la fiabilidad del modelo que en muchas ocasiones ni se contempla ni se tiene en cuenta. Y tomamos la decisión de ir de vacaciones a Santander basándonos en esa previsión, sin analizar las probabilidades de que nuestras vacaciones terminen pasadas por agua porque los meteorólogos han dicho que va a hacer buen tiempo.

Pues no, los meteorólogos han previsto una situación atmosférica en función de los datos registrados. Eres tú el que quiere que haga buen tiempo, porque te interesa. Es el famoso sesgo de confirmación. Y claro, si tus vacaciones se van al traste, no hay nada mejor que echar la culpa al hombre del tiempo, como si éste no te hubiese dado todos los datos, probabilidad incluida, de qué es lo que podría ocurrir. Al que no le ha interesado el resto de los datos es a ti. El principal interesado en coger la parte bonita de la previsión porque entra en sus planes de vacaciones eres tú. El meteorólogo sólo ha hecho el trabajo de darte los datos, pero la decisión la tomas tú. Por eso, echar la culpa de una decisión malograda a la persona que te proporciona los datos, cuando no los has usado todos, sólo sirve de consuelo. Pero el hecho claro, el dato objetivo principal es que la decisión de ir a un sitio donde parecía que no iba a llover la has tomado tú.

¿Qué fiabilidad tienen las encuestas?

Como hemos visto en las entradas anteriores, la fiabilidad estadística en un sistema no determinista como el social depende, sobre todo, abaco blogdel tamaño de la muestra. A mayor muestra, mayor convergencia. Tanto en las mediciones objetivas como en los estudios sociológicos humanos. Hace unos años publiqué una entrada sobre los sistemas caóticos, recordando el experimento del triángulo claveteado y la canica. Este fue uno de los primeros experimentos que tuve que hacer en la asignatura de Física General, en mi época de estudiante, y debería ser obligatorio para todos los alumnos, como en Termodinámica y Mecánica Estadística fue obligatorio el de la Teoría Cinética de los Gases.

El experimento es muy sencillo: se trata de arrojar un número de canicas en un triángulo de madera que contiene filas de clavos colocadas como se describe en la figura. Al bajar la canica y pasar entre dos clavos, se encuentra con el siguiente, y el choque y el efecto de bajada hará que tome una dirección u otra. El resultado final, después de tirarte tres días tirando canicas y contando posiciones (unas 5.000 canicas), tiende a ser una distribución gaussiana. ¡Ojo! he dicho tiende, porque si se dibuja la gráfica de la función y se compara con la gráfica real obtenida, se verá que los resultados obtenidos y la curva gaussiana tienen ligeras divergencias. Nos proporciona la información de cómo puede caer una canica, pero hasta que no la tires (decisión), no puedes saber con exactitud dónde caerá.

El censo electoral de 2016 tiene inscritos a 36 millones y medio de electores. Con este tamaño objetivo de muestra, hacer fiable una encuesta de 2.000 posibles electores es bastante difícil, teniendo en cuenta la distribución de población española. No proporcionará los mismos resultados una pregunta hecha en Castilla-León o La Rioja que en Andalucía, Cataluña o Madrid. Esto es un hecho que se tiene que dar por descontado: la fiabilidad de una encuesta depende también de que la muestra, que ya es un 0,055‰ de la muestra real, sea además una representación lo más fiel posible de la realidad social de la población española. Representación bastante difícil de lograr, puesto que la diversidad de la sociedad española depende de su situación geográfica, del nivel económico de la zona, de las necesidades que se tienen, etc. Son muchas variables no controlables a tener en cuenta para lograr una fiabilidad al 100%. Por tanto, a la encuesta hay que darle un grado de confianza similar al que habría que darle a la previsión meteorológica: que es una previsión, una tendencia, pero que para nada es un dato objetivo final y que puede estar sometido a vaivenes incontrolables debido a los estímulos que afecten a la sociedad, y que no es responsabilidad de los encuestadores la existencia de esos estímulos.

Como experto en simulación que soy, tengo muy claro que no me fío de los resultados de una simulación hasta que no tengo completamente probado todo. La simulación me permite conocer de antemano tendencias y tomar una decisión, pero para nada es un resultado absoluto, ya que depende de variables que, si no las tengo definidas y las meto en el sistema, pueden proporcionarme resultados físicos contradictorios. Por eso, la simulación y la medida son experiencias interactivas, como lo deben ser las encuestas.

Este aluvión de encuestas y sondeos, con la inclusión del ya famoso mercado de la fruta andorrano, ha hecho que la campaña se haya dirigido más a tratar de cumplir los vaticinios que a estudiar los vaivenes sociales. Se ha tratado más de lograr aproximar los optimistas datos de las encuestas al resultado objetivo de la medición, que son las elecciones generales, sin tener en cuenta que esos datos sólo eran previsiones puntuales. Y esto ha provocado en muchas personas una sensación brutal de frustración. Una frustración similar a la que sufrió el veraneante que fue a Santander pensando en la bonita previsión del tiempo y tuvo que comprarse un paraguas porque en la vecina provincia de Burgos cambió la presión atmosférica debida a un cambio brusco de temperatura.

No obstante, tiene que seguir habiendo encuestas. No se puede pretender conocer la realidad de una sociedad sin preguntar y esto se tiene que seguir haciendo. Pero siempre sin perder el norte: no es un dato objetivo fruto de una medición definitiva, sino la trayectoria de la canica o el hecho de que en Burgos haya caído la temperatura. Y eso tiene que ser correctamente utilizado por quienes necesitan pulsar a la sociedad.1466915869_295178_1466977429_noticia_normal


Análisis estadísticos usando el método de Monte Carlo (y III)

imagesCon esta entrada cerramos el capítulo dedicado al análisis de Monte Carlo. En las dos entradas anteriores vimos cómo se podía usar éste método para analizar los eventos que pueden ocurrir en un dispositivo electrónico, sino también lo que sucede cuando tenemos variables correladas y cuando sometemos al circuito a un ajuste posproducción. Estos análisis son estimables, puesto que nos permiten conocer previamente el funcionamiento de nuestro circuito y tomar decisiones acerca del diseño, elegir las topologías y componentes adecuados y realizar un primer diseño en el que se optimice al máximo el comportamiento del nuestro circuito. En esta entrada vamos a ver un ejemplo, incluyendo un factor que suele ser importante y que tampoco se suele tener en cuenta en las simulaciones, y que es el análisis térmico. En este caso, utilizaremos un amplificador de potencia diseñado para trabajar en conmutación, que alimenta a una carga. El objetivo es encontrar el componente más sensible en el amplificador y poder elegir la topología o componente adecuados para que el circuito siga funcionando en todas las condiciones definidas.

Hemos visto lo útil que puede llegar a ser el análisis de Monte Carlo para elegir topologías y componentes, e incluso para definir el ajuste que tenemos que hacer en el caso de que se produzca defectivo durante un proceso de fabricación. Este análisis reduce el tiempo de desarrollo físico, porque proporciona de antemano una información importante de cómo se va a comportar nuestro diseño, antes de montarlo y evaluarlo. No obstante, hay que llegar más allá, rizando el rizo, y añadiendo el comportamiento térmico.

Los dispositivos electrónicos están no sólo sometidos a variaciones de valores nominales, debidas a su estructura física, sino que también presentan variaciones térmicas en función de la temperatura a la que estén sometidos en su funcionamiento. Los dispositivos que más suelen sufrir estas variaciones térmicas suelen ser aquellos que disipan elevadas cantidades de potencia, como las fuentes de alimentación, los microprocesadores y los amplificadores. Las variaciones térmicas desgastan el componente y comprometen su vida útil, reduciendo su vida media cuando trabajan al límite. Si hacemos estos análisis previamente, podemos marcar las pautas para lograr el mejor funcionamiento posible y obtener un diseño que garantice una vida media suficiente.

Estudio sobre un amplificador de potencia

A continuación vamos a estudiar el efecto producido sobre un amplificador de potencia en clase E, como el de la figura.

Amplificador clase E con MOSFET

Amplificador clase E con MOSFET

Este amplificador proporciona a una carga de 6+j⋅40Ω, a 1,5MHz, una potencia de AC de 23W, con una eficiencia del 88% sobre la potencia DC entregada por la fuente de alimentación. El MOSFET, que es el elemento que más se calienta cuando está disipando la potencia de conmutación, que es del orden de 2,5W, es el elemento más crítico del sistema, ya que hay que garantizar una extracción del calor que haga que su unión no se rompa por superar la temperatura de unión. El valor máximo que puede alcanzar dicha temperatura es 175ºC, pero se establece una temperatura de seguridad de 150ºC. Por tanto, el diseño realizado debe de ser capaz de soportar cualquier variación de potencia AC que pueda superar la temperatura máxima, no sólo en condiciones normales (a temperatura ambiente de 25ºC), sino incluyendo las variaciones que se puedan producir en el consumo del dispositivo activo debido a las tolerancias de los componentes.

En este circuito, los componentes más críticos, aparte de la dispersión que presenta el propio MOSFET, son los componentes pasivos. Estos componentes forman parte de la red de adaptación, que transmite la máxima energía desde la alimentación a la carga y provocan una variación en la respuesta del drenador que influye en su consumo. Siendo potencias considerables, con valores superiores a 10W, la variación de carga provocará variaciones importantes en la potencia disipada en el MOSFET y su estudio nos mostrará las necesidades para la extracción del calor generado en el MOSFET por efecto Joule.

Análisis estadístico en condiciones normales

Lo primero que tenemos es que analizar el circuito en condiciones normales de laboratorio (25ºC, 760mmHg, 50-70% de humedad relativa) y ver las variaciones que presenta, sólo por tolerancias. Consideramos tolerancias gaussianas de ±5% en valores límite, y analizamos exclusivamente las tolerancias en estas condiciones, para un 500 eventos. De esta manera podemos ver cómo afectan los componentes a la respuesta del circuito a través de la siguiente gráfica


Potencia de DC y potencia en la carga, frente a número de eventos

El histograma azul representa la potencia de DC suministrada por la carga, cuyo valor central máximo es de 26,4W, mientras que el histograma rojo es la potencia transferida a la carga, cuyo valor central máximo es de 23,2W. Esto representa un 87,9% de eficiencia en la entrega de potencia. La desviación estándar de la potencia de carga es ±1,6%, lo que significa una tolerancia de ±6,5% en los valores límite. Bajo estas condiciones, podemos representar la potencia disipada del MOSFET, que se puede ver en la siguiente gráfica

Potencia disipada en el MOSFET vs. número de eventos

Potencia disipada en el MOSFET, frente al número de eventos

donde obtenemos una potencia media de 2,9W y una desviación estándar de 1,2W. Esto significa que la potencia máxima puede llegar a ser del orden de 7,8W.

Si calculamos con estos valores la diferencia entre la temperatura de la unión y la ambiente, teniendo en cuenta que las resistencias térmicas Rth-JC=1,7K/W y Rth-CH=0,7K/W, y usando un disipador con una resistencia térmica en condiciones de ventilación no forzada de Rth-HA=10K/W, se puede obtener, para una Tamb=25ºC

T_j=25+7,7 \cdot (0,5+1,7+10)=118,95^oC

Por tanto, a 25ºC, con una refrigeración no forzada, la temperatura de la unión está a 118,95ºC en el valor límite de potencia consumida por el MOSFET, proporcionándonos un margen suficiente sobre los 150ºC máximos a los que la unión se rompe.

Análisis estadístico para tres temperaturas

El análisis anterior nos garantiza un correcto funcionamiento en condiciones normales, pero, ¿qué ocurre cuando subimos o bajamos la temperatura? Vamos a analizar bajo tres condiciones de temperatura: 0ºC, 25ºC y 50ºC, y para representarlo usaremos un histograma multidimensional, en el que agruparemos todos los eventos sin discernir temperaturas. De este modo obtenemos

Potencia de DC y potencia en la carga, frente a número de eventos y temperatura

Potencia de DC y potencia en la carga, frente a número de eventos y temperatura

donde la potencia media entregada a la carga, en todas las condiciones, es 22,6W, para todas las condiciones térmicas, y la eficiencia media es del 86,6%, cubriendo el rango de temperaturas entre 0ºC y 50ºC.

Analizando ahora la potencia disipada por el MOSFET, en las mismas condiciones


Potencia disipada en el MOSFET, frente al número de eventos y la temperatura

donde calculando el valor medio, se obtiene 2,9W, con un máximo de 7,8W. Estos valores, similares al calculado anteriormente, muestran que la máxima temperatura de la unión va a ser 143,95ºC, a 7ºC de la temperatura máxima de seguridad de 150ºC, y por tanto a 32ºC de la temperatura máxima de la unión.

Por tanto, podemos concluir del análisis que el circuito diseñado, bajo las condiciones de temperatura ambiente de 0ºC a 50ºC, y siempre con un disipador con una resistencia térmica en ventilación no forzada de Rth-HA=10K/W, presentará un funcionamiento óptimo para el rango de potencia de carga.


Con esta entrada finalizamos el capítulo dedicado al análisis usando el método de Monte Carlo. Con los análisis realizados, hemos cubierto la optimización de características a través de diferentes topologías, el ajuste posproducción en un proceso de montaje industrial y el análisis térmico para comprobar los límites de seguridad en los que trabaja un circuito de potencia. No obstante, el método proporciona muchas más posibilidades que se pueden explorar a partir de estos sencillos experimentos.


  1. Castillo Ron, Enrique, “Introducción a la Estadística Aplicada”, Santander, NORAY, 1978, ISBN 84-300-0021-6.
  2. Peña Sánchez de Rivera, Daniel, “Fundamentos de Estadística”, Madrid,  Alianza Editorial, 2001, ISBN 84-206-8696-4.
  3. Kroese, Dirk P., y otros, “Why the Monte Carlo method is so important today”, 2014, WIREs Comp Stat, Vol. 6, págs. 386-392, DOI: 10.1002/wics.1314.

La estadística y su correcto uso

importancia-graficos-estadistica_image007Una de las herramientas más usadas en la actualidad, sobre todo desde que tenemos máquinas que son capaces de computar muchos datos, es la estadística
. Se trata de una potente herramienta que, bien utilizada, puede proporcionarnos previsiones, sobre todo en sistemas caóticos. Dentro de este tipo de sistemas podemos incluir desde fenómenos atmosféricos a comportamientos de grupos humanos, aunque también se usa para resolver problemas en sistemas deterministas, cuando aparecen fenómenos no previstos que hay que corregir. En estos tiempos, el uso de la estadística se ha extendido a todos los ámbitos, si bien hay que responder a una clara pregunta: ¿de veras sabemos utilizarla? ¿O sólo extraemos las conclusiones que a nosotros nos interesan? En esta entrada voy a tratar de mostrar algunos términos que hay que tener en cuenta en la mecánica estadística y cómo se deberían interpretar sus resultados.

 Por estadística podemos entender dos cosas:

  • Es la herramienta matemática que utiliza conjuntos de datos numéricos, que representan sucesos, para obtener resultados basados en el cálculo de probabilidades.
  • Es el estudio que reúne y clasifica todos los sucesos que posean alguna característica en común, para que con esa clasificación se puedan extraer conclusiones.

En estas dos definiciones tenemos dos conceptos diferentes: el primero, la estadística como disciplina matemática mecánica, con unas reglas claras basadas en la clasificación y el cálculo de probabilidades. Una herramienta que casi todas las disciplinas humanas, ya sean científicas, tecnológicas o sociales, tienen que usar para extraer conclusiones.

Por otro lado, tenemos el estudio estadístico, que no es estadística como disciplina, pero que se suele utilizar dicho término para referirse a él. La segunda definición está englobada en la primera, porque el estudio estadístico es el recuento de determinados sucesos para extraer una conclusión. Por tanto, la estadística, como tal, no muestra resultados, sólo clasifica los sucesos. Sólo nosotros somos los capacitados para interpretarlos.

Una de las frases a las que suelo recurrir muchas veces, cuando alguien me blande estadísticas como hechos incontestables, es un estudio estadístico muestra que las personas comemos un pollo a la semana. Esta semana yo me he comido dos pollos y tú ninguno, así que te deseo que te siente bien el pollo que no has comido. Uno de los mayores errores que se pueden cometer es el considerar a la estadística como un hecho incontestable, cuando sólo son datos agrupados. El hecho, que puede ser incontestable o no, es la interpretación que podamos hacer de esos datos, y ésta puede ser errónea si no aplicamos las reglas mecánicas de la estadística. Estas reglas se encuentran en la Teoría de Probabilidades, donde se definen una serie de herramientas a tratar en la disciplina para lograr obtener mejores interpretaciones. Si estas reglas no son utilizadas, las interpretaciones pueden ser de lo más variopintas.

La importancia de la estadística es tal, que hasta los Estados tienen departamentos exclusivos para trazar los estudios, interpretar los resultados y poder actuar en función de los mismos. El problema radica en cuando se transmiten esos datos a la sociedad, cómo se transmiten, qué porcentajes de error pueden presentar, qué correlación existe entre los sucesos y que conclusiones extrae el que los maneja, que es el que conoce todos los datos y los ha interpretado. Hay que tener en cuenta que la mayor parte de la población no tiene porqué saber más estadística que la estudiada en las matemáticas de la ESO y el Bachillerato, y que la estadística es una mecánica mucho más compleja que contar las caras de un dado y asignar una probabilidad.

Los sucesos, lo único medible de la estadística

Los sucesos, en la estadística, son los datos que se quieren medir. Y los sucesos pueden ser de varios tipos: elementales, compuestos, seguros, imposibles, compatibles, independientes, dependientes y contrarios. Dependiendo de lo que se vaya a estudiar, hay que clasificar los sucesos, que es lo único medible de la estadística.

Los sucesos, de por sí,  no proporcionan conclusiones. Las conclusiones se obtienen de su clasificación. Y la clasificación, para que las conclusiones sean realmente resultado de un estudio estadístico, son fruto de pasar por las reglas establecidas en la mecánica estadística.

Un ejemplo de violación de las reglas estadísticas se pueestudiode ver en el reciente debate de 13-J, donde los cuatro líderes de los partidos principales son sometidos al juicio del público. Según la captura de imagen, uno de los líderes ya era ganador antes de que el suceso medible ocurriese.

En cierto modo, podríamos pensar que la foto está trucada, y es una posibilidad a tener en cuenta, pero teniendo en cuenta también  que dicha estadística no pasa por las reglas establecidas de la estadística, independientemente de que sea o no verdadera la foto, los resultados no se pueden presentar como un estudio estadístico y sus conclusiones posteriores no se pueden tomar como válidas, aunque a algunos les guste el resultado.

Es en este punto cuando la estadística toma su más siniestra utilización: manipulación de los resultados.

El incorrecto uso de la estadística: la manipulación

Debido a que la mayoría de la población desconoce las reglas establecidas para el estudio estadístico (definición de sucesos, tamaño de las muestras, criterios de medición, estimaciones sobre resultados, contrastes de hipótesis, etc.), aquí vuelve otra vez a aparecer mi frase favorita acerca del consumo de pollo por la población: se publican los resultados y no los criterios que han llevado a esos resultados, por lo que aparece un elemento de manipulación evidente, ya que se están utilizando los datos bajo criterios evidentemente orientados a conseguir una respuesta determinada. La estadística no tiene esa función, su función es proporcionarnos los datos para mostrarnos tendencias que permitan corregir aquellas cosas que necesiten corrección, o poder determinar resultados cuando los sistemas son caóticos.

falsa encuestaHemos visto lo que un periódico digital publica antes de tiempo, pero podemos ver otra encuesta en la que también se observa una clara manipulación, ésta cortesía de 13TV. En esta “encuesta” se pregunta a los telespectadores quién ha ganado el debate del pasado lunes. Recordemos que en ese debate había cuatro líderes políticos, y la cadena de la Conferencia Episcopal ha eliminado, de un plumazo, a dos de ellos.

Podemos entender que no son santo de devoción ni de los periodistas de la cadena ni de sus principales accionistas, pero teniendo en cuenta quiénes son esos accionistas, tendrían que pensar en cierto mandamiento que ellos deberían cumplir a rajatabla porque forma parte de su doctrina: “No levantarás falso testimonio ni mentirás”. Parece ser que aquí se vuelve a recurrir al maquiavélico principio de que “el fin justifica los medios”, pero no sabía que la Iglesia Católica española tuviese al célebre escritor renacentista florentino entre sus bases doctrinales.

Podemos poner más ejemplos de encuestas y estudios estadísticos sesgados, más orientados a obtener una respuesta en la población que a analizar un suceso concreto. Osea, se tienen las conclusiones y hay que crear un espacio de sucesos y unos criterios de medición que permitan llegar a esas conclusiones, lo que vulnera las reglas de la estadística y, por tanto, se convierten en mero discurso manipulador para generar un estado de opinión y no una interpretación acertada de la realidad.

La estadística tiene que ser fría

Así es, aunque seamos humanos y tengamos sentimientos y las cosas nos afecten, para hacer un estudio estadístico hay que librarse de juicios previos y de ganas de obtención de resultados que nos den la razón y que se ajusten a nuestros deseos. Los sucesos se deben de obtener mediante la fría medición, sin ninguna intervención sobre ella. Por eso, la definición del espacio de muestras y de los sucesos debe de ser independiente a nuestros deseos y afinidades. Si no es así, el estudio carece de validez y no proporciona nada más que consuelo o euforia, cuando no es engañarnos a nosotros mismos.

Otra cosa es la elaboración de conclusiones e hipótesis, la célebre cocina a la que las empresas de estadística someten los resultados. Pero la validez del estudio sólo será aceptable si son conocidos los criterios para cocinar los resultados. Es una norma estadística básica y que debe de ser conocida y aceptada por el receptor para estimar si las conclusiones son acertadas o simplemente son fruto de una manipulación orientada a volver a obtener algo que nos guste y crear estados de opinión.

Es importante comprender que la estadística, como herramienta que nos ayuda a obtener hipótesis, es una magnífica herramienta. Pero que en malas manos, se transforma en algo odioso y pierde su verdadera utilidad.