Archivo de la etiqueta: energía

Análisis estadísticos usando el método de Monte Carlo (y III)

imagesCon esta entrada cerramos el capítulo dedicado al análisis de Monte Carlo. En las dos entradas anteriores vimos cómo se podía usar éste método para analizar los eventos que pueden ocurrir en un dispositivo electrónico, sino también lo que sucede cuando tenemos variables correladas y cuando sometemos al circuito a un ajuste posproducción. Estos análisis son estimables, puesto que nos permiten conocer previamente el funcionamiento de nuestro circuito y tomar decisiones acerca del diseño, elegir las topologías y componentes adecuados y realizar un primer diseño en el que se optimice al máximo el comportamiento del nuestro circuito. En esta entrada vamos a ver un ejemplo, incluyendo un factor que suele ser importante y que tampoco se suele tener en cuenta en las simulaciones, y que es el análisis térmico. En este caso, utilizaremos un amplificador de potencia diseñado para trabajar en conmutación, que alimenta a una carga. El objetivo es encontrar el componente más sensible en el amplificador y poder elegir la topología o componente adecuados para que el circuito siga funcionando en todas las condiciones definidas.

Hemos visto lo útil que puede llegar a ser el análisis de Monte Carlo para elegir topologías y componentes, e incluso para definir el ajuste que tenemos que hacer en el caso de que se produzca defectivo durante un proceso de fabricación. Este análisis reduce el tiempo de desarrollo físico, porque proporciona de antemano una información importante de cómo se va a comportar nuestro diseño, antes de montarlo y evaluarlo. No obstante, hay que llegar más allá, rizando el rizo, y añadiendo el comportamiento térmico.

Los dispositivos electrónicos están no sólo sometidos a variaciones de valores nominales, debidas a su estructura física, sino que también presentan variaciones térmicas en función de la temperatura a la que estén sometidos en su funcionamiento. Los dispositivos que más suelen sufrir estas variaciones térmicas suelen ser aquellos que disipan elevadas cantidades de potencia, como las fuentes de alimentación, los microprocesadores y los amplificadores. Las variaciones térmicas desgastan el componente y comprometen su vida útil, reduciendo su vida media cuando trabajan al límite. Si hacemos estos análisis previamente, podemos marcar las pautas para lograr el mejor funcionamiento posible y obtener un diseño que garantice una vida media suficiente.

Estudio sobre un amplificador de potencia

A continuación vamos a estudiar el efecto producido sobre un amplificador de potencia en clase E, como el de la figura.

Amplificador clase E con MOSFET

Amplificador clase E con MOSFET

Este amplificador proporciona a una carga de 6+j⋅40Ω, a 1,5MHz, una potencia de AC de 23W, con una eficiencia del 88% sobre la potencia DC entregada por la fuente de alimentación. El MOSFET, que es el elemento que más se calienta cuando está disipando la potencia de conmutación, que es del orden de 2,5W, es el elemento más crítico del sistema, ya que hay que garantizar una extracción del calor que haga que su unión no se rompa por superar la temperatura de unión. El valor máximo que puede alcanzar dicha temperatura es 175ºC, pero se establece una temperatura de seguridad de 150ºC. Por tanto, el diseño realizado debe de ser capaz de soportar cualquier variación de potencia AC que pueda superar la temperatura máxima, no sólo en condiciones normales (a temperatura ambiente de 25ºC), sino incluyendo las variaciones que se puedan producir en el consumo del dispositivo activo debido a las tolerancias de los componentes.

En este circuito, los componentes más críticos, aparte de la dispersión que presenta el propio MOSFET, son los componentes pasivos. Estos componentes forman parte de la red de adaptación, que transmite la máxima energía desde la alimentación a la carga y provocan una variación en la respuesta del drenador que influye en su consumo. Siendo potencias considerables, con valores superiores a 10W, la variación de carga provocará variaciones importantes en la potencia disipada en el MOSFET y su estudio nos mostrará las necesidades para la extracción del calor generado en el MOSFET por efecto Joule.

Análisis estadístico en condiciones normales

Lo primero que tenemos es que analizar el circuito en condiciones normales de laboratorio (25ºC, 760mmHg, 50-70% de humedad relativa) y ver las variaciones que presenta, sólo por tolerancias. Consideramos tolerancias gaussianas de ±5% en valores límite, y analizamos exclusivamente las tolerancias en estas condiciones, para un 500 eventos. De esta manera podemos ver cómo afectan los componentes a la respuesta del circuito a través de la siguiente gráfica

Potencia

Potencia de DC y potencia en la carga, frente a número de eventos

El histograma azul representa la potencia de DC suministrada por la carga, cuyo valor central máximo es de 26,4W, mientras que el histograma rojo es la potencia transferida a la carga, cuyo valor central máximo es de 23,2W. Esto representa un 87,9% de eficiencia en la entrega de potencia. La desviación estándar de la potencia de carga es ±1,6%, lo que significa una tolerancia de ±6,5% en los valores límite. Bajo estas condiciones, podemos representar la potencia disipada del MOSFET, que se puede ver en la siguiente gráfica

Potencia disipada en el MOSFET vs. número de eventos

Potencia disipada en el MOSFET, frente al número de eventos

donde obtenemos una potencia media de 2,9W y una desviación estándar de 1,2W. Esto significa que la potencia máxima puede llegar a ser del orden de 7,8W.

Si calculamos con estos valores la diferencia entre la temperatura de la unión y la ambiente, teniendo en cuenta que las resistencias térmicas Rth-JC=1,7K/W y Rth-CH=0,7K/W, y usando un disipador con una resistencia térmica en condiciones de ventilación no forzada de Rth-HA=10K/W, se puede obtener, para una Tamb=25ºC

T_j=25+7,7 \cdot (0,5+1,7+10)=118,95^oC

Por tanto, a 25ºC, con una refrigeración no forzada, la temperatura de la unión está a 118,95ºC en el valor límite de potencia consumida por el MOSFET, proporcionándonos un margen suficiente sobre los 150ºC máximos a los que la unión se rompe.

Análisis estadístico para tres temperaturas

El análisis anterior nos garantiza un correcto funcionamiento en condiciones normales, pero, ¿qué ocurre cuando subimos o bajamos la temperatura? Vamos a analizar bajo tres condiciones de temperatura: 0ºC, 25ºC y 50ºC, y para representarlo usaremos un histograma multidimensional, en el que agruparemos todos los eventos sin discernir temperaturas. De este modo obtenemos

Potencia de DC y potencia en la carga, frente a número de eventos y temperatura

Potencia de DC y potencia en la carga, frente a número de eventos y temperatura

donde la potencia media entregada a la carga, en todas las condiciones, es 22,6W, para todas las condiciones térmicas, y la eficiencia media es del 86,6%, cubriendo el rango de temperaturas entre 0ºC y 50ºC.

Analizando ahora la potencia disipada por el MOSFET, en las mismas condiciones

temp_mos_power

Potencia disipada en el MOSFET, frente al número de eventos y la temperatura

donde calculando el valor medio, se obtiene 2,9W, con un máximo de 7,8W. Estos valores, similares al calculado anteriormente, muestran que la máxima temperatura de la unión va a ser 143,95ºC, a 7ºC de la temperatura máxima de seguridad de 150ºC, y por tanto a 32ºC de la temperatura máxima de la unión.

Por tanto, podemos concluir del análisis que el circuito diseñado, bajo las condiciones de temperatura ambiente de 0ºC a 50ºC, y siempre con un disipador con una resistencia térmica en ventilación no forzada de Rth-HA=10K/W, presentará un funcionamiento óptimo para el rango de potencia de carga.

CONCLUSIÓN

Con esta entrada finalizamos el capítulo dedicado al análisis usando el método de Monte Carlo. Con los análisis realizados, hemos cubierto la optimización de características a través de diferentes topologías, el ajuste posproducción en un proceso de montaje industrial y el análisis térmico para comprobar los límites de seguridad en los que trabaja un circuito de potencia. No obstante, el método proporciona muchas más posibilidades que se pueden explorar a partir de estos sencillos experimentos.

REFERENCIAS

  1. Castillo Ron, Enrique, “Introducción a la Estadística Aplicada”, Santander, NORAY, 1978, ISBN 84-300-0021-6.
  2. Peña Sánchez de Rivera, Daniel, “Fundamentos de Estadística”, Madrid,  Alianza Editorial, 2001, ISBN 84-206-8696-4.
  3. Kroese, Dirk P., y otros, “Why the Monte Carlo method is so important today”, 2014, WIREs Comp Stat, Vol. 6, págs. 386-392, DOI: 10.1002/wics.1314.

Influencia de los campos electromagnéticos en la dinámica de los fluidos

la_caza_del_submarino_rusoAunque parezca lo contrario, en esta entrada no vamos a hablar de novelas de espías, pero sí vamos a usar un argumento de la trama de una conocida novela de espionaje para presentar la teoría magnetohidrodinámica. Ésta es una disciplina de la física, que forma parte de la teoría de campos y analiza el movimiento de fluidos con carga eléctrica en presencia de un campo electromagnético y sus posibles aplicaciones. Comprendiendo los principios de la dinámica de fluidos, llegaremos a las ecuaciones que constituyen la base de la teoría, sus conclusiones y su actual utilización.

Los que conozcan la trama de la novela de Tom Clancy “The hunt of Red October”, sabrán que trata sobre la deserción de un submarino soviético de la clase Typhoon, dotado de un sistema de propulsión silencioso y difícilmente detectable por el sonar. En la novela, se le describe como “propulsión magnetohidrodinámica” y consiste en generar flujo de corriente hidráulica a lo largo de la nave usando campos magnéticos. Este flujo permite su desplazamiento sin usar los motores convencionales, aprovechando las características conductivas del agua salada. Este sistema de propulsión silenciosa convertía a la nave en algo letal y peligroso de verdad, puesto que podría acercarse a la costa de los EE.UU. sin ser detectado y lanzar un ataque con cabezas nucleares sin que nadie lo pudiese evitar. Esta es la trama, pero, ¿cuánto hay de cierto en la misma? ¿Existe un método de propulsión o un sistema que provoque el movimiento de un fluido por la presencia de un campo electromagnético? ¿Y a la inversa? ¿Podemos generar un campo electromagnético sólo usando el movimiento de un fluido cargado?

Aunque pueda parecer que, al tratarse de una novela de espías y acostumbrados como estamos a la tendencia de la ficción a crear ciertas bases argumentales, a veces ilusorias, para dotar de cierto dramatismo a la trama, lo cierto es que la teoría magnetohidrodinámica es muy real. Tanto, que el primer efecto destacable de la misma lo podemos comprobar simplemente con la presencia del campo magnético terrestre. Este es fruto del movimiento del núcleo interno de la tierra, compuesto de una capa de hierro líquido (fluido) que envuelve a una gran masa de hierro sólido. Este núcleo , que se mueve acompasado por la rotación de la Tierra, tiene cargas en movimiento que generan una corriente eléctrica, y esa corriente eléctrica genera el campo magnético que protege a la Tierra de los embates de partículas de alta energía que proceden de nuestra estrella, el Sol.

El propio Sol, que es una nube de gas en estado de plasma, tiene poderosos campos magnéticos que determinan el movimiento de las partículas que constituyen el plasma en su interior. Por tanto, la teoría magnetohidrodinámica que usa Clancy en esa trama es muy real. Vamos entonces a desvelar sus bases.

DINÁMICA DE FLUIDOS: LAS ECUACIONES DE NAVIER–STOKES

Un fluido es un medio material continuo formado por moléculas donde sólo hay fuerzas de atracción débil, que se encuentra en uno de estos tres estados de la materia: líquido, gaseoso o plasma. La dinámica de fluidos es la parte de la física que se ocupa del estudio del movimiento de estos medios en cualquiera de estos estados, siendo la masa del fluido la parte que se desplaza de un punto a otro.

Del mismo modo que en campos electromagnéticos definíamos la corriente eléctrica como la variación de la carga con el tiempo, en los fluidos hablaremos de un flujo de corriente ψ que es la variación de la masa M del fluido respecto del tiempo.

{\psi}=\dfrac{dM}{dt}=\dfrac{d}{dt} \displaystyle \int_V {\rho}_M dV

Si tomamos una superficie donde hay ni partículas de masa mi que se mueven a una velocidad vi, podemos definir una densidad de flujo de corriente ℑM, que se expresa como

{\vec{\mathcal J}}_M=\displaystyle \sum_i N_i  m_i  {\vec {v}}_i=N  m  {\vec {v}}=M  {\vec {v}}

d{\psi}=\left( \displaystyle \sum_i N_i  m_i  {\vec {v}}_i \right) \vec{n} dA={\vec{\mathcal J}}_M  \vec{n}  dA

Flujo de corriente debida a partículas de masa m

Flujo de corriente debida a partículas de masa m

Vamos a considerar, como se muestra en la figura, que nuestro fluido es un medio material que tiene todas las partículas de la misma masa, por lo que el producto ni⋅mi se puede extraer del sumatorio, quedando entonces una velocidad v  que es la suma vectorial de todas las velocidades de las partículas del fluido.

La relación entre el flujo de corriente y la densidad de flujo de corriente es una integral a lo largo de una superficie S. Si integramos el flujo de corriente total en una superficie cerrada, por la conservación de la masa, tendremos que es igual  es la variación de la masa con respecto al tiempo, y siendo la densidad la masa por unidad de volumen, podemos escribir que

{\psi}=- \displaystyle \oint_S {\vec{\mathcal J}}_M \vec{n}  dA =\displaystyle \int_V \dfrac {d{\rho}_M}{dt} dV

Como este flujo de corriente se opone a la variación de la masa respecto del tiempo, y la masa es la integral de volumen de la densidad del fluido ρMy aplicando el teorema de la divergencia, podemos escribir esta expresión en su forma diferencial

-\vec{\nabla} \vec{J}_M = \dfrac {d{\rho}_M}{dt}

que es la ecuación de continuidad de un fluido y que representa la conservación de la masa neta dentro del fluido. Esta es una de las ecuaciones de Navier-Stokes, primordial para comprender el movimiento de las partículas del fluido.

Para la otra ecuación, debemos de recurrir a la derivada sustancial. Esta es una descripción que incluye no sólo la variación con respecto al tiempo de la magnitud física del fluido, sino que además incluye la variación de la misma respecto de la posición. La expresión de la derivada sustancial es

\dfrac {d}{dt}(*)=\dfrac {\partial}{\partial t}(*)+\vec{v} \vec{\nabla}(*)

donde v es la velocidad del fluido y  el operador diferencial que ya vimos en la entrada sobre radioenlaces. Como el momento lineal del fluido se conserva, cuando interviene la fuerza de la gravedad , actúa además una presión P en sentido contrario al movimiento en el fluido y contraponiéndose a las deformaciones una viscosidad μobtenemos que

{\rho}_M  \dfrac {d \vec{v}}{dt}=\vec{F}-\vec{\nabla}P+{\mu} \left( \dfrac {1}{3} \vec{\nabla}  \left(\vec{\nabla}  \vec{v} \right) + {\nabla}^2 \vec{v} \right)

\dfrac {\partial \vec{v}}{\partial t}+ \left( \vec{v} \vec{\nabla} \right) \vec{v} + \dfrac {1}{{\rho}_M} \vec{\nabla}P- \dfrac {\mu}{{\rho}_M}\left( \dfrac {1}{3} \vec{\nabla} \left(\vec{\nabla} \vec{v} \right) + {\nabla}^2 \vec{v} \right)=\vec{g}

Esta es la ecuación del movimiento de un fluido, y es no lineal debido a la derivada sustancial. Por tanto, en un fluido intervienen no sólo las fuerzas aplicadas en el fluido, sino también la presión de éste y su viscosidad. Si el fluido no presentase viscosidad, y aplicando la derivada sustancial  a la ecuación anterior, podemos obtener un caso particular

\dfrac {\partial \vec{v}}{\partial t}+ \left( \vec{v} \cdot \vec{\nabla} \right) \vec{v} + \dfrac {1}{{\rho}_M} \vec{\nabla}P=\vec{g}

que nos define la ecuación del movimiento de un fluido no viscoso.

DINÁMICA DE FLUIDOS: MAGNETOHIDRODINÁMICA

Si el fluido presenta partículas cargadas y aplicamos un campo electromagnético, con componentes E y B, la fuerza que interviene en este caso no es la gravedad, sino la fuerza de Lorenz que aplica el campo magnético

\vec{F}=\vec{J} \times \vec{B}=\dfrac {\left( \vec{B} \cdot \vec{\nabla} \right) \vec{B}}{{\mu}_0}-\vec{\nabla} \left(\dfrac {B^2}{2{\mu}_0} \right)

donde J es la densidad de corriente eléctrica en el fluido y B el campo magnético aplicado. En la expresión desarrollada, obtenida a partir del desarrollo de la Ley de Ampere y una de las identidades del operador diferencial , obtenemos dos términos. El primero es una fuerza de tensión magnética mientras que el segundo término se asemeja a una presión magnética producida por la densidad de energía magnética del campo. Sustituyendo F en la expresión obtenida en el apartado anterior y considerando un fluido no viscoso, tendremos que

\dfrac {\partial \vec{v}}{\partial t}+ \left( \vec{v} \cdot \vec{\nabla} \right) \vec{v} + \dfrac {1}{{\rho}_M} \vec{\nabla} \left(P+\dfrac {B^2}{2{\mu}_0} \right)=\dfrac {\left( \vec{B} \cdot \vec{\nabla} \right) \vec{B}}{{\rho}_M {\mu}_0}

Teniendo en cuenta que, según las ecuaciones de Maxwell, la divergencia del campo magnético es nula, si consideramos un campo magnético unidireccional, las variaciones espaciales de la divergencia son perpendiculares al campo, por lo que la fuerza de tensión magnética se anula y la expresión anterior queda

\dfrac {\partial \vec{v}}{\partial t}+ \left( \vec{v} \cdot \vec{\nabla} \right) \vec{v} + \dfrac {1}{{\rho}_M} \vec{\nabla} \left(P+\dfrac {B^2}{2{\mu}_0} \right)=0

Si el fluido está en estado de plasma, tenemos que la Ley de Ohm se puede escribir como

\vec{E}+\vec{v} \times \vec{B}=0

debido a que en este estado la conductividad tiende a ser infinita y para mantener el flujo de corriente, la fuerza aplicada debe ser lo más baja posile. De este modo, la Ley de Faraday queda como

\dfrac {\partial \vec{B}}{\partial t}=\vec{\nabla} \times \left( \vec{\nabla} \times \vec{B} \right)

CONCLUSIONES DE LAS ECUACIONES

Como hemos podido comprobar, la magnetohidrodinámica es, en realidad, una consecuencia de aplicar campos electromagnéticos a fluidos que poseen carga eléctrica, y en esto se basaba Clancy para “propulsar” su Octubre Rojo. No obstante, los intentos de generar un propulsor naval de estas características se han quedado en prototipos construidos en los años 60 puesto que las inducciones magnéticas que requerían eran elevadas (del orden de más de 5 Tesla) en compartimientos muy voluminosos (centenares de m3). Por tanto, el submarino de la clase Typhoon cumplía con las exigencias de proporcionar el debido dramatismo a la novela, sin despreciar por ello la base científica en la que se basaba, debido al tamaño de este tipo de naves, considerados por los EE.UU. como colosos de las profundidades debido al desplazamiento de toneladas que eran capaces de propulsar.

No quiere decir que la aplicación de la magnetohidrodinámica esté actualmente aparcada. Debido a ella, los astrofísicos han logrado generar modelos basados en estas ecuaciones para determinar las trayectorias de las partículas en el Sol y predecir erupciones solares. Y los geofísicos, comprender mejor la estructura de los núcleos de los planetas.

Además, estas técnicas son utilizadas desde hace años también en metalurgia: a medida que calentamos un metal transformándolo en un fluido, incrementamos notablemente su conductividad, de modo que se puede aplicar la Ley de Ohm para los plasmas. Esto evita, en los procesos de fundición y generación de aleaciones, que el metal entre en contacto con el crisol y adquiera escoria, mejorando notablemente la calidad de la aleación. Es el principio de los altos hornos eléctricos, que vinieron a sustituir a los antiguos que usaban carbón.

También se han encontrado aplicaciones para generar energía eléctrica a partir del movimiento de un gas en presencia de un ampo magnético, así como el confinamiento del estado de plasma para los reactores de energía nuclear de fusión. Por no hablar de los experimentos realizados en el LCH, en Suiza. No obstante, se sigue teniendo el problema de la gran inducción magnética generada y el volumen necesario para mantener los plasmas.

Sin embargo, es una pequeña parte de todo lo que se podría llegar a conseguir con mejor tecnología. A medida que se desarrolle ésta, la magnetohidrodinámica proporcionará mejores aplicaciones.

References

  1. J. R. Reitz, F. J. Milford, R. W. Christy, “Foundations of the Electromagnetic Theory”; Addison-Wesley Publishing Company, Inc, Massachusetts (U.S.A.), 1979
  2. H. Alfvén, “Existence of electromagnetic-hydrodynamic waves“. Nature 150: 405-406, 1942

 

 

MATELEC 2014. ¿Qué ha supuesto el evento?

3bc2c8d39db90e514ada-a4136d9e83Bueno, como cada dos años, éste también me ha tocado acercarme a la cita de MATELEC, una feria en la que se puede testar muy bien el estado de nuestra industria eléctrica y electrónica. Y quiero con esta entrada dar mi opinión de lo visto este año, en comparación con la edición de 2012, en la que la feria había vuelto a resurgir frente al gran batacazo, en mi opinión, que supuso la edición de 2010.

UN BREVE REPASO A OTRAS EDICIONES

Una feria sectorial es algo muy complejo. Las primeras ediciones de MATELEC eran anuales, lo que implicaba mucho gasto en las empresas para poder acudir a exponer sus novedades. Además, un producto novedoso no suele salir de un año para otro. El paso de una convocatoria anual a la actual, cada dos años, fue una medida acertada, porque permitía a las empresas plantear su asistencia desde el punto de vista de las novedades y no sólo desde un marcado carácter comercial. Una feria tecnológica se debe de nutrir no sólo de oportunidades para hacer negocio, sino que debe de mostrar el músculo de las empresas, en forma de Investigación, Desarrollo e Innovación.

Durante muchos años, las telecomunicaciones ocuparon el eje central de la feria, en lo tocante a la industria electrónica. La feria se planteaba así como una feria sectorial en la que todos los sectores (industria eléctrica, iluminación, electrónica, manufactura, etc) acudían a mostrar sus novedades, pero sin mostrar nexos de unión entre los distintos sectores. Por tanto, en aquellos años MATELEC era una feria sectorial que, internamente, también estaba fuertemente sectorizada, como si no hubiese interdependencia entre sectores.

Al ser el eje de la industria electrónica las telecomunicaciones, la desaparición en la edición de 2010 de los grandes fabricantes españoles del sector deslució enormemente la feria, reduciendola a los distribuidores, sin duda más necesitados de oportunidades de negocio, pero con incapacidad de mostrar más novedades que las que los fabricantes les presentasen. Sin la presión de exponer, los grandes fabricantes no necesitaban ya mostrar su potencial innovador y eso repercutía en los pequeños distribuidores. Personalmente, la edición de 2010 represento, a mi modo de ver, uno de los más sonoros fracasos de la historia de la feria. ¿Estaba sentenciada de muerte?

10689570_566581643487470_4057597374882271081_nLA EDICIÓN DE 2012, UNA PUERTA PARA LA ESPERANZA

Es importante que recuerde porqué concedo tanta importancia a lo que se puede considerar un evento puramente sectorial: es un momento en el que se puede testar la situación real de una determinada industria. En este caso, esta feria es el termómetro de nuestra industria eléctrica y electrónica, y como otras ferias, representa el escaparate de cómo está evolucionando en unos momentos difíciles, debido a la gran caída de consumo interno que supuso la crisis y de la enorme cantidad de empresas industriales que se han visto abocadas al cierre y desaparición. MATELEC 2010 mostró un mazazo considerable de la industria eléctrica y electrónica, con pocos stands, muchos huecos libres y la mitad de los pabellones sin llenar. El escenario era, cuanto menos, atroz.

Así que el equipo directivo de la feria, conscientes de que si no se remediaba esto en la siguiente edición, significaría la desaparición de la feria, abordaron una estrategia que considero fue muy acertada: hay que abrir la feria a sectores nuevos, incidir en nuevas tecnologías, y convertir la feria en una feria única sectorialmente, sin las divisiones que antes presentaban los diversos subsectores. Hay que aunar industria eléctrica y electrónica, que la feria presente una única voz, y todo ello lo consiguieron con el lema de la eficiencia energética. Eso hizo que la edición de 2012 fuese, también bajo mi opinión, un acierto y un éxito rotundo, que abrió las puertas a la feria a una nueva etapa de esplendor como la que vivió en las dos décadas pasadas. Aún así, quedaba el test de la consolidación, ver si esa tendencia abierta funcionaba en nuevas ediciones. Y ahora estamos en la edición de 2014, idónea para ese test.

EL MISMO LEMA, UNA GRAN NECESIDAD DE CONSOLIDACIÓN

10710697_566642286814739_7258534809365919608_nMATELEC 2014 se ha presentando con el mismo lema que hace dos años, y la misma estructura organizativa y de presentación sectorial que le supuso un acierto en 2012. Partiendo de esas premisas, parece que la feria debería haber tenido, si no un éxito claro como 2012, un peso específico importante en el sector. ¿Ha sido así?

Buena pregunta. En primer lugar, algo realmente interesante del evento, y que a mi modo de ver es el objetivo que debe tener toda feria sectorial, es ver las novedades que se producen en la industria y, además, comprobar si se están creando nuevas industrias, si la industria electrica y electrónica de nuestro país sigue viva.

Hablábamos antes de lo que pasó en MATELEC 2010, cuando los grandes fabricantes dejaron de acudir la feria, dejando solos a los distribuidores como expositores. Sin embargo, tanto en 2012 como en 2014 hemos asistido al surgimiento de nuevas industrias en el sector, unidas bajo lema de la eficiencia energética. Bajo esta premisa, la edición de 2014 no ha sido un éxito colosal pero sí ha cumplido con su objetivo principal, que es mostrar una industria viva, en un momento en el que el sector está pasando por sus horas más bajas. Han aparecido nuevos fabricantes, que han ido sustituyendo a los que dominaron la década pasada, por lo que podemos darle una buena nota en este sentido.

Los foros han funcionado correctamente, compartiendo el espacio con los expositores, y la innovación también se ha centrado en la feria. Muchas de las nuevas empresas han confiado en la innovación como motor de su crecimiento, y hay que reconocer que en este apartado también la nota puede ponerse alta.

Pero aunque esta edición nos muestra que todavía hay en España una industria viva e innovadora, que quiere sustituir a aquella industria que dominó durante la década pasada, esta edición también nos muestra que el crecimiento de esta nueva industria es sensiblemente inferior al de aquella: o sea, que nacen nuevos fabricantes, pero no lo hacen al ritmo de los que se desaparecen, y muchos de estos nuevos fabricantes son resultado de negocios iniciados por emprendedores, por lo que muchos de ellos se habrán quedado en el camino.

Una muestra clara de esa situación es la gran presencia del gigante asiático en la feria: tanto en el área de eficiencia energética como en el de iluminación, la industria china muestra una fuerte presencia, lo que indica claramente el dinamismo de este país en el tema de la industria eléctrica y electrónica y su capacidad de generación y consolidación de nuevas empresas frente a la nuestra. Empresas, que en nuestro país se podrían considerar microempresas o pequeñas empresas se han lanzado a la internacionalización, apostando fuerte por la difícil y tortuosa vía de la exportación.

¿QUÉ PODEMOS ESPERAR CARA AL FUTURO?

Como ya he mencionado, que MATELEC haya orientado su vista al campo de la eficiencia energética, en un mundo que tiene los recursos cada vez más comprometidos, ha sido un acierto en toda regla, si bien hace falta comprobar si este giro va consolidándose en la siguiente edición. Que la industria eléctrica y electrónica consolide estas nuevas oportunidades de negocio y que sustituya de forma eficaz al modelo anterior es condición necesaria para que el corazón industrial tecnológico vuelva a latir como en épocas pasadas. Por tanto, considero que la edición de 2016 será determinante para comprobar si este sector vuelve vitaminado a los mercados o no. Por eso, a mi modo de ver, esta edición se puede considerar sólo como una edición de transición en la consolidación del nuevo modelo productivo.

MATELEC 2012: LA GRAN FIESTA DEL SECTOR ELÉCTRICO Y ELECTRÓNICO

Viernes, 26 de Octubre. Visita a la Feria MATELEC. Viaje rápido, saliendo por la mañana del aeropuerto de Santander con destino a Madrid. Nublado en la capital de España, pero buena temperatura. Nos dirigimos desde la T1 a IFEMA, el parque ferial de la capital de España. Deseosos de ver cómo se está desarrollando la feria.

Es el último día. Hace años, el último día era el sábado, que recibía la visita obligada de los estudiantes. Después de una semana de feria, y de haber atendido a miles de personas, el sábado era el día que tocaba atender a las futuras generaciones de profesionales y a los últimos curiosos que se acercaban por el recinto del Campo de las Naciones. Tocaba desmontar y todo se hacía entre el cansancio de los comerciales que quedaban en la feria y el gusto por haber pasado una semana donde se creaban contactos nuevos y se saludaban a antiguos colegas y colaboradores.

EL 2010, PUNTO DE INFLEXIÓN

Como todas las convocatorias desde 1998 (salvo la de 2008), he acudido a la Feria, ya sea como expositor o como visitante. Sin haber podido conocer lo que trajo 2008, debido a esa ausencia, algunas voces me decían que estaba agotada. Y el 2010 fue el punto de inflexión: espacios vacíos, stands sin poner, pabellones sin llenar… Una muestra de lo que la crisis estaba trayendo a un sector bastante dinámico en nuestro país.

Fue un año nefasto para nuestro sector. No sólo MATELEC se resintió, perdiendo la presencia de los grandes fabricantes. También esos grandes fabricantes estaban resentidos por la pérdida de facturación, y se traducía en la ausencia de estos eventos, que no es que reporten muchos clientes nuevos, pero que muestran un escaparate, una toma de temperatura de cómo se está comportando el sector.

Está claro que después del fiasco de la feria, en mi opinión, en 2010, había que cambiar las cosas y que el equipo que dirige la feria tenía que dar un revulsivo a la misma para que volviese a ser un acontecimiento importante en el panorama de la industria eléctrica y electrónica.

Y después de ver cómo ha sido MATELEC 2012, he de reconocer que merecen un notable alto.

MATELEC 2012, O CÓMO REVITALIZAR UN ACONTECIMIENTO

El equipo dirigido por Raúl Calleja ha apostado este año por la Eficiencia Energética. Mientras que otros años el centro de atención eran las telecomunicaciones, la portería electrónica o la domótica, este año se ha apostado por la Eficiencia Energética como tema central de la feria, llevando a muchas empresas de este sector a la misma. Eso, una serie de actividades relacionadas con la Eficiencia Energética y las Energías Renovables, una reducción del espacio y tiempo de feria para evitar los espacios vacíos y poca afluencia de público, que hace que puedas ver la feria en menos tiempo han sido claves en esta nueva celebración. Sinceramente, creo que asistimos a un nuevo MATELEC renovado, que apuesta de nuevo por ser el referente del sector eléctrico y electrónico y que cada vez más , se interrelacionan entre sí. Porque aunque la electricidad y la electrónica caminan juntas de la mano desde siempre, este año he observado una mayor interrelación entre ambos sectores.

Lo cierto es que Calleja y su equipo pueden estar satisfechos con el resultado de MATELEC 2012, y esperamos que sienten las bases para que MATELEC 2014 sea la fiesta, además, de la recuperación del sector y podamos, una vez más, acudir a este evento necesario para mostrar el potencial que nuestra industria eléctrica y electrónica, que es muy grande.

Mis sinceras felicitaciones a Calleja y al equipo de MATELEC 2012. Han demostrado que si queremos, podemos.