SHARENG Divulgación

Inicio » 2016 » junio

Monthly Archives: junio 2016

¿Fallan las encuestas electorales?

14665983216010Las recientes elecciones del día 26 vuelven a mostrar una discrepancia entre las encuestas electorales y los resultados finales. Tal ha sido la diferencia que, una vez más, se vuelve a dudar de la eficacia de las mismas como barómetro sociológico. Aprovechando las últimas entradas referentes a la Estadística, en ésta vamos a aclarar algunos términos que muestren la diferencia entre las encuestas y el muestreo final que corresponde a datos corroborados, como son las propias elecciones. Conocer estas diferencias es lo que ayudará a dar las encuestas el justo valor que se merece, sin convertirlas en algo que se tiene que cumplir necesariamente.

Como en otras ocasiones, las encuestas y los sondeos han mostrado una diferencia abismal entre las tendencias recogidas y los datos finales. Y una vez más, se vuelve a cuestionar al mensajero, porque se ha equivocado. Sin embargo, no hay tanto error, puesto que la metodología de la encuesta es correcta, sino más bien deseos de que esos resultados se reproduzcan de este modo.

Una encuesta es un estudio sociológico. Con ella se pretende tomar el pulso a una sociedad muy diversa y a la que le afectan muchas variables, muchas veces incontroladas. Se trata, pues, de indagar cómo respira un sistema caótico como es una sociedad en determinadas circunstancias y en presencia de determinados estímulos externos, a partir de la elaboración de una serie de preguntas concretas, cuya finalidad es intentar conocer lo que los humanos guardamos en mente sobre algo determinado. Sus resultados no están, por tanto, basados en datos objetivos fruto de una medición empírica, como lo es un resultado electoral, sino que son la tendencia que se puede obtener en un determinado momento de una situación a base de conocer esas respuestas. Si la metodología aplicada en la elaboración de las preguntas es correcta, los resultados también son, en ese momento correctos. Otra cosa es que se consideren esos resultados como definitivos, ya que definitivo sólo es el resultado de la medición objetiva. Una variación en las condiciones de contorno o en los estímulos externos puede variar una opinión determinada en un momento determinado.

¿Dónde vas este año de vacaciones?

Una pregunta que nos suelen hacer muy a menudo: ¿dónde vas a ir de vacaciones este año? La respuesta variará claramente en función de cuándo te hagan la pregunta. No es lo mismo que la hagan en marzo, a 5 meses de coger las vacaciones, que en junio. Depende de otras variables claras, como la situación económica, las ofertas de las agencias de viajes, si vas a ir sólo con tu familia o vas a compartir las vacaciones con otra familia amiga… Nuestra respuesta está supeditada al estímulo externo y no a un patrón determinado que marque qué es lo que voy a hacer en dos o tres meses, porque es posible que ni lo haya planificado ni lo vaya a planificar.

No obstante, en una campaña electoral, en la precampaña y sobre todo, si ha habido 6 meses de intentos infructuosos de formar un gobierno, los estímulos han sido continuos y a veces pueden provocar reacciones contrarias y efectos contraproducentes. Y el manejo de los sondeos debe de hacerse con prudencia espartana, puesto que pueden producirse descalabros como el del 26-J. Sin embargo, ha habido mucha proliferación de sondeos, casi uno cada día, cuya finalidad también puede haber sido marcar un paso o un objetivo, y ese uso indiscriminado se ha dado de bruces con el frío, duro y descarnado resultado de la medición objetiva. Aquí no cabe preguntarse si las encuestas están mal hechas, sino si ha habido intención de utilizar esa información de forma interesada y sesgada para forzar el resultado que le gustaría al que la maneja. Porque en realidad, eso es lo que ha ocurrido: se ha querido transformar anhelos en realidades.

La imposibilidad de predecir con exactitud los sucesos en un sistema caótico

Como la previsión atmosférica, la sociedad es un sistema caótico difícilmente predecible. Cuando se predice el tiempo, se acuden a modelos en los que se introducen las variables y se estudian tendencias. Se estudian también las evoluciones de días anteriores, se hacen análisis estadísticos aleatorios basados en Monte Carlo como el que he mostrado en las entradas técnicas, y con todos esos datos, se lanza una previsión. Pero, ojo, se trata de una previsión, que no una confirmación. Esa previsión se hace con un margen de probabilidad que dependerá también de las variables que afecten al sistema en ese momento y en su falta de aislamiento frente a otros estímulos. Así, que no llueva en Santander por el viento sur no es debido a que el viento sur sea una característica típica de Santander (lo que llamamos clima local), sino que detrás de la cordillera, con un clima local diferente, cambie una variable que por efecto de acción y reacción provoque precisamente la aparición del viento sur. La previsión es correcta siempre que se tenga en cuenta la probabilidad de que ocurra, dato objetivo basado en la fiabilidad del modelo que en muchas ocasiones ni se contempla ni se tiene en cuenta. Y tomamos la decisión de ir de vacaciones a Santander basándonos en esa previsión, sin analizar las probabilidades de que nuestras vacaciones terminen pasadas por agua porque los meteorólogos han dicho que va a hacer buen tiempo.

Pues no, los meteorólogos han previsto una situación atmosférica en función de los datos registrados. Eres tú el que quiere que haga buen tiempo, porque te interesa. Es el famoso sesgo de confirmación. Y claro, si tus vacaciones se van al traste, no hay nada mejor que echar la culpa al hombre del tiempo, como si éste no te hubiese dado todos los datos, probabilidad incluida, de qué es lo que podría ocurrir. Al que no le ha interesado el resto de los datos es a ti. El principal interesado en coger la parte bonita de la previsión porque entra en sus planes de vacaciones eres tú. El meteorólogo sólo ha hecho el trabajo de darte los datos, pero la decisión la tomas tú. Por eso, echar la culpa de una decisión malograda a la persona que te proporciona los datos, cuando no los has usado todos, sólo sirve de consuelo. Pero el hecho claro, el dato objetivo principal es que la decisión de ir a un sitio donde parecía que no iba a llover la has tomado tú.

¿Qué fiabilidad tienen las encuestas?

Como hemos visto en las entradas anteriores, la fiabilidad estadística en un sistema no determinista como el social depende, sobre todo, abaco blogdel tamaño de la muestra. A mayor muestra, mayor convergencia. Tanto en las mediciones objetivas como en los estudios sociológicos humanos. Hace unos años publiqué una entrada sobre los sistemas caóticos, recordando el experimento del triángulo claveteado y la canica. Este fue uno de los primeros experimentos que tuve que hacer en la asignatura de Física General, en mi época de estudiante, y debería ser obligatorio para todos los alumnos, como en Termodinámica y Mecánica Estadística fue obligatorio el de la Teoría Cinética de los Gases.

El experimento es muy sencillo: se trata de arrojar un número de canicas en un triángulo de madera que contiene filas de clavos colocadas como se describe en la figura. Al bajar la canica y pasar entre dos clavos, se encuentra con el siguiente, y el choque y el efecto de bajada hará que tome una dirección u otra. El resultado final, después de tirarte tres días tirando canicas y contando posiciones (unas 5.000 canicas), tiende a ser una distribución gaussiana. ¡Ojo! he dicho tiende, porque si se dibuja la gráfica de la función y se compara con la gráfica real obtenida, se verá que los resultados obtenidos y la curva gaussiana tienen ligeras divergencias. Nos proporciona la información de cómo puede caer una canica, pero hasta que no la tires (decisión), no puedes saber con exactitud dónde caerá.

El censo electoral de 2016 tiene inscritos a 36 millones y medio de electores. Con este tamaño objetivo de muestra, hacer fiable una encuesta de 2.000 posibles electores es bastante difícil, teniendo en cuenta la distribución de población española. No proporcionará los mismos resultados una pregunta hecha en Castilla-León o La Rioja que en Andalucía, Cataluña o Madrid. Esto es un hecho que se tiene que dar por descontado: la fiabilidad de una encuesta depende también de que la muestra, que ya es un 0,055‰ de la muestra real, sea además una representación lo más fiel posible de la realidad social de la población española. Representación bastante difícil de lograr, puesto que la diversidad de la sociedad española depende de su situación geográfica, del nivel económico de la zona, de las necesidades que se tienen, etc. Son muchas variables no controlables a tener en cuenta para lograr una fiabilidad al 100%. Por tanto, a la encuesta hay que darle un grado de confianza similar al que habría que darle a la previsión meteorológica: que es una previsión, una tendencia, pero que para nada es un dato objetivo final y que puede estar sometido a vaivenes incontrolables debido a los estímulos que afecten a la sociedad, y que no es responsabilidad de los encuestadores la existencia de esos estímulos.

Como experto en simulación que soy, tengo muy claro que no me fío de los resultados de una simulación hasta que no tengo completamente probado todo. La simulación me permite conocer de antemano tendencias y tomar una decisión, pero para nada es un resultado absoluto, ya que depende de variables que, si no las tengo definidas y las meto en el sistema, pueden proporcionarme resultados físicos contradictorios. Por eso, la simulación y la medida son experiencias interactivas, como lo deben ser las encuestas.

Este aluvión de encuestas y sondeos, con la inclusión del ya famoso mercado de la fruta andorrano, ha hecho que la campaña se haya dirigido más a tratar de cumplir los vaticinios que a estudiar los vaivenes sociales. Se ha tratado más de lograr aproximar los optimistas datos de las encuestas al resultado objetivo de la medición, que son las elecciones generales, sin tener en cuenta que esos datos sólo eran previsiones puntuales. Y esto ha provocado en muchas personas una sensación brutal de frustración. Una frustración similar a la que sufrió el veraneante que fue a Santander pensando en la bonita previsión del tiempo y tuvo que comprarse un paraguas porque en la vecina provincia de Burgos cambió la presión atmosférica debida a un cambio brusco de temperatura.

No obstante, tiene que seguir habiendo encuestas. No se puede pretender conocer la realidad de una sociedad sin preguntar y esto se tiene que seguir haciendo. Pero siempre sin perder el norte: no es un dato objetivo fruto de una medición definitiva, sino la trayectoria de la canica o el hecho de que en Burgos haya caído la temperatura. Y eso tiene que ser correctamente utilizado por quienes necesitan pulsar a la sociedad.1466915869_295178_1466977429_noticia_normal

 

Anuncios

Análisis estadísticos usando el método de Monte Carlo (y III)

imagesCon esta entrada cerramos el capítulo dedicado al análisis de Monte Carlo. En las dos entradas anteriores vimos cómo se podía usar éste método para analizar los eventos que pueden ocurrir en un dispositivo electrónico, sino también lo que sucede cuando tenemos variables correladas y cuando sometemos al circuito a un ajuste posproducción. Estos análisis son estimables, puesto que nos permiten conocer previamente el funcionamiento de nuestro circuito y tomar decisiones acerca del diseño, elegir las topologías y componentes adecuados y realizar un primer diseño en el que se optimice al máximo el comportamiento del nuestro circuito. En esta entrada vamos a ver un ejemplo, incluyendo un factor que suele ser importante y que tampoco se suele tener en cuenta en las simulaciones, y que es el análisis térmico. En este caso, utilizaremos un amplificador de potencia diseñado para trabajar en conmutación, que alimenta a una carga. El objetivo es encontrar el componente más sensible en el amplificador y poder elegir la topología o componente adecuados para que el circuito siga funcionando en todas las condiciones definidas.

Hemos visto lo útil que puede llegar a ser el análisis de Monte Carlo para elegir topologías y componentes, e incluso para definir el ajuste que tenemos que hacer en el caso de que se produzca defectivo durante un proceso de fabricación. Este análisis reduce el tiempo de desarrollo físico, porque proporciona de antemano una información importante de cómo se va a comportar nuestro diseño, antes de montarlo y evaluarlo. No obstante, hay que llegar más allá, rizando el rizo, y añadiendo el comportamiento térmico.

Los dispositivos electrónicos están no sólo sometidos a variaciones de valores nominales, debidas a su estructura física, sino que también presentan variaciones térmicas en función de la temperatura a la que estén sometidos en su funcionamiento. Los dispositivos que más suelen sufrir estas variaciones térmicas suelen ser aquellos que disipan elevadas cantidades de potencia, como las fuentes de alimentación, los microprocesadores y los amplificadores. Las variaciones térmicas desgastan el componente y comprometen su vida útil, reduciendo su vida media cuando trabajan al límite. Si hacemos estos análisis previamente, podemos marcar las pautas para lograr el mejor funcionamiento posible y obtener un diseño que garantice una vida media suficiente.

Estudio sobre un amplificador de potencia

A continuación vamos a estudiar el efecto producido sobre un amplificador de potencia en clase E, como el de la figura.

Amplificador clase E con MOSFET

Amplificador clase E con MOSFET

Este amplificador proporciona a una carga de 6+j⋅40Ω, a 1,5MHz, una potencia de AC de 23W, con una eficiencia del 88% sobre la potencia DC entregada por la fuente de alimentación. El MOSFET, que es el elemento que más se calienta cuando está disipando la potencia de conmutación, que es del orden de 2,5W, es el elemento más crítico del sistema, ya que hay que garantizar una extracción del calor que haga que su unión no se rompa por superar la temperatura de unión. El valor máximo que puede alcanzar dicha temperatura es 175ºC, pero se establece una temperatura de seguridad de 150ºC. Por tanto, el diseño realizado debe de ser capaz de soportar cualquier variación de potencia AC que pueda superar la temperatura máxima, no sólo en condiciones normales (a temperatura ambiente de 25ºC), sino incluyendo las variaciones que se puedan producir en el consumo del dispositivo activo debido a las tolerancias de los componentes.

En este circuito, los componentes más críticos, aparte de la dispersión que presenta el propio MOSFET, son los componentes pasivos. Estos componentes forman parte de la red de adaptación, que transmite la máxima energía desde la alimentación a la carga y provocan una variación en la respuesta del drenador que influye en su consumo. Siendo potencias considerables, con valores superiores a 10W, la variación de carga provocará variaciones importantes en la potencia disipada en el MOSFET y su estudio nos mostrará las necesidades para la extracción del calor generado en el MOSFET por efecto Joule.

Análisis estadístico en condiciones normales

Lo primero que tenemos es que analizar el circuito en condiciones normales de laboratorio (25ºC, 760mmHg, 50-70% de humedad relativa) y ver las variaciones que presenta, sólo por tolerancias. Consideramos tolerancias gaussianas de ±5% en valores límite, y analizamos exclusivamente las tolerancias en estas condiciones, para un 500 eventos. De esta manera podemos ver cómo afectan los componentes a la respuesta del circuito a través de la siguiente gráfica

Potencia

Potencia de DC y potencia en la carga, frente a número de eventos

El histograma azul representa la potencia de DC suministrada por la carga, cuyo valor central máximo es de 26,4W, mientras que el histograma rojo es la potencia transferida a la carga, cuyo valor central máximo es de 23,2W. Esto representa un 87,9% de eficiencia en la entrega de potencia. La desviación estándar de la potencia de carga es ±1,6%, lo que significa una tolerancia de ±6,5% en los valores límite. Bajo estas condiciones, podemos representar la potencia disipada del MOSFET, que se puede ver en la siguiente gráfica

Potencia disipada en el MOSFET vs. número de eventos

Potencia disipada en el MOSFET, frente al número de eventos

donde obtenemos una potencia media de 2,9W y una desviación estándar de 1,2W. Esto significa que la potencia máxima puede llegar a ser del orden de 7,8W.

Si calculamos con estos valores la diferencia entre la temperatura de la unión y la ambiente, teniendo en cuenta que las resistencias térmicas Rth-JC=1,7K/W y Rth-CH=0,7K/W, y usando un disipador con una resistencia térmica en condiciones de ventilación no forzada de Rth-HA=10K/W, se puede obtener, para una Tamb=25ºC

temp

Por tanto, a 25ºC, con una refrigeración no forzada, la temperatura de la unión está a 118,95ºC en el valor límite de potencia consumida por el MOSFET, proporcionándonos un margen suficiente sobre los 150ºC máximos a los que la unión se rompe.

Análisis estadístico para tres temperaturas

El análisis anterior nos garantiza un correcto funcionamiento en condiciones normales, pero, ¿qué ocurre cuando subimos o bajamos la temperatura? Vamos a analizar bajo tres condiciones de temperatura: 0ºC, 25ºC y 50ºC, y para representarlo usaremos un histograma multidimensional, en el que agruparemos todos los eventos sin discernir temperaturas. De este modo obtenemos

Potencia de DC y potencia en la carga, frente a número de eventos y temperatura

Potencia de DC y potencia en la carga, frente a número de eventos y temperatura

donde la potencia media entregada a la carga, en todas las condiciones, es 22,6W, para todas las condiciones térmicas, y la eficiencia media es del 86,6%, cubriendo el rango de temperaturas entre 0ºC y 50ºC.

Analizando ahora la potencia disipada por el MOSFET, en las mismas condiciones

temp_mos_power

Potencia disipada en el MOSFET, frente al número de eventos y la temperatura

donde calculando el valor medio, se obtiene 2,9W, con un máximo de 7,8W. Estos valores, similares al calculado anteriormente, muestran que la máxima temperatura de la unión va a ser 143,95ºC, a 7ºC de la temperatura máxima de seguridad de 150ºC, y por tanto a 32ºC de la temperatura máxima de la unión.

Por tanto, podemos concluir del análisis que el circuito diseñado, bajo las condiciones de temperatura ambiente de 0ºC a 50ºC, y siempre con un disipador con una resistencia térmica en ventilación no forzada de Rth-HA=10K/W, presentará un funcionamiento óptimo para el rango de potencia de carga.

CONCLUSIÓN

Con esta entrada finalizamos el capítulo dedicado al análisis usando el método de Monte Carlo. Con los análisis realizados, hemos cubierto la optimización de características a través de diferentes topologías, el ajuste posproducción en un proceso de montaje industrial y el análisis térmico para comprobar los límites de seguridad en los que trabaja un circuito de potencia. No obstante, el método proporciona muchas más posibilidades que se pueden explorar a partir de estos sencillos experimentos.

REFERENCIAS

  1. Castillo Ron, Enrique, “Introducción a la Estadística Aplicada”, Santander, NORAY, 1978, ISBN 84-300-0021-6.
  2. Peña Sánchez de Rivera, Daniel, “Fundamentos de Estadística”, Madrid,  Alianza Editorial, 2001, ISBN 84-206-8696-4.
  3. Kroese, Dirk P., y otros, “Why the Monte Carlo method is so important today”, 2014, WIREs Comp Stat, Vol. 6, págs. 386-392, DOI: 10.1002/wics.1314.

La estadística y su correcto uso


importancia-graficos-estadistica_image007Una de las herramientas más usadas en la actualidad, sobre todo desde que tenemos máquinas que son capaces de computar muchos datos, es la estadística
. Se trata de una potente herramienta que, bien utilizada, puede proporcionarnos previsiones, sobre todo en sistemas caóticos. Dentro de este tipo de sistemas podemos incluir desde fenómenos atmosféricos a comportamientos de grupos humanos, aunque también se usa para resolver problemas en sistemas deterministas, cuando aparecen fenómenos no previstos que hay que corregir. En estos tiempos, el uso de la estadística se ha extendido a todos los ámbitos, si bien hay que responder a una clara pregunta: ¿de veras sabemos utilizarla? ¿O sólo extraemos las conclusiones que a nosotros nos interesan? En esta entrada voy a tratar de mostrar algunos términos que hay que tener en cuenta en la mecánica estadística y cómo se deberían interpretar sus resultados.

 Por estadística podemos entender dos cosas:

  • Es la herramienta matemática que utiliza conjuntos de datos numéricos, que representan sucesos, para obtener resultados basados en el cálculo de probabilidades.
  • Es el estudio que reúne y clasifica todos los sucesos que posean alguna característica en común, para que con esa clasificación se puedan extraer conclusiones.

En estas dos definiciones tenemos dos conceptos diferentes: el primero, la estadística como disciplina matemática mecánica, con unas reglas claras basadas en la clasificación y el cálculo de probabilidades. Una herramienta que casi todas las disciplinas humanas, ya sean científicas, tecnológicas o sociales, tienen que usar para extraer conclusiones.

Por otro lado, tenemos el estudio estadístico, que no es estadística como disciplina, pero que se suele utilizar dicho término para referirse a él. La segunda definición está englobada en la primera, porque el estudio estadístico es el recuento de determinados sucesos para extraer una conclusión. Por tanto, la estadística, como tal, no muestra resultados, sólo clasifica los sucesos. Sólo nosotros somos los capacitados para interpretarlos.

Una de las frases a las que suelo recurrir muchas veces, cuando alguien me blande estadísticas como hechos incontestables, es un estudio estadístico muestra que las personas comemos un pollo a la semana. Esta semana yo me he comido dos pollos y tú ninguno, así que te deseo que te siente bien el pollo que no has comido. Uno de los mayores errores que se pueden cometer es el considerar a la estadística como un hecho incontestable, cuando sólo son datos agrupados. El hecho, que puede ser incontestable o no, es la interpretación que podamos hacer de esos datos, y ésta puede ser errónea si no aplicamos las reglas mecánicas de la estadística. Estas reglas se encuentran en la Teoría de Probabilidades, donde se definen una serie de herramientas a tratar en la disciplina para lograr obtener mejores interpretaciones. Si estas reglas no son utilizadas, las interpretaciones pueden ser de lo más variopintas.

La importancia de la estadística es tal, que hasta los Estados tienen departamentos exclusivos para trazar los estudios, interpretar los resultados y poder actuar en función de los mismos. El problema radica en cuando se transmiten esos datos a la sociedad, cómo se transmiten, qué porcentajes de error pueden presentar, qué correlación existe entre los sucesos y que conclusiones extrae el que los maneja, que es el que conoce todos los datos y los ha interpretado. Hay que tener en cuenta que la mayor parte de la población no tiene porqué saber más estadística que la estudiada en las matemáticas de la ESO y el Bachillerato, y que la estadística es una mecánica mucho más compleja que contar las caras de un dado y asignar una probabilidad.

Los sucesos, lo único medible de la estadística

Los sucesos, en la estadística, son los datos que se quieren medir. Y los sucesos pueden ser de varios tipos: elementales, compuestos, seguros, imposibles, compatibles, independientes, dependientes y contrarios. Dependiendo de lo que se vaya a estudiar, hay que clasificar los sucesos, que es lo único medible de la estadística.

Los sucesos, de por sí,  no proporcionan conclusiones. Las conclusiones se obtienen de su clasificación. Y la clasificación, para que las conclusiones sean realmente resultado de un estudio estadístico, son fruto de pasar por las reglas establecidas en la mecánica estadística.

Un ejemplo de violación de las reglas estadísticas se pueestudiode ver en el reciente debate de 13-J, donde los cuatro líderes de los partidos principales son sometidos al juicio del público. Según la captura de imagen, uno de los líderes ya era ganador antes de que el suceso medible ocurriese.

En cierto modo, podríamos pensar que la foto está trucada, y es una posibilidad a tener en cuenta, pero teniendo en cuenta también  que dicha estadística no pasa por las reglas establecidas de la estadística, independientemente de que sea o no verdadera la foto, los resultados no se pueden presentar como un estudio estadístico y sus conclusiones posteriores no se pueden tomar como válidas, aunque a algunos les guste el resultado.

Es en este punto cuando la estadística toma su más siniestra utilización: manipulación de los resultados.

El incorrecto uso de la estadística: la manipulación

Debido a que la mayoría de la población desconoce las reglas establecidas para el estudio estadístico (definición de sucesos, tamaño de las muestras, criterios de medición, estimaciones sobre resultados, contrastes de hipótesis, etc.), aquí vuelve otra vez a aparecer mi frase favorita acerca del consumo de pollo por la población: se publican los resultados y no los criterios que han llevado a esos resultados, por lo que aparece un elemento de manipulación evidente, ya que se están utilizando los datos bajo criterios evidentemente orientados a conseguir una respuesta determinada. La estadística no tiene esa función, su función es proporcionarnos los datos para mostrarnos tendencias que permitan corregir aquellas cosas que necesiten corrección, o poder determinar resultados cuando los sistemas son caóticos.

falsa encuestaHemos visto lo que un periódico digital publica antes de tiempo, pero podemos ver otra encuesta en la que también se observa una clara manipulación, ésta cortesía de 13TV. En esta “encuesta” se pregunta a los telespectadores quién ha ganado el debate del pasado lunes. Recordemos que en ese debate había cuatro líderes políticos, y la cadena de la Conferencia Episcopal ha eliminado, de un plumazo, a dos de ellos.

Podemos entender que no son santo de devoción ni de los periodistas de la cadena ni de sus principales accionistas, pero teniendo en cuenta quiénes son esos accionistas, tendrían que pensar en cierto mandamiento que ellos deberían cumplir a rajatabla porque forma parte de su doctrina: “No levantarás falso testimonio ni mentirás”. Parece ser que aquí se vuelve a recurrir al maquiavélico principio de que “el fin justifica los medios”, pero no sabía que la Iglesia Católica española tuviese al célebre escritor renacentista florentino entre sus bases doctrinales.

Podemos poner más ejemplos de encuestas y estudios estadísticos sesgados, más orientados a obtener una respuesta en la población que a analizar un suceso concreto. Osea, se tienen las conclusiones y hay que crear un espacio de sucesos y unos criterios de medición que permitan llegar a esas conclusiones, lo que vulnera las reglas de la estadística y, por tanto, se convierten en mero discurso manipulador para generar un estado de opinión y no una interpretación acertada de la realidad.

La estadística tiene que ser fría

Así es, aunque seamos humanos y tengamos sentimientos y las cosas nos afecten, para hacer un estudio estadístico hay que librarse de juicios previos y de ganas de obtención de resultados que nos den la razón y que se ajusten a nuestros deseos. Los sucesos se deben de obtener mediante la fría medición, sin ninguna intervención sobre ella. Por eso, la definición del espacio de muestras y de los sucesos debe de ser independiente a nuestros deseos y afinidades. Si no es así, el estudio carece de validez y no proporciona nada más que consuelo o euforia, cuando no es engañarnos a nosotros mismos.

Otra cosa es la elaboración de conclusiones e hipótesis, la célebre cocina a la que las empresas de estadística someten los resultados. Pero la validez del estudio sólo será aceptable si son conocidos los criterios para cocinar los resultados. Es una norma estadística básica y que debe de ser conocida y aceptada por el receptor para estimar si las conclusiones son acertadas o simplemente son fruto de una manipulación orientada a volver a obtener algo que nos guste y crear estados de opinión.

Es importante comprender que la estadística, como herramienta que nos ayuda a obtener hipótesis, es una magnífica herramienta. Pero que en malas manos, se transforma en algo odioso y pierde su verdadera utilidad.