INFERENCIAL



MÉTODO INFERENCIAL


En la actualidad es muy común que se empleen los resultados de los programas de análisis estadístico muchas veces sin conocer su origen y su verdadero significado. Así, conceptos que aunque pertenecen a perspectivas teóricas diferentes, tienden a mezclarse formando un galimatías difícil de comprender e interpretar correctamente.

Así podemos hablar de dos perspectivas en inferencia estadística, la de Fisher por un lado, y la de Neyman y Pearson por otro. Veamos estos enfoques por partes.

Para Fisher, la inferencia estadística trataba de responder a la pregunta, ¿cómo de probable es que el estadístico obtenido se deba al azar?. De esta forma, Fisher desarrolla su famoso valor p o p-valor. Este valor nos dice como de probable es que el estadístico hallado se daba al azar. Fisher considero razonable que si la probabilidad era menor o igual a 1/20, el valor del estadístico era debido al azar, si era mayor, no se debía al azar. Los valores superiores a 1/20 (o 0,05), conducían a la aceptación de la hipótesis nula, los valores menores o iguales conducían al rechazo de la hipótesis nula.

Así, para Fisher no era importante decidir sobre la aceptación o rechazo de la hipótesis nula, lo que le interesa a él, era como de probable es que el estadístico se debiera al azar, y esa probabilidad no tiene por que ser fija, es mas, la condicionara el contexto de la investigación, por que es en el seno de la investigación donde la probabilidad de un suceso cobra importancia. Esta afirmación es esencial en inferencia estadística, un hecho como suspender un examen puede no ser significativo, aunque si probable, de la misma manera un hecho como una catástrofe aérea puede ser significativo, aunque también improbable. Por tanto, y siguiendo a Fisher, tomaremos en términos generales el valor de 0,05 (igual a 1/20), pero dado que este valor no esta supeditado a razonamientos matemáticos, deberemos elegirlo de la manera mas adecuada según nuestra investigación. Es importante destacar que para Fisher no existe la hipótesis alternativa y no contempla la existencia de alpha, por lo que no tiene sentido comparar el p-valor con alpha, como se suele hacer hoy de manera casi sistemática.

El otro enfoque de la inferencia estadística es el desarrollado por Neyman y Pearson, y aunque en términos generales busca lo mismo que el de Fisher, sus premisas son diferentes. Si para Fisher lo importante era saber como de probable era que el estadístico hallado se debiera al azar, para Neyman y Pearson lo importante era tomar una decisión en relación al estadístico hallado. Con estos autores los conceptos de hipótesis nula e hipótesis alternativa son centrales, el hecho de aceptar una hipótesis supone de manera automática el rechazo de la otra. Neyman y Pearson asumen que las decisiones que vamos a tomar respecto a las hipótesis van a ser verdaderas solo en una determinada medida, lo que les lleva a incluir el análisis del error en su modelo inferencial. Bajo estas premisas, Neyman y Pearson desarrollan dos modelos, por un lado el de las regiones críticas, y por otro, el de los intervalos de confianza.


Enfoque de las regiones críticas.

La inferencia estadística, tomando como referencia el enfoque de las regiones críticas de Neyman y Pearson, supone, a diferencia de Fisher, asumir a priori (antes del análisis) un grado de confianza sobre el error que estamos dispuestos a cometer. De esta forma delimitamos dos regiones, una región de aceptación de la hipótesis nula, y una región crítica o de rechazo de la hipótesis nula. La región de aceptación de la hipótesis nula tiene asociada una probabilidad conocida con el nombre de nivel de significación, y la región crítica tiene una probabilidad asociada de error que estamos dispuestos a cometer que recibe el nombre de alpha (α). Así, nivel de significación mas error, siempre es igual a uno.

Nivel de significación + Error = 1

Una vez delimitadas estas dos regiones, si nuestro estadístico cae en una u otra región, aceptamos o rechazamos la hipótesis nula.

La relación que tiene este enfoque de las regiones críticas, con el enfoque de la probabilidad del estadístico de Fisher, en lo que al error respecta, es mera coincidencia. La cuestión es que Fisher, como ya dijimos, asumía una probabilidad mínima de 1/20 para aceptar la hipótesis nula (que salvo requerimientos concretos del conjunto muestral podía tomarse como genérica), y Neyman y Pearson consideran de igual manera que, en términos generales, un error del 5% es razonablemente asumible en términos generales. Y toda la coincidencia viene por que 1/20 = 5% = 0,05. Esto ha hecho que sea frecuente que se compare el valor de probabilidad del estadístico con la probabilidad de error a priori, que como puede verse, no tienen ninguna relación de tipo teórico.

Veamos ahora (Figura 1) lo que hemos dicho sobre la gráfica de la distribución normal. En ella puede verse un contraste bilateral, por tanto, las hipótesis plantean que hay una diferencia, pero no indican si es en un sentido o en otro. Se ha asumido un nivel de significación de 0,95 por tanto el error alpha vale 0,05. Al tratarse de una inferencia bilateral el error se posiciona en el extremo izquierdo y derecho de la grafica (zonas rojas). Como el error que estamos dispuestos a asumir es de 0,05, tendremos la mitad de ese error en cada extremo (0,05/2 = 0,025). El punto central con probabilidad P = 0,5 se corresponde con la media.


Hasta aquí hemos visto que diferentes puntos de la grafica tienen una probabilidad diferente. Imaginemos que en esta grafica estamos representado las calificaciones de un grupo de estudiantes. La mayoría de ellos tendría puntuaciones cercanas a la media (5 en una escala de 0 a 10), mientras que pocos estarían próximos a tener un cero o a tener un 10. Ahora vamos a tratar de determinar que puntuación le corresponde a estas probabilidades, para lo que vamos a tomar como referencia, siguiendo lo dicho, la distribución normal.

Una distribución es una forma teórica con unas propiedades concretas que representan un conjunto de datos, así por ejemplo, la distribución normal asume que la media es 0, la desviación típica es 1, y la distribución es simétrica, etc. Para determinar la puntuación que le corresponde a cada probabilidad hay unas formulas concretas, pero su calculo es complejo, por lo que se han desarrollado tablas para conocer estos valores sin necesidad de entrar en su calculo. También diferentes programas informáticos te dan el valor exacto con la precisión decimal deseada. La función de Excel que da la puntuación correspondiente a una probabilidad en la distribución normal es DISTR.NORM.ESTAND.INV(probabilidad), donde «probabilidad» es un valor entre 0 y 1.

Así podemos llegar a la siguiente gráfica:


La figura 2 nos muestra la probabilidad (línea superior) junto con la puntuación típica normalizada (línea inferior) que le corresponde a esa probabilidad en la distribución normal. Cuando se calcula un estadístico de contraste Z, es decir distribuido normalmente, lo que se calcula es precisamente un valor que se corresponde con la línea inferior. Así si el valor del estadístico Z es igual a 1,65, dado que este valor se encuentra entre los valores -1,96 y 1,96, se encuentra en la zona blanca, que es la región de aceptación de la hipótesis nula que tiene una probabilidad o nivel de significación de 0,95. Por lo tanto, en este caso aceptaríamos la hipótesis nula y asumiríamos que no hay diferencias estadísticamente significativas. Si el valor de nuestro estadístico Z hubiese sido -2,15, estaría dentro de la zona roja de la izquierda, por tanto que se encontraría en la región crítica, lo que nos llevaría a rechazar la hipótesis nula y concluiríamos que si hay diferencias estadísticamente significativas.

El contraste de hipótesis, como hemos dicho antes, puede tener dirección o no tenerla. Decimos que no tiene dirección si es bilateral o de dos colas, es decir, si las diferencias son en un sentido o en otro nos es indiferente. Pero si nos importa la dirección del contraste, si queremos saber si los alumnos aprueban o suspenden, podemos hacer un contraste en un sentido izquierdo o derecho. Entonces nuestra grafica seria la siguiente para un alpha de 0,05:


En el caso del estadístico Z con valor 1,65 que tomamos como referencia para el contraste bilateral, en el caso del contraste unilaterial con el mismo error alpha, vemos como el error ahora esta a solo a un lado de la grafica, esto hace que la concentración del error en el lado derecho (zona roja) haga que el estadístico de contraste quede dentro de la región crítica, lo que nos lleva a rechazar la hipótesis nula y concluir que si hay diferencias estadísticamente significativas. Así llegamos a la conclusión de que el contraste bilateral es más conservador que el unilateral, es decir, hace mas probable la aceptación de la hipótesis nula.

Si el contraste hubiera sido unilateral izquierdo, la región crítica (roja) y de aceptación (blanca) quedarían de la siguiente manera:


El valor que separa las regiones de aceptación y crítica se denomina valor crítico. En el caso de un intervalo bilateral tenemos dos valores críticos -1,96 y 1,96. En el caso del contraste unilateral izquierdo el valor crítico es -1,64; mientras que en el caso del unilateral derecho el valor crítico es 1,64.

Enfoque de los intervalos de confianza.


El enfoque de los intervalos de confianza sigue la lógica del enfoque de las regiones críticas, pero tiene también ciertas diferencias. El intervalo de confianza trata de determinar cuales son los limites del intervalo dentro del que es mas probable que se encuentre el índice (media, varianza, correlación, pendiente, ordenada…) que pretendemos contrastar.

La diferencia pues con las regiones críticas, es que estas tratan de ubicar la posición del estadístico de contrate dentro de la región de aceptación o la región critica, mientras que en los intervalos de confianza tratamos de ver si el índice a contrastar se encuentra o no dentro de un determinado intervalo.

Al igual que en el enfoque de las regiones de aceptación y crítica, es preciso asumir un grado de error que estamos dispuesto a cometer. Así podemos delimitar dos zonas, la región de aceptación de la hipótesis nula se denomina nivel de confianza, y la región de rechazo se denomina alpha o error. La representación grafica y direccionalidad del contraste puede verse en las figuras 1 a 4. Comparativamente podemos decir que la inferencia por el intervalo de confianza sigue el mismo esquema que con las regiones (de aceptación y crítica), pero el valor que se somete a comparación, el valor que determina la decisión no es el mismo. Las regiones de aceptación y rechazo comparan el estadístico con su posición en la grafica de distribución. El intervalo de confianza compara el valor del índice a contrastar con su inclusión o no dentro de un determinado intervalo.



Con este artículo se pretende dar una visión clara sobre la inferencia estadística y como debemos enfrentarnos a ella. Se pretende con ello, mas que saber cómo desarrollar un determinado análisis estadístico, conocer el significado real de un análisis, su significado preciso y las conclusiones que podemos extraer de él. Esto es importante porque es del todo infrecuente encontrar documentos y textos que expliquen de forma clara las diferencias entre los tres enfoques que actualmente predominan en la estadística inferencial: la p de Fisher, y las regiones críticas e intervalos de confianza de Neyman y Pearson. Los nuevos y potentes paquetes de software de análisis estadístico nos permiten realizar aquellos cálculos que nos llevarían días, semanas e incluso meses en pocos minutos. Con esto, el uso de la estadística ha proliferado, pero también ha conducido a un conjunto de malas costumbres que hacen que, si bien los análisis sean matemáticamente correctos, las conclusiones extraídas de ellos puedan no tener ningún sentido. 


No hay comentarios:

Publicar un comentario en la entrada