MÉTODO INFERENCIAL
En la
actualidad es muy común que se empleen los resultados de los programas de
análisis estadístico muchas veces sin conocer su origen y su verdadero
significado. Así, conceptos que aunque pertenecen a perspectivas teóricas
diferentes, tienden a mezclarse formando un galimatías difícil de comprender e
interpretar correctamente.
Así
podemos hablar de dos perspectivas en inferencia estadística, la de Fisher por
un lado, y la de Neyman y Pearson por otro. Veamos estos enfoques por partes.
Para
Fisher, la inferencia estadística trataba de responder a la pregunta, ¿cómo de
probable es que el estadístico obtenido se deba al azar?. De esta forma, Fisher
desarrolla su famoso valor p o p-valor. Este valor nos dice como de probable es
que el estadístico hallado se daba al azar. Fisher considero razonable que si
la probabilidad era menor o igual a 1/20, el valor del estadístico era debido
al azar, si era mayor, no se debía al azar. Los valores superiores a 1/20 (o
0,05), conducían a la aceptación de la hipótesis nula, los valores menores o
iguales conducían al rechazo de la hipótesis nula.
Así,
para Fisher no era importante decidir sobre la aceptación o rechazo de la
hipótesis nula, lo que le interesa a él, era como de probable es que el
estadístico se debiera al azar, y esa probabilidad no tiene por que ser fija,
es mas, la condicionara el contexto de la investigación, por que es en el seno
de la investigación donde la probabilidad de un suceso cobra importancia. Esta
afirmación es esencial en inferencia estadística, un hecho como suspender un
examen puede no ser significativo, aunque si probable, de la misma manera un
hecho como una catástrofe aérea puede ser significativo, aunque también
improbable. Por tanto, y siguiendo a Fisher, tomaremos en términos generales el
valor de 0,05 (igual a 1/20), pero dado que este valor no esta supeditado a
razonamientos matemáticos, deberemos elegirlo de la manera mas adecuada según
nuestra investigación. Es importante destacar que para Fisher no existe la
hipótesis alternativa y no contempla la existencia de alpha, por lo que no
tiene sentido comparar el p-valor con alpha, como se suele hacer hoy de manera
casi sistemática.
El otro
enfoque de la inferencia estadística es el desarrollado por Neyman y Pearson, y
aunque en términos generales busca lo mismo que el de Fisher, sus premisas son
diferentes. Si para Fisher lo importante era saber como de probable era que el
estadístico hallado se debiera al azar, para Neyman y Pearson lo importante era
tomar una decisión en relación al estadístico hallado. Con estos autores los
conceptos de hipótesis nula e hipótesis alternativa son centrales, el hecho de
aceptar una hipótesis supone de manera automática el rechazo de la otra. Neyman
y Pearson asumen que las decisiones que vamos a tomar respecto a las hipótesis
van a ser verdaderas solo en una determinada medida, lo que les lleva a incluir
el análisis del error en su modelo inferencial. Bajo estas premisas, Neyman y
Pearson desarrollan dos modelos, por un lado el de las regiones críticas, y por
otro, el de los intervalos de confianza.
Enfoque
de las regiones críticas.
La
inferencia estadística, tomando como referencia el enfoque de las regiones
críticas de Neyman y Pearson, supone, a diferencia de Fisher, asumir a priori
(antes del análisis) un grado de confianza sobre el error que estamos
dispuestos a cometer. De esta forma delimitamos dos regiones, una región de
aceptación de la hipótesis nula, y una región crítica o de rechazo de la
hipótesis nula. La región de aceptación de la hipótesis nula tiene asociada una
probabilidad conocida con el nombre de nivel de significación, y la región
crítica tiene una probabilidad asociada de error que estamos dispuestos a
cometer que recibe el nombre de alpha (α). Así, nivel de significación mas error,
siempre es igual a uno.
Nivel de significación + Error = 1
Una vez
delimitadas estas dos regiones, si nuestro estadístico cae en una u otra
región, aceptamos o rechazamos la hipótesis nula.
La
relación que tiene este enfoque de las regiones críticas, con el enfoque de la
probabilidad del estadístico de Fisher, en lo que al error respecta, es mera
coincidencia. La cuestión es que Fisher, como ya dijimos, asumía una
probabilidad mínima de 1/20 para aceptar la hipótesis nula (que salvo
requerimientos concretos del conjunto muestral podía tomarse como genérica), y
Neyman y Pearson consideran de igual manera que, en términos generales, un
error del 5% es razonablemente asumible en términos generales. Y toda la
coincidencia viene por que 1/20 = 5% = 0,05. Esto ha hecho que sea frecuente
que se compare el valor de probabilidad del estadístico con la probabilidad de
error a priori, que como puede verse, no tienen ninguna relación de tipo
teórico.
Veamos
ahora (Figura 1) lo que hemos dicho sobre la gráfica de la distribución normal.
En ella puede verse un contraste bilateral, por tanto, las hipótesis plantean
que hay una diferencia, pero no indican si es en un sentido o en otro. Se ha
asumido un nivel de significación de 0,95 por tanto el error alpha vale 0,05.
Al tratarse de una inferencia bilateral el error se posiciona en el extremo
izquierdo y derecho de la grafica (zonas rojas). Como el error que estamos
dispuestos a asumir es de 0,05, tendremos la mitad de ese error en cada extremo
(0,05/2 = 0,025). El punto central con probabilidad P = 0,5 se corresponde con
la media.
Hasta
aquí hemos visto que diferentes puntos de la grafica tienen una probabilidad
diferente. Imaginemos que en esta grafica estamos representado las
calificaciones de un grupo de estudiantes. La mayoría de ellos tendría
puntuaciones cercanas a la media (5 en una escala de 0 a 10), mientras que
pocos estarían próximos a tener un cero o a tener un 10. Ahora vamos a tratar
de determinar que puntuación le corresponde a estas probabilidades, para lo que
vamos a tomar como referencia, siguiendo lo dicho, la distribución normal.
Una
distribución es una forma teórica con unas propiedades concretas que
representan un conjunto de datos, así por ejemplo, la distribución normal asume
que la media es 0, la desviación típica es 1, y la distribución es simétrica,
etc. Para determinar la puntuación que le corresponde a cada probabilidad hay
unas formulas concretas, pero su calculo es complejo, por lo que se han
desarrollado tablas para conocer estos valores sin necesidad de entrar en su
calculo. También diferentes programas informáticos te dan el valor exacto con
la precisión decimal deseada. La función de Excel que da la puntuación
correspondiente a una probabilidad en la distribución normal es
DISTR.NORM.ESTAND.INV(probabilidad), donde «probabilidad» es un valor entre 0 y
1.
Así
podemos llegar a la siguiente gráfica:
La
figura 2 nos muestra la probabilidad (línea superior) junto con la puntuación
típica normalizada (línea inferior) que le corresponde a esa probabilidad en la
distribución normal. Cuando se calcula un estadístico de contraste Z, es decir
distribuido normalmente, lo que se calcula es precisamente un valor que se
corresponde con la línea inferior. Así si el valor del estadístico Z es igual a
1,65, dado que este valor se encuentra entre los valores -1,96 y 1,96, se
encuentra en la zona blanca, que es la región de aceptación de la hipótesis
nula que tiene una probabilidad o nivel de significación de 0,95. Por lo tanto,
en este caso aceptaríamos la hipótesis nula y asumiríamos que no hay
diferencias estadísticamente significativas. Si el valor de nuestro estadístico
Z hubiese sido -2,15, estaría dentro de la zona roja de la izquierda, por tanto
que se encontraría en la región crítica, lo que nos llevaría a rechazar la
hipótesis nula y concluiríamos que si hay diferencias estadísticamente
significativas.
El
contraste de hipótesis, como hemos dicho antes, puede tener dirección o no tenerla.
Decimos que no tiene dirección si es bilateral o de dos colas, es decir, si las
diferencias son en un sentido o en otro nos es indiferente. Pero si nos importa
la dirección del contraste, si queremos saber si los alumnos aprueban o
suspenden, podemos hacer un contraste en un sentido izquierdo o derecho.
Entonces nuestra grafica seria la siguiente para un alpha de 0,05:
En el
caso del estadístico Z con valor 1,65 que tomamos como referencia para el
contraste bilateral, en el caso del contraste unilaterial con el mismo error
alpha, vemos como el error ahora esta a solo a un lado de la grafica, esto hace
que la concentración del error en el lado derecho (zona roja) haga que el
estadístico de contraste quede dentro de la región crítica, lo que nos lleva a
rechazar la hipótesis nula y concluir que si hay diferencias estadísticamente
significativas. Así llegamos a la conclusión de que el contraste bilateral es
más conservador que el unilateral, es decir, hace mas probable la aceptación de
la hipótesis nula.
Si el
contraste hubiera sido unilateral izquierdo, la región crítica (roja) y de
aceptación (blanca) quedarían de la siguiente manera:
El
valor que separa las regiones de aceptación y crítica se denomina valor
crítico. En el caso de un intervalo bilateral tenemos dos valores críticos
-1,96 y 1,96. En el caso del contraste unilateral izquierdo el valor crítico es
-1,64; mientras que en el caso del unilateral derecho el valor crítico es 1,64.
Enfoque de los intervalos de confianza.
El
enfoque de los intervalos de confianza sigue la lógica del enfoque de las
regiones críticas, pero tiene también ciertas diferencias. El intervalo de
confianza trata de determinar cuales son los limites del intervalo dentro del
que es mas probable que se encuentre el índice (media, varianza, correlación,
pendiente, ordenada…) que pretendemos contrastar.
La
diferencia pues con las regiones críticas, es que estas tratan de ubicar la
posición del estadístico de contrate dentro de la región de aceptación o la
región critica, mientras que en los intervalos de confianza tratamos de ver si
el índice a contrastar se encuentra o no dentro de un determinado intervalo.
Al
igual que en el enfoque de las regiones de aceptación y crítica, es preciso
asumir un grado de error que estamos dispuesto a cometer. Así podemos delimitar
dos zonas, la región de aceptación de la hipótesis nula se denomina nivel de
confianza, y la región de rechazo se denomina alpha o error. La representación
grafica y direccionalidad del contraste puede verse en las figuras 1 a 4.
Comparativamente podemos decir que la inferencia por el intervalo de confianza
sigue el mismo esquema que con las regiones (de aceptación y crítica), pero el
valor que se somete a comparación, el valor que determina la decisión no es el
mismo. Las regiones de aceptación y rechazo comparan el estadístico con su
posición en la grafica de distribución. El intervalo de confianza compara el
valor del índice a contrastar con su inclusión o no dentro de un determinado
intervalo.
Con este artículo se pretende dar una visión clara sobre la
inferencia estadística y como debemos enfrentarnos a ella. Se pretende con
ello, mas que saber cómo desarrollar un determinado análisis estadístico,
conocer el significado real de un análisis, su significado preciso y las
conclusiones que podemos extraer de él. Esto es importante porque es del todo
infrecuente encontrar documentos y textos que expliquen de forma clara las
diferencias entre los tres enfoques que actualmente predominan en la
estadística inferencial: la p de Fisher, y las regiones críticas e intervalos
de confianza de Neyman y Pearson. Los nuevos y potentes paquetes de software de
análisis estadístico nos permiten realizar aquellos cálculos que nos llevarían
días, semanas e incluso meses en pocos minutos. Con esto, el uso de la
estadística ha proliferado, pero también ha conducido a un conjunto de malas
costumbres que hacen que, si bien los análisis sean matemáticamente correctos,
las conclusiones extraídas de ellos puedan no tener ningún sentido.
como se llama la cancion de fondo?
ResponderEliminarno es lo que busco
ResponderEliminarno es lo que busco
ResponderEliminar