11 votos

Hizo que los investigadores anteriores no se detecta la mano caliente, simplemente porque de una estadística falacia?

Muchos aficionados al baloncesto/jugadores que creen que de haber realizado varios disparos en una fila, la siguiente foto es más probable que vaya en. Esto es a veces llamada la mano caliente.

De partida (creo) con Gilovich, Mallone, y Tversky (1985), fue "demostrado" que esto era en realidad una falacia. Incluso si varios disparos en una fila han ido en la siguiente foto no es más probable en que el promedio de porcentaje de tiro dictaría.

Miller y Sanjurjo (2015) argumentan que la mano caliente no en el hecho de existir y de investigadores anteriores, simplemente, habían caído presas de una manera bastante básica estadística falacia. Su argumento es algo como esto:

Lanza una moneda cuatro veces. Calcular la probabilidad de que H sigue H. A dar un par de ejemplos: HHTT habría probabilidad 1/2, HTHT habría probabilidad de 0/2, TTHH habría probabilidad 0/1 1/1, y ambos TTTT y TTTH sería N. A.

Miller y Sanjurjo del remate es que el valor esperado de esta probabilidad no es de 0,5, pero ≈0.4. Y el error cometido por los anteriores investigadores asumen incorrectamente que el valor esperado de esta probabilidad es de 0,5. Así que si por ejemplo estas anteriores a cabo por los investigadores de la anterior tira la moneda y el experimento encontró que el promedio de la probabilidad a decir 0.497, que incorrectamente se concluyó que no había evidencia de una mano caliente (no significativamente diferente de 0.5), cuando en realidad no era muy fuerte evidencia de una mano caliente (significativamente diferentes de 0.4).

Mi pregunta es: Se Miller y Sanjurjo correcto que los investigadores anteriores no pudo detectar la mano caliente, simplemente porque de este error? Sólo he desnatada en uno o dos artículos sobre este, así que quería conseguir algunos de confirmación de alguien aquí que pueda conocer esta literatura mejores. Esto parece sorprendentemente tonto error que han persistido durante tres décadas o más.

6voto

mrigasira Puntos 834

(Esta respuesta fue completamente reescrito para mayor claridad y legibilidad en julio de 2017.)

Lanza una moneda al aire 100 veces en una fila.

Examinar la tapa inmediatamente después de una racha de tres colas. Deje que $\hat{p}(H|3T)$ ser la proporción de tiradas de la moneda después de cada racha de tres colas en una fila que son los jefes. Del mismo modo, dejar que $\hat{p}(H|3 H)$ ser la proporción de tiradas de la moneda después de cada racha de tres cabezas en una fila que son los jefes. (Ejemplo en la parte inferior de esta respuesta.)

Vamos $x:=\hat{p}(H|3H)-\hat{p}(H|3T)$.

Si la moneda-flips son yo.yo.d., a continuación, "obviamente", a través de muchas secuencias de moneda de 100-flips,

(1) $x>0$ se espera que suceda tan a menudo como $x<0$.

(2) $E(X)=0$.

Generamos un millón de secuencias de moneda de 100-voltea y obtener los siguientes dos resultados:

(I) $x>0$ pasa más o menos como a menudo como $x<0$.

(II) $\bar{x} \approx 0$ ($\bar{x}$ es el promedio de $x$ a través de los millones de secuencias).

Y así llegamos a la conclusión de que la moneda-flips son de hecho yo.yo.d. y no hay ninguna evidencia de una mano caliente. Esto es lo que GVT (1985) hizo (pero con tiros de baloncesto en lugar de la moneda-flips). Y así es como llegaron a la conclusión de que la mano caliente no existe.


Remate: Sorprendentemente, (1) y (2) son incorrectas. Si la moneda-flips son yo.yo.d., entonces debe ser que en lugar

(1-corregido) $x>0$ se produce sólo alrededor de un 37% del tiempo, mientras que $x<0$ se produce alrededor del 60% del tiempo. (En el 3% restante del tiempo, ya sea $x=0$ o $x$ es indefinido, ya sea porque no hubo una racha de 3H o no es una racha de 3T en el 100 lanzamientos.)

(2-corregido) $E(X) \aprox -0.08$.

La intuición (o contra-intuición) que participan es similar a la de varios otros famosos probabilidad de rompecabezas: los Monty Hall problema, los dos chicos problema, y el principio de restricción de elección (en el juego de cartas bridge). La respuesta a esto es ya lo suficiente y así que voy a omitir la explicación de esta intuición.

Y así que los resultados (I) y (II) obtenido por GVT (1985) son en realidad una fuerte evidencia en favor de la mano caliente. Esto es lo que Miller y Sanjurjo (2015) mostró.


Un análisis más detallado de GVT de la Tabla 4.

Muchos (por ejemplo, @scerwin a continuación) - sin tomarse la molestia de leer GVT (1985) - expresó incredulidad de que cualquier "entrenados estadístico nunca iba a" tomar un promedio de los promedios en este contexto.

Pero eso es exactamente lo que GVT (1985) en su lugar de la Tabla 4. Ver su Tabla 4, columnas 2-4 5-6, fila inferior. Ellos encuentran que promediado a través de los 26 jugadores,

$\hat{p}(H|1M) \aprox 0.47$ y $\hat{p}(H|1H) \aprox 0.48$,

$\hat{p}(H|2M) \aprox 0.47$ y $\hat{p}(H|2H) \aprox 0.49$,

$\hat{p}(H|3) \aprox 0.45$ y $\hat{p}(H|3 H) \aprox 0.49$.

En realidad, es el caso de que para cada $k=1,2,3$, el promedio de $\hat{p}(H|kH)>\hat{p}(H|kM)$. Pero GVT el argumento parece ser que estos no son estadísticamente significativos, por lo que estos no se evidencia en favor de la mano caliente. OK justo lo suficiente.

Pero si en lugar de tomar el promedio de los promedios (un movimiento considerado increíblemente estúpido por algunos), nos rehacer su análisis y agregado a través de los 26 jugadores (de 100 tiros para cada uno, con algunas excepciones), obtenemos la siguiente tabla de promedios ponderados.

Any                     1175/2515 = 0.4672

3 misses in a row       161/400 = 0.4025
3 hits in a row         179/313 = 0.5719

2 misses in a row       315/719 = 0.4381
2 hits in a row         316/581 = 0.5439        

1 miss in a row         592/1317 = 0.4495
1 hit in a row          581/1150 = 0.5052

La tabla indica, por ejemplo, que un total de 2,515 tomas fueron tomadas por los 26 jugadores, de los cuales 1,175 o 46.72% fueron hechas.

Y de los más de 400 casos en los que un jugador se perdió 3 en una fila, 161 o 40.25% fueron inmediatamente seguido por un golpe. Y de los 313 casos en los que un jugador golpea 3 en una fila, 179 o 57.19% fueron inmediatamente seguido por un golpe.

El de arriba promedios ponderados parecen ser fuerte evidencia en favor de la mano caliente.

Tenga en cuenta que el disparo experimento se estableció de modo que cada jugador estaba disparando desde donde se había determinado que él/ella podría hacer que aproximadamente el 50% de sus tiros.

(Nota: "Extrañamente" suficiente, en la Tabla 1 para un análisis similar con los Sixers' en el juego de disparos, GVT en cambio presentan los promedios ponderados. Así que ¿por qué no hacen lo mismo para la Tabla 4? Mi conjetura es que ciertamente lo hizo calcular los promedios ponderados de la Tabla 4 - los números que se presento anteriormente, no le gustó lo que vio y decidió acabar con ellos. Este tipo de comportamiento es, por desgracia par para el curso en la academia.)


Ejemplo: Digamos que tenemos la secuencia de $HHHTTTHHHHH...H$ (sólo flips #4-#6 son las colas, el restante 97 lanzamientos son todos los jefes). Entonces $\hat{p}(H|3T)=1/1=1$, porque sólo hay 1 racha de tres colas y la tapa inmediatamente después de que la raya es la cabeza.

Y $\hat{p}(H|3 H)=91/92 \aprox 0.989$ porque hay 92 vetas de tres cabezas y 91 de los 92 rayas, la tapa inmediatamente después de cabezas.


P. S. GVT (1985) en el cuadro 4 contiene varios errores. Me percaté de que al menos dos errores de redondeo. Y también para el jugador 10, el paréntesis los valores de las columnas 4 y 6 no se suman a un menor que en la columna 5 (contrario a la nota en la parte inferior). Me puse en contacto Gilovich (Tversky está muerto y Vallone no estoy seguro), pero por desgracia, él ya no tiene el original de las secuencias de aciertos y errores. La tabla 4 es todo lo que tenemos.

5voto

Bernard Puntos 10700

Ninguno de los dos papeles son lo suficientemente claros en cuanto a sus aplicaciones de la Estadística, por lo que en esta respuesta voy a intentar una clarificación.

Gilovich, Mallone, y Tversky (1985) en su Resumen de definir el "Hot-Mano efecto" de la siguiente manera:

"Los jugadores de baloncesto y los aficionados tienden a creer que un jugador posibilidad de golpear un tiro son mayores después de un golpe de perderse en la toma anterior."

"Toma anterior" se extiende a la anterior de "uno, dos o tres" disparos. Denota una serie de $k$ secuencial de los Éxitos de $H_k$ y una serie de $k$ secuencial pierde por $M_k$, la presencia de la Caliente Mano efecto es definido como

$$P(H \mediados de H_k) > P(H\mediados de M_k),\;\;\; k\geq 1 \etiqueta{1}$$

donde por compacidad, se entiende que la foto en cuestión es la inmediatamente después de la secuencia de golpes o accidentes. Estos son teóricos probabilidades condicionales (es decir, constantes), no condicional de la relación empírica de frecuencias.

¿Cómo los autores intentan probar la existencia de la Caliente Mano Efecto? De obtener datos empíricos, se calcula condicional relación empírica de frecuencias $\hat P(H \mediados de H_k) ,\; \hat P(H\mediados de M_k)$ (que son variables aleatorias) y realizar pruebas t con la hipótesis nula (p 299-300)

$${\rm H_o:} P(H \mediados de H_k) - P(H\mediados de M_k) =0$$

Nota por la forma en que esta prueba es más débil que una prueba de la independencia de disparos: estas probabilidades puede ser igual, pero todavía diferente de la probabilidad incondicional $P(H)$.

Naturalmente, la estadística utilizada es de $T\equiv \hat P(H \mediados de H_k) - \hat P(H\mediados de M_k)$. Los autores encuentran que la nula es rechazada en los niveles de significación convencionales, pero en una dirección contra la Caliente Mano Hipótesis: el t-valor es lo suficientemente grande, pero negativo.

La pregunta entonces es: es la prueba válida? Primero, para empírica de frecuencias para estimar consistentemente desconocido probabilidades, debe ser el caso de que la muestra es ergodic estacionarias. Es, en este caso (ver la discusión en la página.297). La otra cosa de la izquierda a la pregunta es ¿cuál es la distribución de la estadística de $T$? Es bien aproximada por una Estudiante de distribución para muestras finitas (ya que los valores críticos de la distribución que se utilizan)? Y ¿de qué tamaño?

Lo que Miller y Sanjurjo (2015) hacer es argumentar (y al parecer, demostrar) que la "exacta" finito (de la muestra) distribución de $T$ tiene un no despreciable asimetría negativa y un no-cero valor esperado,(ver pp 18-19). Si esto es así, el uso de la prueba t-test puede ser engañosa, al menos para muestras finitas, si bien puede seguir siendo válido asintóticamente/para los "grandes" de muestras.

Por lo tanto, si hay un problema con el Gilovich et al. de papel, no es la definición de la Caliente Mano, no es la formulación de la de contraste de hipótesis, no es la selección de la estadística a ser utilizada: es la validez de la crítica de los valores utilizados para ejecutar las pruebas (y por lo tanto de la implícita en la distribución de la asunción), si de verdad lo finito, pequeña-la distribución de la muestra (bajo la hipótesis nula) es visiblemente no centrado en cero y también asimétrica.

En tales casos, lo que se hace generalmente es obtener por simulación especiales valores críticos para realizar la prueba (recordar, por ejemplo, el especial de los valores críticos para el Dickey-Fuller prueba para una unidad de la raíz). He dejado de ver un enfoque en el Miller-Sanjurjo de papel en su lugar, realizan "significa el sesgo de ajuste", y que después de este ajuste, la conclusión de la prueba se invierte. No estoy seguro de que este es el camino a seguir.

Sin embargo, una simulación burda valida el de Miller-Sanjurjo resultados en cuanto a la distribución de la estadística. He simulado $200$ las muestras de cada uno de tamaño $n=$ 100, el de independiente Bernoullis con $p=0.5$.
La distribución empírica de la estadística de $T_3 = \hat P(H \mediados de H_3) - \hat P(H\mediados de M_3)$ tiene una media muestral de $-0.0807$ y una mediana de $-0.072$, con $62.5\%$ de los valores negativos. El empírica histograma es

enter image description here

4voto

Lucas Puntos 128

(Descargo de responsabilidad: no conozco a esta literatura.) A mí me parece que Miller y Sanjurjo tiene una crítica válida de una determinada medida estadística. No sé si esto debe ser considerado para invalidar todo el trabajo previo sobre la caliente mano efecto, ya que se centran sólo en esta medida en particular.

La medida es

$$ M := P(\text{hacer tiro }|\text{ hecho inyección anterior}) - P(\text{hacer tiro }|\text{ miss inyección anterior}) $$ donde $P(X)$ en realidad significa "la fracción de veces que $X$ se produjo".

Antes de la obra, tales como [Gilovich, Mallone, Tversky, 1985], afirma que $M$ ser cercano a cero o negativo es la evidencia de una falta de la caliente mano efecto. La suposición implícita es que $\mathbb{E} M > 0$ si hay una bañera de mano efecto y $\mathbb{E} M = 0$ lo contrario. (Consulte la sección de Análisis de Probabilidades Condicionales en Estudio 2.)

Sin embargo, Miller y Sanjurjo señalar que $\mathbb{E} M < 0$ si no es en caliente, mano de efecto. Por lo tanto $M$ estar cerca de cero no indica una falta de la caliente mano efecto.

Así que, de nuevo, en resumen, yo en realidad no han contestado a su pregunta sobre si este papel invalida el trabajo previo sobre la mano caliente el efecto de (que utiliza diferentes medidas estadísticas), pero a mí me parece que el trabajo se hace un punto válido con respecto a este particular medida estadística. Específicamente, por ejemplo, Gilovich, Mallone, Tversky utiliza la no-positividad de $M$ como una pieza de evidencia de apoyo, y en este trabajo se muestra la falla en el argumento.

2voto

davidsandey Puntos 29

En mi opinión, Miller y Sanjurjo simplemente calcula las frecuencias relativas en la Tabla 1 incorrectamente. Su tabla que se muestra a continuación con dos nuevas columnas, que cuente el número de subsecuencias HH y HT que se producen dentro de cada secuencia, de 4 de coin flips. Para obtener la deseada probabilidad condicional p(H|H) uno debe de suma estos recuentos N(HH) y N(HT) y luego se divide como se muestra a continuación. Haciendo esto da p(H|H)=0.5, como se esperaba. Por alguna razón, Miller y Sanjurjo primero se calcula la frecuencia relativa para cada secuencia y, a continuación, promediado sobre las secuencias. Eso está mal.

Sequence     Subsequences       N(HH) N(HT)    p(H|H)
TTTT  ->  TT.. , .TT. , ..TT      0     0        -  
TTTH  ->  TT.. , .TT. , ..TH      0     0        -  
TTHT  ->  TT.. , .TH. , ..HT      0     1       0.0 
THTT  ->  TH.. , .HT. , ..TT      0     1       0.0 
HTTT  ->  HT.. , .TT. , ..TT      0     1       0.0 
TTHH  ->  TT.. , .TH. , ..HH      1     0       1.0 
THTH  ->  TH.. , .HT. , ..TH      0     1       0.0 
THHT  ->  TH.. , .HH. , ..HT      1     1       0.5 
HTTH  ->  HT.. , .TT. , ..TH      0     1       0.0 
HTHT  ->  HT.. , .TH. , ..HT      0     2       0.0 
HHTT  ->  HH.. , .HT. , ..TT      1     1       0.5 
THHH  ->  TH.. , .HH. , ..HH      2     0       1.0 
HTHH  ->  HT.. , .TH. , ..HH      1     1       0.5 
HHTH  ->  HH.. , .HT. , ..TH      1     1       0.5 
HHHT  ->  HH.. , .HH. , ..HT      2     1       0.66
HHHH  ->  HH.. , .HH. , ..HH      3     0       1.0 
                                 --    --       ----
                                 12    12       0.40
                            p(H|H)=N(HH)/N(H*)
                                  =12/(12+12)
                                  =0.5

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X