¿Por qué JPE no se ha retractado formalmente de Oster (2005)?
En este caso, simplemente no hay razón para retractarse del documento.
Los artículos académicos suelen retractarse por uno de los siguientes motivos:
- Retracción por error : Por ejemplo, si el papel afirma que si $3+x=15$ entonces $x=10$ y dicho error cambia significativamente las conclusiones del estudio (normalmente el error tiene que ser grave). Sin embargo, tiene que tratarse de un error grave, no de algo así como que cuando los errores de regresión tienen sólo heterocedasticidad podría ser mejor y más apropiado utilizar los errores blancos en lugar de los errores HAC - esto también puede cambiar a veces el resultado de un estudio, pero se permite a la gente hacer algunos juicios al establecer sus modelos.
- Retractación por fraude o mala conducta : Por ejemplo, el plagio, la falsificación de datos o de resultados. Algún problema ético (por ejemplo, se descubrió más tarde que los datos para el trabajo se recogieron de forma poco ética, etc.).
- Retractación de un artículo a petición de un autor : A veces los autores piden a la publicación que se retracte del artículo. Esto puede ocurrir incluso si el artículo no tiene problemas. Por ejemplo, recientemente un artículo sobre asesinatos policiales fue retractado por los autores, a quienes no les gustaba cómo se presentaba su artículo en los medios de comunicación.
- Retractación de un documento debido a las relaciones públicas : A veces ocurre que los lectores o el público en general quieren que el artículo se retracte. Por ejemplo, PLOS One retractó un artículo de biología después de que los lectores se quejaran de que hacía referencia al "creador", aunque retractarse de un artículo por este motivo siempre es controvertido, y no todas las revistas hacen algo así (y la revista fue muy criticada por esta retractación).
En el caso anterior, 1 y 2 no parecen ser aplicables. Según lo escrito por Levitt en su blog (también mencionado en los comentarios) [el énfasis es mío]:
Emily escribió un artículo en el que argumentaba que las altas tasas de hepatitis B en China explicaban gran parte del rompecabezas de las mujeres desaparecidas. Los datos médicos sugerían que las mujeres con hepatitis B daban a luz más hijos varones: muchas mujeres en China están infectadas, por lo que tienen demasiados hijos varones. Me pareció una teoría descabellada cuando la escuché por primera vez, pero ella reunió pruebas muy convincentes de diversas fuentes para apoyar su argumento. Al final lo publicamos en el Journal of Political Economy, donde yo era editor.
Luego vinieron otros académicos, entre ellos mi amigo y ex alumno Ming-jen Lin, que reunió datos de nuevas fuentes que no apoyaban las conclusiones de Emily. Por lo general, estos debates se vuelven bastante enconados y se prolongan hasta que ya no le importa a nadie. Ciertamente, nadie admitiría que estaba equivocado.
Por lo tanto, en este caso no hay pruebas de que haya habido ningún error en el estudio, ni fraude ni ninguna otra mala conducta. Por lo que tengo entendido, el estudio fue anulado gracias a nuevos y mejores datos. Además, es obvio que el autor no solicitó la retractación, de lo contrario el artículo no seguiría apareciendo. Además, no parece haber ninguna presión de la "mafia" para que se retraiga (el punto 4) y, como se menciona en el punto 4, muchas revistas no sucumbirían a la presión de la mafia.
Y más tarde, Oster et al. publicaron lo que equivalía a una retractación completa: "La hepatitis B no explica la proporción de hombres en China" (2008, 2010).
No, en realidad no fue una retractación, sino una nueva publicación con un nuevo método y nuevos datos que no confirmaron el resultado de la publicación original. Los autores suelen especializarse en una sola área de investigación. Siempre es posible, y de hecho en los estudios empíricos no es demasiado raro, ver que nuevos y mejores datos y técnicas estadísticas cambian las conclusiones de un estudio.
Por ejemplo, si un investigador realiza un ensayo de control aleatorio con 30 participantes puede encontrar un efecto positivo que sea publicable y publicarlo. Sin embargo, aunque los resultados sean interesantes, el hecho de tener sólo 30 participantes es una debilidad (que puede ser criticada, pero que no tiene por qué ser motivo de rechazo del artículo). Más adelante en su carrera, el científico puede decidir repetir el experimento con una muestra mayor, por ejemplo, de 1000 participantes, y puede ocurrir que el nuevo estudio demuestre que el anterior era erróneo. Ese nuevo estudio puede seguir publicándose, y el anterior no será retractado ni tendrá ninguna errata.
Lo que me pareció extraño es que Oster (2005) siga apareciendo en el sitio web de JPE (y también en JSTOR). No hay ninguna retractación, fe de erratas o cualquier otra pista para el lector desinformado de que pueda haber algo malo en el artículo.
En realidad, esto no es nada extraño. Así es como funcionan normalmente las publicaciones científicas. Los resultados más antiguos se cuestionan cada día en la ciencia. Por ejemplo, todavía se pueden encontrar cientos de artículos antiguos de física, economía y biología que discuten resultados o teorías que se han demostrado erróneos. Eso no es razón para retractarse de esos viejos artículos, ya que son y deben seguir siendo parte del corpus de la literatura científica.
Esta es la razón por la que cualquier científico te dirá que si quieres entender algún tema tienes que hacer una revisión de la literatura sobre el tema. En ningún campo de la ciencia se puede tomar un solo artículo al pie de la letra, independientemente de quién lo haya escrito y en qué revista se haya publicado. Cualquier artículo tiene que situarse adecuadamente en el mosaico de la literatura más amplia para ser entendido correctamente. Por eso no basta con que un lego en la materia lea un artículo sobre, por ejemplo, una medicación y se ponga a recetarla.