Tras revisar 228.220 distintos ensayos clínicos en una amplia gama de disciplinas, un análisis estadístico encontró que estudios que aseguran haber encontrado ‘grandes efectos‘ en sus resultados, rara vez son capaces de reproducir estos mismos resultados cuando otro equipo de investigadores intenta replicarlos. “En gran medida los efectos se desvanecen con el tiempo, se vuelven mucho más pequeños“, afirmó Ioannidis.
#1:
Hostia, qué titular más bueno, lo meneo sin leerlo.
#10:
Lo que cuenta el artículo, es algo que en los últimos tiempos las revistas están teniendo bastante énfasis en ello, en especial con el concepto de replicabilidad cuando hay resultados llamativos y lo que estaban pidiendo era repetir el ensayo de nuevo o hacerlo a la vez de forma independiente (como si fuera de otro investigador que está replicando tu experimento) para saber si es cierto o no o directamente amplia el número de casos a un número elevado para evitar el efecto azar.
Un ejemplo clarísimo de lo que dice la noticia, lo tuvimos hace poco con el famoso estudio de los transgénicos que causaban los tumores galopantes en las ratas que a la hora de replicar el estudio, se veía como el diseño experimental era pésimo y no había forma de replicarlo en condiciones ¿Quién revisó científicamente el artículo del maíz transgénico que produce tumores malignos?
Me acuerdo que ponían preguntas y respuestas muy parecidas pero cambiando algunos matices, o después de otras preguntas de diversos tipos, buscando causar algún tipo de efecto psicológico. Cuando vi los resultados, era mucha la gente que había respondido de forma distinta a la misma pregunta según las palabras y el orden en el que se plantearon. En las "políticamente correctas estaba la mayor diferencia. Cuando se hacía la pregunta demasiado directa todo el mundo era muy políticamente correcto, pero al replantearla de alguna forma más sutil todo cambiaba.
Lo que cuenta el artículo, es algo que en los últimos tiempos las revistas están teniendo bastante énfasis en ello, en especial con el concepto de replicabilidad cuando hay resultados llamativos y lo que estaban pidiendo era repetir el ensayo de nuevo o hacerlo a la vez de forma independiente (como si fuera de otro investigador que está replicando tu experimento) para saber si es cierto o no o directamente amplia el número de casos a un número elevado para evitar el efecto azar.
Un ejemplo clarísimo de lo que dice la noticia, lo tuvimos hace poco con el famoso estudio de los transgénicos que causaban los tumores galopantes en las ratas que a la hora de replicar el estudio, se veía como el diseño experimental era pésimo y no había forma de replicarlo en condiciones ¿Quién revisó científicamente el artículo del maíz transgénico que produce tumores malignos?
Me acuerdo que ponían preguntas y respuestas muy parecidas pero cambiando algunos matices, o después de otras preguntas de diversos tipos, buscando causar algún tipo de efecto psicológico. Cuando vi los resultados, era mucha la gente que había respondido de forma distinta a la misma pregunta según las palabras y el orden en el que se plantearon. En las "políticamente correctas estaba la mayor diferencia. Cuando se hacía la pregunta demasiado directa todo el mundo era muy políticamente correcto, pero al replantearla de alguna forma más sutil todo cambiaba.
Genial el titular. Pero el Método Científico no es más que esto. Alguien puede afirmar lo que le de la gana, puesto que sabe que está expuesto a que cualquier semejante pueda aceptar o refutar su afirmació,n intentando repetir el experimento. Y eso es la Ciencia, el problema aparece cuando las publicaciones científicas, por puros asuntos de tiraje, aceptan cualquier "paper" sin ninguna rigurosidad.
La regresión a la media quiere decir que si sale un estudio muy impresionante el siguiente es probable que no lo sea tanto. Aquí han descubierto que la gente miente, que es más serio.
#16 No necesariamente tiene que ser fraude. Muchas veces ocurre que los investigadores hacen un uso descuidado o negligente de la estadística. Repite 100 veces un experimento y por puro azar te saldrá bien el 5% de las veces (trabajando con un alfa=.05).
Ahora añade a eso la presión por publicar (publish or perish) y te encontrarás con un sesgo de publicación selectiva: sólo se publica ese 5% de experimentos que "han salido bien".
Es sólo un ejemplo.
Lo bueno es que algunos casos de este tipo de conducta dejan una "firma" fácil de reconocer.
Comentarios
Hostia, qué titular más bueno, lo meneo sin leerlo.
#1 La verdad es que me hizo tanta gracia que por eso lo puse...
#1 Hostia que comentario más bueno , me la meneo leyéndolo.
#1 uno más que menea por el titular, y no la lee
Lo que cuenta el artículo, es algo que en los últimos tiempos las revistas están teniendo bastante énfasis en ello, en especial con el concepto de replicabilidad cuando hay resultados llamativos y lo que estaban pidiendo era repetir el ensayo de nuevo o hacerlo a la vez de forma independiente (como si fuera de otro investigador que está replicando tu experimento) para saber si es cierto o no o directamente amplia el número de casos a un número elevado para evitar el efecto azar.
Un ejemplo clarísimo de lo que dice la noticia, lo tuvimos hace poco con el famoso estudio de los transgénicos que causaban los tumores galopantes en las ratas que a la hora de replicar el estudio, se veía como el diseño experimental era pésimo y no había forma de replicarlo en condiciones ¿Quién revisó científicamente el artículo del maíz transgénico que produce tumores malignos?
¿Quién revisó científicamente el artículo del maíz...
scientia1.wordpress.comPróximos titulares: "Una encuesta revela que las personas mienten mucho cuando las encuestan"
#3 En una de esas participé hace unos años.
Me acuerdo que ponían preguntas y respuestas muy parecidas pero cambiando algunos matices, o después de otras preguntas de diversos tipos, buscando causar algún tipo de efecto psicológico. Cuando vi los resultados, era mucha la gente que había respondido de forma distinta a la misma pregunta según las palabras y el orden en el que se plantearon. En las "políticamente correctas estaba la mayor diferencia. Cuando se hacía la pregunta demasiado directa todo el mundo era muy políticamente correcto, pero al replantearla de alguna forma más sutil todo cambiaba.
No os lo creáis, leches, que es un estudio increíble.
El titular ha entrado en bucle infinito...
No me sorprende, en estos casos el 87% de las estadísticas son falsas, y el otro 24% ni siquiera tiene sentido.
Increíble oiga.
Si el estudio es increíble y los estudios con resultados increíles son falsos, el estudio es falso.
Dios no hace falta ni probarlo jajajaja
Vaya! Igual que las promesas de los politicos!
yo he creido que era una noticia de elmundotoday.com...
Habra que ver si este estudio es creible o no. Si no es creible puro teorema de Goddel.
¿Para cuando un increíble estudio que demuestre que los estudios no tienen nada de increíble?
Usualmente es un "false friend" con el que se suele traducir usually.
La traducción correcta sería "Un increíble estudio revela que estudios con resultados increíbles suelen ser falsos"
Para cuándo un estudio del número de estudios irrelevantes?
Llevo media hora leyendo el titutlar. Dadme un poco más de tiempo...
ABSTRACT
Excepto este.
La gente suele inventar estadísticas para reafirmar aus argumentos, y esto lo sabe el 16% de la gente.
Simpsons dixit
Todos..., menos este!
Genial el titular. Pero el Método Científico no es más que esto. Alguien puede afirmar lo que le de la gana, puesto que sabe que está expuesto a que cualquier semejante pueda aceptar o refutar su afirmació,n intentando repetir el experimento. Y eso es la Ciencia, el problema aparece cuando las publicaciones científicas, por puros asuntos de tiraje, aceptan cualquier "paper" sin ninguna rigurosidad.
Ya hasta realizan estudios de los estudios.Es que se han quedado sin cosas que estudiar o que.
Vaya, que han descubierto la regresión al media.
#14 Nop.
La regresión a la media quiere decir que si sale un estudio muy impresionante el siguiente es probable que no lo sea tanto. Aquí han descubierto que la gente miente, que es más serio.
#16 No necesariamente tiene que ser fraude. Muchas veces ocurre que los investigadores hacen un uso descuidado o negligente de la estadística. Repite 100 veces un experimento y por puro azar te saldrá bien el 5% de las veces (trabajando con un alfa=.05).
Ahora añade a eso la presión por publicar (publish or perish) y te encontrarás con un sesgo de publicación selectiva: sólo se publica ese 5% de experimentos que "han salido bien".
Es sólo un ejemplo.
Lo bueno es que algunos casos de este tipo de conducta dejan una "firma" fácil de reconocer.
¡Lo paradógico es que esto es un "resultado increíble"!
Siempre hay que tener mucha cautela con los "resultados revolucionarios" de los estudios científicos...
#18 Lo paradójico es que escribas paradógico.