Il bias di pubblicazione è un tipo di distorsione che si verifica nella ricerca accademica pubblicata. Si verifica quando il risultato di un esperimento o di uno studio di ricerca influenza la decisione se pubblicarlo o altrimenti distribuirlo. Il bias di pubblicazione è importante perché le recensioni di letteratura riguardanti il supporto di un'ipotesi possono essere distorte se la letteratura originale è contaminata da esso[1]. In altre parole, pubblicare solo i risultati che mostrano una scoperta significativa e omettere risultati che non supportano l'ipotesi sperimentale disturba l'equilibrio dei risultati stessi[2].
Gli studi con risultati significativi possono essere dello stesso livello degli studi con un risultato nullo per quanto riguarda la qualità dell'esecuzione e del disegno[3]. Inoltre, una volta che un dato scientifico è ben consolidato, può essere interessante pubblicare articoli attendibili che non riescano a respingere l'ipotesi nulla[4]. Tuttavia, i risultati statisticamente significativi hanno una probabilità tre volte maggiore di essere pubblicati rispetto a quelli con risultati nulli[5].
Diversi fattori contribuiscono al bias di pubblicazione[1]. È stato scoperto che il motivo più comune per la mancata pubblicazione è semplicemente il fatto che i ricercatori rifiutano di presentare i risultati, portando al bias di non risposta. I fattori citati come alla base di questo effetto includono il fatto che i ricercatori suppongano di aver commesso un errore, il mancato supporto di una scoperta nota, la perdita di interesse nell'argomento o la convinzione che gli altri non saranno interessati ai risultati nulli[3]. La natura di queste questioni e i problemi che sono stati innescati, sono stati indicati come le 5 malattie che minacciano la scienza, che comprendono: "significosis, un'eccessiva attenzione a risultati statisticamente significativi, neophilia, un eccessivo apprezzamento per la novità, theorrea, una mania per una nuova teoria, arigorium, una mancanza di rigore nel lavoro teorico ed empirico e infine, disjunctivitis, una tendenza a produrre grandi quantità di opere ridondanti, banali e incoerenti. "[6]
I tentativi di identificare gli studi non pubblicati spesso si rivelano difficili o insoddisfacenti[1]. Nel tentativo di combattere questo problema, alcune riviste richiedono che gli studi presentati per la pubblicazione siano pre-registrati (registrando uno studio prima della raccolta di dati e analisi) con organizzazioni come il Center for Open Science.
Altre strategie proposte per rilevare e controllare il bias di pubblicazione[1] includono l'analisi della curva p[7] e lo sfavorire gli studi piccoli e non randomizzati a causa della loro elevata sensibilità dimostrata all'errore e alla distorsione[3].
Note
[modifica | modifica wikitesto]- ^ a b c d H. Rothstein, A. J. Sutton and M. Borenstein. (2005). Publication bias in meta-analysis: prevention, assessment and adjustments. Wiley. Chichester, England ; Hoboken, NJ.
- ^ F. Song, S. Parekh, L. Hooper, Y. K. Loke, J. Ryder, A. J. Sutton, C. Hing, C. S. Kwok, C. Pang e I. Harvey, Dissemination and publication of research findings: An updated review of related biases, in Health technology assessment (Winchester, England), vol. 14, n. 8, 2010, pp. iii, iix–xi, iix–193, DOI:10.3310/hta14080, PMID 20181324.
- ^ a b c P. J. Easterbrook, J. A. Berlin, R. Gopalan e D. R. Matthews, Publication bias in clinical research, in The Lancet, vol. 337, n. 8746, 1991, pp. 867–872, DOI:10.1016/0140-6736(91)90201-Y, PMID 1672966.
- ^ HJ Luijendijk e X Koolman, The incentive to publish negative studies: how beta-blockers and depression got stuck in the publication cycle., in J Clin Epidemiol, vol. 65, n. 5, May 2012, pp. 488–92, DOI:10.1016/j.jclinepi.2011.06.022.
- ^ K. Dickersin, S. Chan e T. C. Chalmers, Publication bias and clinical trials, in Controlled Clinical Trials, vol. 8, n. 4, 1987, pp. 343–353, DOI:10.1016/0197-2456(87)90155-3, PMID 3442991.
- ^ John Antonakis, On doing better science: From thrill of discovery to policy implications, in The Leadership Quarterly, vol. 28, n. 1, February 2017, pp. 5–21, DOI:10.1016/j.leaqua.2017.01.006.
- ^ P-curve: A key to the file-drawer., in Journal of Experimental Psychology: General, vol. 143, pp. 534–547, DOI:10.1037/a0033242.