
Per secoli, la scienza è stata percepita come la via privilegiata verso la conoscenza certa e infallibile, erede del concetto greco di επιστήμη (episteme), definito da Platone nel Teeteto come «opinione vera accompagnata da ragionamento». Contrapposta alla mutevole opinione soggettiva, la δόξα (doxa), la scienza è stata idealizzata come un sapere preciso in grado di portare a dimostrazioni eterne ed universali. Eppure, il suo sviluppo storico e le riflessioni epistemologiche moderne dimostrano che essa non è, e non può in alcun modo essere, una fonte di verità assolute, bensì un metodo dinamico, intrinsecamente fallibile e soggetto a continua revisione.
La grande rivoluzione avvenuta tra il XVI e il XVII secolo, con l’avvento dell’empirismo, ha trasformato il metodo scientifico.
Galileo ha sostituito il rigido approccio deduttivo (che da premesse generali deriva conseguenze particolari logicamente necessarie), tradizionalmente aristotelico, con un metodo capace di integrare esperienza e osservazione, unendo le «certe dimostrazioni» alle «sensate esperienze» e aprendo così la strada all’induzione (che da premesse particolari muove verso conclusioni generali). Tuttavia, pure questo metodo induttivo è stato oggetto di critiche profonde. David Hume, ad esempio, ne ha messo in discussione la stessa razionalità, in quanto basato sul principio di uniformità della natura, che però si basa sul presupposto per cui ciò che è avvenuto in passato si ripeterà in futuro: un’assunzione che implica, essa stessa, l’induzione, e dunque priva di giustificazione logica.
Per affrontare questa incertezza, gli epistemologi moderni hanno proposto soluzioni diverse. Popper ha introdotto il falsificazionismo, un metodo che sostiene che nessuna teoria può mai essere verificata definitivamente, ma solo “corroborata” fino a prova contraria, e dunque non si può provare alcunché con certezza ma si può soltanto accettare momentaneamente come plausibili certe teorie. Russell, invece, ha attribuito alla scienza un carattere probabilistico, riconoscendo che essa si avvicina alla verità pur senza mai raggiungerla.
Duhem e Quine si sono fatti sostenitori di una visione per cui nessuna teoria può essere verificata (certificata come sicuramente valida) o falsificata (certificata come sicuramente non valida) singolarmente, ma solo all’interno di un insieme di ipotesi della cosiddetto “olismo della conferma”, per cui se si vuole sottoporre ad analisi una certa teoria bisogna sempre tenere presente che non è possibile isolarla perché inevitabilmente condizionata dall’esterno. Kuhn e Lakatos, dal canto loro, hanno messo in luce il ruolo dei paradigmi e delle rivoluzioni scientifiche, evidenziando come il progresso scientifico non sia lineare, ma avvenga attraverso un’alternanza tra fasi di “scienza normale” e fasi di crisi e cambiamenti radicali come possono essere le rivoluzioni scientifiche.
Per quanto diversi, tutti questi approcci hanno in comune una e una sola cosa: che quello dell’infallibilità della scienza non è che un mito, ed esempi concreti nella storia della scienza confermano questa prospettiva.
Il passaggio dal geocentrismo di Tolomeo all’eliocentrismo di Copernico, dalla meccanica newtoniana alla relatività di Einstein, o il meno conosciuto studio che ha portato dalla teoria dei miasmi alla scoperta dei germi contribuendo con importanti risultati riguardo alla trasmissione delle malattie infettive, dimostrano come paradigmi ritenuti incontestabili siano stati superati.
Oggi, nell’era in cui regnano tiranni i big data e l’intelligenza artificiale, il mito dell’infallibilità della scienza spesso si manifesta nello scientismo, un atteggiamento che attribuisce un’autorità assoluta ai dati e agli algoritmi della scienza. Tuttavia, bisogna tenere ben presente che dati e algoritmi non sono neutrali, come ingenuamente si potrebbe pensare, ma riflettono i pregiudizi e i limiti umani dei processi di raccolta e analisi. Indicatori molto rinomati come l’impact factor, volti a certificare la validità di studi, articoli e riviste scientifici, in realtà non riescono ad essere garanti di qualità perché troppo vulnerabili a distorsioni dovute all’inevitabile errore umano e all’eccessiva enfasi su statistiche meramente numeriche.
In conclusione, accettare l’incertezza della scienza è necessario, così come è necessario capire che da questo riconoscimento non consegue una svalutazione.
Con questa consapevolezza infatti, si può rischiare di cadere in correnti contrarie a quella dello scientismo, completamente anti-scientifiche, che non ripongono alcuna fiducia nella scienza e la svuotano di ogni valore.
La scienza, invece, è da considerarsi come un metodo collettivo, aperto al cambiamento, capace di adattarsi e progredire, e per questo da vedere in luce positiva, proprio in virtù della sua autentica natura fallibile. È proprio questa fallibilità, dunque, a renderla uno strumento estremamente prezioso per l’umanità, lontano dall’illusione della verità assoluta, ma sempre orientato verso una continua ricerca per una comprensione sempre più profonda del mondo.