Un fastidioso tormentone (SCIENZA) ~ di Alessandro Giuliani - TeclaXXI

 

SCIENZA


                                photo Ivo Rainha CREATIVE COMMONS ZERO
 

Alessandro Giuliani

 

Un fastidioso tormentone

 

 

Jorge Luis Borges, nel 1935, e poi in forma definitiva nel 1954, pubblicò un racconto profeticamente intitolato ‘Sul Rigore della Scienza’ (Del Rigor en la Ciencia)1, che vale la pena leggere in forma integrale:

 

In quell'impero, l'Arte della Cartografia raggiunse una tale Perfezione che la mappa di una sola provincia occupava tutta una Città e la mappa dell'Impero tutta una Provincia. Col tempo codeste Mappe Smisurate non soddisfecero e i Collegi dei Cartografi eressero una mappa dell'Impero che uguagliava in grandezza l'Impero e coincideva puntualmente con esso. Meno Dedite allo studio della cartografia, le Generazioni Successive compresero che quella vasta Mappa era inutile e non senza Empietà la abbandonarono all'Inclemenze del Sole e degl'Inverni. Nei deserti dell'Ovest rimangono lacere rovine della mappa, abitate da Animali e Mendichi; in tutto il paese non è altra reliquia delle Discipline Geografiche. (Suarez Miranda, Viaggi di uomini prudenti, libro quarto, cap. XLV, Lérida, 165).

 

Borges prefigura una ‘morte entropica’ della conoscenza scientifica provocata dall’ansia del controllo totale, del raggiungimento della ‘conoscenza definitiva’. La profezia di Borges sembra che si stia avverando: la ‘Biblioteca di Babele’ (per usare un altro termine caro al grande scrittore argentino) che raccoglie nel web una marea montante di lavori scientifici ad un livello di dettaglio sempre più esasperato appare piena di false piste e risultati non riproducibili.

Nel 2005 uscì un articolo che fece molto scalpore, il titolo era già un proclama ‘Why most Published Research Findings are false’ né più né meno ‘Perché la maggior parte dei risultati scientifici pubblicati sono falsi’ (Ioannidis, J. P. (2005). Why most published research findings are false. PLoS medicine2(8), e124.).

Il problema è ormai macroscopico e la comunità scientifica si interroga sulle vie per superarlo: la strada che sembra essere la più popolare porterebbe, a mio parere, alla catastrofe profetizzata da Borges. La proposta è, in estrema sintesi, quella della costruzione di ‘super-modelli’ che integrino in una costruzione unica le differenti evidenze su un certo argomento, senza tralasciare nulla, confidando nel fatto che la semplice potenza del calcolo automatico ci sveli come stanno effettivamente le cose. L’integrazione dei diversi ‘pezzi di evidenza’ e, a maggior garanzia di imparzialità, senza alcuna ipotesi condizionante a priori consentirebbe di risolvere i problemi legati alla fluttuazione dei risultati di singoli elementi esplicativi con cui rendere ragione di un certo fenomeno.  In sintesi, si tratta di esplorare grandi basi di dati (‘Data Mining’ e ‘Big Data’ sono termini molto diffusi nell’odierna letteratura scientifica e tecnica 5), attraverso tecniche di apprendimento automatico (machine learning) e di analisi statistica multidimensionale che, per puro effetto della massimizzazione di una funzione obiettivo (minor numero di errori nella previsione di un evento come la diagnosi di una malattia o la predizione della tossicità di una molecola organica), offrano dei modelli efficaci del sistema in studio.

Per chi si occupa di analisi dei dati, questa è una prassi assodata che, naturalmente, non implica alcuna ‘intelligenza’ diversa da quella dello scienziato che organizza la base di dati su cui fondare l’analisi ma semplicemente l’applicazione di procedure di calcolo. La costruzione di un modello empirico che renda possibile discriminare diverse classi di interesse (e.g. sani vs. malati di una certa patologia, sostanze chimiche tossiche vs innocue...) sulla base di una serie di descrittori delle unità statistiche (e.g. risultati di analisi cliniche, caratteristiche chimico-fisiche delle molecole) non ha nulla a che vedere con la conoscenza del fenomeno. Insomma, già i medici egiziani diagnosticavano l’epatite dal colore giallo della cornea (da cui il nome itterizia in auge fino a pochi decenni fa) ma questo non diceva loro nulla sul meccanismo patogenetico della malattia.

Saggiamente, la metodologia statistica definisce questi approcci come ‘generatori di ipotesi’ e non come ‘test di ipotesi’, in altre parole il raggiungimento di una buona discriminazione corrisponde al primo passo della conoscenza (il problema è risolvibile) non certo al raggiungimento di una conoscenza solida che implica la possibilità di ‘andare oltre’ la pura categorizzazione per svelare regolarità e generalizzazione di risultati aldilà del caso di specie.

Le odierne tecniche di apprendimento automatico (impropriamente chiamate di Intelligenza Artificiale) hanno avuto la loro sistemazione teorica attorno alla metà del secolo scorso, senza entrare in dettagli del tutto fuori luogo in questa sede, qui ci basti dire che possiamo metterle in ordine di ‘spiegabilità’. Con questo brutto neologismo (derivante dall’inglese ‘explainability’) si possono catalogare modelli che vanno da quelli che non forniscono alcun appiglio per capire le basi della discriminazione (e.g. i cosiddetti modelli ‘deep learning’) con spiegabilità nulla (modelli a ‘scatola nera’), fino a modelli molto trasparenti (e.g. funzione discriminate lineare) in cui lo sperimentatore può risalire al peso assegnato dalla procedura alle diverse informazioni per generare la diagnosi finale. È abbastanza naturale capire come, a parità di potere predittivo, questi ultimi siano i più utili per generare delle ipotesi, e allo stesso modo se il nostro scopo non è di tipo scientifico ma di semplice analisi routinaria di reperti diagnostici, la maggiore potenza dei metodi a ‘scatola nera’ può essere un buon motivo per preferirli.

Che si tratti solo di statistica è ancora più evidente nel caso delle cosiddette ‘chat-box’, cioè quei sistemi come ChatGpt che producono testi intellegibili sfruttando la statistica di ripetizione di frasi in enormi collezioni di testi, a partire dalle parole chiave di una certa domanda.

Nessun artigiano serio chiamerebbe questi sistemi intelligenti, così come non sosterrebbe che un cacciavite o una pinza possano sostituire un meccanico. Purtroppo, viviamo un tempo oscuro in cui branchi di semicolti (più o meno in buona fede) si interrogano sulla ‘intelligenza’ di questi sistemi e si lanciano in deliri transumanisti. Purtroppo è una storia vecchia e dolorosa che si ripete nei secoli più o meno identica: si confonde il dato (che è intriso di teoria se non altro perché implica una scelta cosciente di cosa misurare, in che modo e su quale campione di riferimento) con la ‘realtà oggettiva’ . Non è un errore innocuo e neanche roba da specialisti del settore! Il sogno di una scienza ‘completamente guidata dai dati’, senza alcun intervento umano che imponga un particolare punto di vista e quindi perfetta per essere usata come deposito veritativo ultimo (Lo ha detto la Scienza!) è stato perseguito già da Francis Bacon con la sua demoniaca frase ‘Scientia est Potentia’. La frase la sentiamo ripetuta dai nostri governanti in tutto l’Occidente quando parlano di ‘governance’ o di ‘piloti automatici’ che senza discrezionalità umana dovrebbero guidare le decisioni politiche.  Insita in questa apparente esaltazione della scienza è in realtà una profonda avversione verso la vera scienza che si fonda sulla continua distruzione di teorie assodate per cercare qualcosa di più soddisfacente o anche solo di più bello e armonioso coerentemente con il suo carattere antidogmatico.

Ma la scienza propriamente detta se la può permettere solo un mondo giovane aperto alla vita, nell’ospizio occidentale tutto questo fa paura, meglio l’esaltazione del già noto, meglio la mappa che si immagina grande come il mondo per depotenziare ogni possibile novità.

In attesa che si affaccino le generazioni che lacereranno questa mappa onnicomprensiva, a noi il compito di organizzare (non necessariamente in clandestinità) la cura del buon senso scientifico.

 

ALESSANDRO GIULIANI

BIONOTA  Alessandro Giuliani vive a Roma, è sposato e padre di due figlie. Attualmente è Dirigente di Ricerca presso l’Istituto Superiore di Sanità.

È stato visiting professor all’Università Keio di Tokio, all’Istituto Indiano di Tecnologia (IIT) a Trivandrum (Kerala), all’Università di Chicago (USA) e all’Università di Tomsk (Federazione Russa).

Lavora da circa quaranta anni alla costruzione di modelli fisico-matematici di sistemi biologici complessi con particolare riguardo allo studio della struttura delle molecole proteiche, alla previsione di ‘transizioni di fase’ nell’espressione genica e alle relazioni tra struttura chimica e attività biologica. Ha contribuito, insieme a Joseph Zbilut e Charles Webber dell’Università di Chicago allo sviluppo dell’Analisi Quantitative delle Ricorrenze (RQA), attualmente diventata un metodo standard per l’analisi non-lineare delle serie temporali.  

È autore di 489 pubblicazioni scientifiche su riviste internazionali ‘peer-review’ e di 10 libri di divulgazione.

 


Commenti