Un fastidioso tormentone (SCIENZA) ~ di Alessandro Giuliani - TeclaXXI
SCIENZA
Alessandro
Giuliani
Un
fastidioso tormentone
Jorge Luis Borges, nel 1935, e poi in
forma definitiva nel 1954, pubblicò un racconto profeticamente intitolato ‘Sul Rigore della Scienza’ (Del Rigor en la Ciencia)1,
che vale la pena leggere in forma integrale:
In quell'impero, l'Arte della Cartografia raggiunse una tale Perfezione
che la mappa di una sola provincia occupava tutta una Città e la mappa
dell'Impero tutta una Provincia. Col tempo codeste Mappe Smisurate non
soddisfecero e i Collegi dei Cartografi eressero una mappa dell'Impero che
uguagliava in grandezza l'Impero e coincideva puntualmente con esso. Meno
Dedite allo studio della cartografia, le Generazioni Successive compresero che
quella vasta Mappa era inutile e non senza Empietà la abbandonarono all'Inclemenze
del Sole e degl'Inverni. Nei deserti dell'Ovest rimangono lacere rovine della
mappa, abitate da Animali e Mendichi; in tutto il paese non è altra reliquia
delle Discipline Geografiche. (Suarez
Miranda, Viaggi di uomini prudenti, libro quarto, cap. XLV, Lérida, 165).
Borges
prefigura una ‘morte entropica’ della conoscenza scientifica provocata
dall’ansia del controllo totale, del raggiungimento della ‘conoscenza
definitiva’. La profezia di Borges sembra che si stia avverando: la ‘Biblioteca
di Babele’ (per usare un altro termine caro al grande scrittore argentino) che
raccoglie nel web una marea montante di lavori scientifici ad un livello di
dettaglio sempre più esasperato appare piena di false piste e risultati non
riproducibili.
Nel 2005 uscì un articolo che fece molto
scalpore, il titolo era già un proclama ‘Why
most Published Research Findings are false’ né più né meno ‘Perché la
maggior parte dei risultati scientifici pubblicati sono falsi’ (Ioannidis, J. P. (2005). Why most published
research findings are false. PLoS medicine, 2(8),
e124.).
Il problema è ormai macroscopico e la
comunità scientifica si interroga sulle vie per superarlo: la strada che sembra
essere la più popolare porterebbe, a mio parere, alla catastrofe profetizzata
da Borges. La proposta è, in estrema sintesi, quella della costruzione di
‘super-modelli’ che integrino in una costruzione unica le differenti evidenze
su un certo argomento, senza tralasciare
nulla, confidando nel fatto che la semplice potenza del calcolo automatico
ci sveli come stanno effettivamente le cose. L’integrazione dei diversi ‘pezzi
di evidenza’ e, a maggior garanzia di imparzialità, senza alcuna ipotesi
condizionante a priori consentirebbe
di risolvere i problemi legati alla fluttuazione dei risultati di singoli
elementi esplicativi con cui rendere ragione di un certo fenomeno. In sintesi, si tratta di esplorare grandi
basi di dati (‘Data Mining’ e ‘Big Data’ sono termini molto diffusi
nell’odierna letteratura scientifica e tecnica 5), attraverso
tecniche di apprendimento automatico (machine
learning) e di analisi statistica multidimensionale che, per puro effetto
della massimizzazione di una funzione obiettivo (minor numero di errori nella
previsione di un evento come la diagnosi di una malattia o la predizione della
tossicità di una molecola organica), offrano dei modelli efficaci del sistema
in studio.
Per chi si occupa di analisi dei dati,
questa è una prassi assodata che, naturalmente, non implica alcuna ‘intelligenza’
diversa da quella dello scienziato che organizza la base di dati su cui fondare
l’analisi ma semplicemente l’applicazione di procedure di calcolo. La
costruzione di un modello empirico che renda possibile discriminare diverse
classi di interesse (e.g. sani vs. malati di una certa patologia, sostanze chimiche
tossiche vs innocue...) sulla base di una serie di descrittori delle unità
statistiche (e.g. risultati di analisi cliniche, caratteristiche chimico-fisiche
delle molecole) non ha nulla a che vedere con la conoscenza del fenomeno. Insomma,
già i medici egiziani diagnosticavano l’epatite dal colore giallo della cornea
(da cui il nome itterizia in auge fino a pochi decenni fa) ma questo non diceva
loro nulla sul meccanismo patogenetico della malattia.
Saggiamente, la metodologia statistica
definisce questi approcci come ‘generatori di ipotesi’ e non come ‘test di
ipotesi’, in altre parole il raggiungimento di una buona discriminazione
corrisponde al primo passo della conoscenza (il problema è risolvibile) non
certo al raggiungimento di una conoscenza solida che implica la possibilità di
‘andare oltre’ la pura categorizzazione per svelare regolarità e
generalizzazione di risultati aldilà del caso di specie.
Le odierne tecniche di apprendimento
automatico (impropriamente chiamate di Intelligenza Artificiale) hanno avuto la
loro sistemazione teorica attorno alla metà del secolo scorso, senza entrare in
dettagli del tutto fuori luogo in questa sede, qui ci basti dire che possiamo
metterle in ordine di ‘spiegabilità’. Con questo brutto neologismo (derivante
dall’inglese ‘explainability’) si possono catalogare modelli che vanno da
quelli che non forniscono alcun appiglio per capire le basi della
discriminazione (e.g. i cosiddetti modelli ‘deep
learning’) con spiegabilità nulla (modelli a ‘scatola nera’), fino a
modelli molto trasparenti (e.g. funzione discriminate lineare) in cui lo
sperimentatore può risalire al peso assegnato dalla procedura alle diverse
informazioni per generare la diagnosi finale. È abbastanza naturale capire come,
a parità di potere predittivo, questi ultimi siano i più utili per generare
delle ipotesi, e allo stesso modo se il nostro scopo non è di tipo scientifico
ma di semplice analisi routinaria di reperti diagnostici, la maggiore potenza
dei metodi a ‘scatola nera’ può essere un buon motivo per preferirli.
Che si tratti solo di statistica è ancora
più evidente nel caso delle cosiddette ‘chat-box’, cioè quei sistemi come
ChatGpt che producono testi intellegibili sfruttando la statistica di ripetizione
di frasi in enormi collezioni di testi, a partire dalle parole chiave di una
certa domanda.
Nessun artigiano serio chiamerebbe questi
sistemi intelligenti, così come non sosterrebbe che un cacciavite o una pinza
possano sostituire un meccanico. Purtroppo, viviamo un tempo oscuro in cui
branchi di semicolti (più o meno in buona fede) si interrogano sulla
‘intelligenza’ di questi sistemi e si lanciano in deliri transumanisti.
Purtroppo è una storia vecchia e dolorosa che si ripete nei secoli più o meno
identica: si confonde il dato (che è intriso di teoria se non altro perché
implica una scelta cosciente di cosa misurare, in che modo e su quale campione
di riferimento) con la ‘realtà oggettiva’ . Non è un errore innocuo e neanche
roba da specialisti del settore! Il sogno di una scienza ‘completamente guidata
dai dati’, senza alcun intervento umano che imponga un particolare punto di
vista e quindi perfetta per essere usata come deposito veritativo ultimo (Lo ha
detto la Scienza!) è stato perseguito già da Francis Bacon con la sua demoniaca
frase ‘Scientia est Potentia’. La
frase la sentiamo ripetuta dai nostri governanti in tutto l’Occidente quando
parlano di ‘governance’ o di ‘piloti automatici’ che senza discrezionalità
umana dovrebbero guidare le decisioni politiche. Insita in questa apparente esaltazione della
scienza è in realtà una profonda avversione verso la vera scienza che si fonda
sulla continua distruzione di teorie assodate per cercare qualcosa di più
soddisfacente o anche solo di più bello e armonioso coerentemente con il suo
carattere antidogmatico.
Ma la scienza propriamente detta se la può
permettere solo un mondo giovane aperto alla vita, nell’ospizio occidentale
tutto questo fa paura, meglio l’esaltazione del già noto, meglio la mappa che
si immagina grande come il mondo per depotenziare ogni possibile novità.
In attesa che si affaccino le generazioni
che lacereranno questa mappa onnicomprensiva, a noi il compito di organizzare (non
necessariamente in clandestinità) la cura del buon senso scientifico.
ALESSANDRO GIULIANI
BIONOTA Alessandro Giuliani vive a Roma, è sposato e
padre di due figlie. Attualmente è Dirigente di Ricerca presso l’Istituto
Superiore di Sanità.
È stato visiting professor
all’Università Keio di Tokio, all’Istituto Indiano di Tecnologia (IIT) a
Trivandrum (Kerala), all’Università di Chicago (USA) e all’Università di Tomsk
(Federazione Russa).
Lavora da circa quaranta anni alla
costruzione di modelli fisico-matematici di sistemi biologici complessi con
particolare riguardo allo studio della struttura delle molecole proteiche, alla
previsione di ‘transizioni di fase’ nell’espressione genica e alle relazioni
tra struttura chimica e attività biologica. Ha contribuito, insieme a Joseph
Zbilut e Charles Webber dell’Università di Chicago allo sviluppo dell’Analisi
Quantitative delle Ricorrenze (RQA), attualmente diventata un metodo standard
per l’analisi non-lineare delle serie temporali.
È autore di 489 pubblicazioni scientifiche
su riviste internazionali ‘peer-review’ e di 10 libri di divulgazione.
Commenti
Posta un commento
È gradita la firma in calce al commento. Grazie.