Realtà e timori dei programmi di IA (INTELLIGENZA ARTIFICIALE) ~ di Bruno Carotti - TeclaXXI
INTELLIGENZA ARTIFICIALE
Bruno Carotti
Realtà e timori dei programmi di IA
La
cosiddetta “intelligenza” artificiale è ovunque e di essa si parla nei più diversi
ambiti delle attività e del sapere umani. Con promesse di cambiamento epocali,
garanzie di sviluppo, concezioni futuristiche, essa è oggetto di una attenzione
pervasiva, di campagne comunicative onnipresenti, di dibattiti costanti in
ambito istituzionale. Le visioni ottimistiche sono accompagnate da
preoccupazioni politico-sociali, quali la sostituzione uomo-macchina (che poi è
un tema molto risalente: basti pensare alle sostituzioni delle lampade a olio
con l’illuminazione elettrica nelle città, che causò proteste e problemi di
ordine economico e sociale: ne parla C.B. Frey ne La trappola della
tecnologia), fino ad arrivare, addirittura, alla stessa, temuta
competizione con l’essere umano.
La
realtà è molto più prosaica. Come ho scritto altrove, sono gli interessi
economici a dettare l’agenda. Recentemente, questo punto è stato evidenziato
con acume su The
Atlantic: gli
operatori attendono grandi cambiamenti in base all’introduzione generalizzata
di questi sistemi; tuttavia, non è chiaro l’obiettivo finale e la “rivoluzione”
sembra indotta dalla necessità di sfruttare quanto è stato programmato e,
soprattutto, finanziato negli ultimi anni. In questo senso, l’IA
deve smettere di fingere di essere ciò che non è: si fa riferimento alla veste senza scopo di
lucro di OpenAI, ormai evidentemente superata dai fatti e dall’emergere delle
reali intenzioni sottostanti alla sua istituzione.
Si
tratta di sistemi di programmazione statistica: quanto ai testi, che sembrano
(ripeto, sembrano) il frutto di una elaborazione complessa, ma in realtà
consistono di una mera estrazione di quanto già scritto altrove, dalla mente
umana, e passato al setaccio di agenti robotici. Sono estrattori di testo, con
capacità di associare parti delle parole in modo ordinato e coerente ma senza
comprendere alcunché di quanto restituito. Forse è già possibile domandarsi che
cosa accadrà quando i testi prodotti da questi sistemi saranno predominanti, ma
solo l’osservazione potrà mostrare i risvolti.
L’IA
è uno sviluppo dell’informatica. Presenta novità interessanti quanto a capacità
di calcolo, velocità e metodo di computazione. Potrà essere di ausilio in
compiti meccanici o ripetitivi, in analisi semplicistiche, ma non ha affatto
quell’aura di “intelligenza” che le si attribuisce. È sempre necessario un
intervento umano. Alcune imprese si
sono pentite della sostituzione di alcuni lavori, prima compiuti dall’uomo, con sistemi di IA
e stanno tornando indietro, al punto di partenza. Una storia, peraltro, che
richiama quella del cloud computing, dove non manca chi ha iniziato un
cammino inverso e vi sono preoccupazioni
di ordine politico e istituzionale. L’IA non sta migliorando, ma diminuendo le nostre
capacità. Non sta offrendo servizi e testi migliori, ma peggiori, come
riportato dal New Yorker. Per fortuna, quest’ultima appartiene solo
all’essere umano. In un
eccellente articolo di Maurizio Tirassa su Nexa, sono state ricostruite le premesse
concettuali e le basi storiche su cui si fondano questi sistemi: in esso
vengono individuate perfettamente le aree in cui l’automazione dell’algoritmo
opera, spiegato il principio di sostituibilità, illustrate le chiavi
interpretative adeguate e svelati, soprattutto, gli ambiti applicativi (guerra,
finanza, sorveglianza, linguaggio, usi “civili”).
Fin
dagli anni Settanta insigni studiosi (Weizenbaum, McDermott) avevano
messo in guardia dalle facili equiparazioni tra capacità computazionali e
intelligenza, tra peculiarità del linguaggio, tipicamente umano, e la sua
trattazione meccanica, a cui si limita la macchina. Le semplificazioni
eccessive non aiutano, o celano i reali problemi inerenti all’informatica,
eventualmente per effetto di una comunicazione superficiale e mirata. Occorre
un generale riposizionamento.
Il
problema, infatti, è politico, sociale, di controllo delle risorse, di
sfruttamento e di centralizzazione. Il loro abuso aumenta
il divario e mette in
discussione gli stessi meccanismi di tenuta della democrazia. Sono questi aspetti a dover destare
preoccupazione, in termini di potere asimmetrico, e non la inesistente
intelligenza. I sistemi sono utilizzati per centralizzare, controllare, gestire
dati su aspetti capillari della vita dei singoli; a essi si fa ricorso anche
per controbattere in modo automatico, non ragionato e aggressivo, utilizzando
un pattern prescelto (è recente la notizia di “attacchi” verbali su social
network prodotti in modo costante da chatbot, utilizzati per
smontare le tesi avverse, molto spesso appartenenti a una specifica area
politica). Sussiste la possibilità di una compressione inaudita dei diritti,
come testimonia negli USA la brama del Dipartimento dell’efficienza governativa
(il DOGE istituito da Trump) di acquisire informazioni a tutto campo sulla
cittadinanza, anche in ambiti altamente sensibili (opponendosi, al contempo, a
istanze di accesso basate sul Freedom of Information Act – FOIA – e
volte a chiarire il suo operato, come avvenuto al gruppo Citizens for
Responibility and Ethics, che ha visto respinta la propria domanda, poi
accordata da un Giudice di Washington, contro cui lo
stesso DOGE ha promosso un ricorso alla Corte Suprema).
Anche
nel mondo lavorativo iniziano a essere instillati molteplici dubbi. In Europa,
si assiste con preoccupazione a un generale attacco al GDPR, ritenuto un freno
all’innovazione. Tesi evidentemente da respingere: i diritti vanno coniugati,
non compressi in un bilanciamento solo apparentemente egualitario, ma che
invece nasconde l’intento di promuovere solo alcuni interessi. La regolazione
non frena l’innovazione e un intervento di equilibrio degli interessi è
necessario.
Italo
Calvino ha messo in luce la freddezza dei meccanismi digitali, di fronte alla
sensibilità delle parole frutto del pensiero umano. Tra le bellissime parole che
ha scritto, riteneva che a valle del lavoro dei grandi pionieri della
computazione e dell’informatica, come Turing e Von Neumann, siamo passati a
sentire “il velocissimo passaggio di segnali sugli intricati circuiti che
collegano i relé, i diodi, i transistor”. E, più in generale, si è fatta
largo la convinzione che la letteratura sia “un’ostinata serie di tentativi
di far stare una parola dietro l’altra seguendo certe regole definite, o più
spesso regole non definite né definibili ma estrapolabili da una serie di
esempi o protocolli, o regole che ci siamo inventate per l’occasione”. Non suona
familiare?
La differenza
esiste e permane. Calvino, probabilmente, ne sarebbe convinto anche oggi.
A
volte, questa consapevolezza sembra essersi perduta. Ma è proprio con l’arte, solo
con essa e con la creatività e l’ironia che l’accompagnano, che si potranno
preservare i frutti più preziosi dell’evoluzione. Essi sono e saranno
unicamente umani.
BRUNO CAROTTI
BIONOTA Bruno Carotti, abilitato come professore associato, insegna Diritto dell’amministrazione digitale presso la Luiss e collabora, tra l’altro, con diversi Master universitari. Dirige l’Osservatorio sullo Stato digitale dell’Istituto di ricerche sulla pubblica amministrazione, di cui è Socio.
È autore di un centinaio di pubblicazioni, tra cui una
monografia su Il sistema di governo di Internet (Milano, Giuffrè, 2016).
Tra i suoi interessi, la regolazione, la digitalizzazione, i sistemi europeo e sovranazionale.
Parla correntemente lo spagnolo e l’inglese e ha una buona conoscenza del
francese.
Commenti
Posta un commento
È gradita la firma in calce al commento. Grazie.