Realtà e timori dei programmi di IA (INTELLIGENZA ARTIFICIALE) ~ di Bruno Carotti - TeclaXXI

 INTELLIGENZA ARTIFICIALE

 

Bruno Carotti

Realtà e timori dei programmi di  IA




La cosiddetta “intelligenza” artificiale è ovunque e di essa si parla nei più diversi ambiti delle attività e del sapere umani. Con promesse di cambiamento epocali, garanzie di sviluppo, concezioni futuristiche, essa è oggetto di una attenzione pervasiva, di campagne comunicative onnipresenti, di dibattiti costanti in ambito istituzionale. Le visioni ottimistiche sono accompagnate da preoccupazioni politico-sociali, quali la sostituzione uomo-macchina (che poi è un tema molto risalente: basti pensare alle sostituzioni delle lampade a olio con l’illuminazione elettrica nelle città, che causò proteste e problemi di ordine economico e sociale: ne parla C.B. Frey ne La trappola della tecnologia), fino ad arrivare, addirittura, alla stessa, temuta competizione con l’essere umano.

La realtà è molto più prosaica. Come ho scritto altrove, sono gli interessi economici a dettare l’agenda. Recentemente, questo punto è stato evidenziato con acume su The Atlantic: gli operatori attendono grandi cambiamenti in base all’introduzione generalizzata di questi sistemi; tuttavia, non è chiaro l’obiettivo finale e la “rivoluzione” sembra indotta dalla necessità di sfruttare quanto è stato programmato e, soprattutto, finanziato negli ultimi anni. In questo senso, l’IA deve smettere di fingere di essere ciò che non è: si fa riferimento alla veste senza scopo di lucro di OpenAI, ormai evidentemente superata dai fatti e dall’emergere delle reali intenzioni sottostanti alla sua istituzione.

Si tratta di sistemi di programmazione statistica: quanto ai testi, che sembrano (ripeto, sembrano) il frutto di una elaborazione complessa, ma in realtà consistono di una mera estrazione di quanto già scritto altrove, dalla mente umana, e passato al setaccio di agenti robotici. Sono estrattori di testo, con capacità di associare parti delle parole in modo ordinato e coerente ma senza comprendere alcunché di quanto restituito. Forse è già possibile domandarsi che cosa accadrà quando i testi prodotti da questi sistemi saranno predominanti, ma solo l’osservazione potrà mostrare i risvolti.

L’IA è uno sviluppo dell’informatica. Presenta novità interessanti quanto a capacità di calcolo, velocità e metodo di computazione. Potrà essere di ausilio in compiti meccanici o ripetitivi, in analisi semplicistiche, ma non ha affatto quell’aura di “intelligenza” che le si attribuisce. È sempre necessario un intervento umano. Alcune imprese si sono pentite della sostituzione di alcuni lavori, prima compiuti dall’uomo, con sistemi di IA e stanno tornando indietro, al punto di partenza. Una storia, peraltro, che richiama quella del cloud computing, dove non manca chi ha iniziato un cammino inverso e vi sono preoccupazioni di ordine politico e istituzionale. L’IA non sta migliorando, ma diminuendo le nostre capacità. Non sta offrendo servizi e testi migliori, ma peggiori, come riportato dal New Yorker. Per fortuna, quest’ultima appartiene solo all’essere umano. In un eccellente articolo di Maurizio Tirassa su Nexa, sono state ricostruite le premesse concettuali e le basi storiche su cui si fondano questi sistemi: in esso vengono individuate  perfettamente le aree in cui l’automazione dell’algoritmo opera, spiegato il principio di sostituibilità, illustrate le chiavi interpretative adeguate e svelati, soprattutto, gli ambiti applicativi (guerra, finanza, sorveglianza, linguaggio, usi “civili”).

Fin dagli anni Settanta insigni studiosi (Weizenbaum, McDermott) avevano messo in guardia dalle facili equiparazioni tra capacità computazionali e intelligenza, tra peculiarità del linguaggio, tipicamente umano, e la sua trattazione meccanica, a cui si limita la macchina. Le semplificazioni eccessive non aiutano, o celano i reali problemi inerenti all’informatica, eventualmente per effetto di una comunicazione superficiale e mirata. Occorre un generale riposizionamento.

Il problema, infatti, è politico, sociale, di controllo delle risorse, di sfruttamento e di centralizzazione. Il loro abuso aumenta il divario e mette in discussione gli stessi meccanismi di tenuta della democrazia. Sono questi aspetti a dover destare preoccupazione, in termini di potere asimmetrico, e non la inesistente intelligenza. I sistemi sono utilizzati per centralizzare, controllare, gestire dati su aspetti capillari della vita dei singoli; a essi si fa ricorso anche per controbattere in modo automatico, non ragionato e aggressivo, utilizzando un pattern prescelto (è recente la notizia di “attacchi” verbali su social network prodotti in modo costante da chatbot, utilizzati per smontare le tesi avverse, molto spesso appartenenti a una specifica area politica). Sussiste la possibilità di una compressione inaudita dei diritti, come testimonia negli USA la brama del Dipartimento dell’efficienza governativa (il DOGE istituito da Trump) di acquisire informazioni a tutto campo sulla cittadinanza, anche in ambiti altamente sensibili (opponendosi, al contempo, a istanze di accesso basate sul Freedom of Information Act – FOIA – e volte a chiarire il suo operato, come avvenuto al gruppo Citizens for Responibility and Ethics, che ha visto respinta la propria domanda, poi accordata da un Giudice di Washington, contro cui lo stesso DOGE ha promosso un ricorso alla Corte Suprema).

Anche nel mondo lavorativo iniziano a essere instillati molteplici dubbi. In Europa, si assiste con preoccupazione a un generale attacco al GDPR, ritenuto un freno all’innovazione. Tesi evidentemente da respingere: i diritti vanno coniugati, non compressi in un bilanciamento solo apparentemente egualitario, ma che invece nasconde l’intento di promuovere solo alcuni interessi. La regolazione non frena l’innovazione e un intervento di equilibrio degli interessi è necessario.

Italo Calvino ha messo in luce la freddezza dei meccanismi digitali, di fronte alla sensibilità delle parole frutto del pensiero umano. Tra le bellissime parole che ha scritto, riteneva che a valle del lavoro dei grandi pionieri della computazione e dell’informatica, come Turing e Von Neumann, siamo passati a sentire “il velocissimo passaggio di segnali sugli intricati circuiti che collegano i relé, i diodi, i transistor”. E, più in generale, si è fatta largo la convinzione che la letteratura sia “un’ostinata serie di tentativi di far stare una parola dietro l’altra seguendo certe regole definite, o più spesso regole non definite né definibili ma estrapolabili da una serie di esempi o protocolli, o regole che ci siamo inventate per l’occasione”. Non suona familiare?

La differenza esiste e permane. Calvino, probabilmente, ne sarebbe convinto anche oggi.

A volte, questa consapevolezza sembra essersi perduta. Ma è proprio con l’arte, solo con essa e con la creatività e l’ironia che l’accompagnano, che si potranno preservare i frutti più preziosi dell’evoluzione. Essi sono e saranno unicamente umani.


BRUNO CAROTTI

 


BIONOTA 
Bruno Carotti, abilitato come professore associato, insegna Diritto dell’amministrazione digitale presso la Luiss e collabora, tra l’altro, con diversi Master universitari. Dirige l’Osservatorio sullo Stato digitale dell’Istituto di ricerche sulla pubblica amministrazione, di cui è Socio.

È autore di un centinaio di pubblicazioni, tra cui una monografia su Il sistema di governo di Internet (Milano, Giuffrè, 2016). Tra i suoi interessi, la regolazione, la digitalizzazione, i sistemi europeo e sovranazionale. Parla correntemente lo spagnolo e l’inglese e ha una buona conoscenza del francese.












Commenti