AI: troppi miti

Quintarelli: troppi miti sui super-poteri dell’Intelligenza Artificiale, agisce senza capire Una rete neurale che pare arrabbiata su Internet ha solo risucchiato dati negativi in memoria.Questa intervista a Stefano Quintarelli è di Fabio Sindici ed è stata pubblicata su La Stampa del 15 ottobre 2020 

AI: troppi miti. In uno dei suoi racconti più famosi, La ricerca di Averroè, Borges immagina il filosofo islamico del XII secolo che si arrovella su due nomi che ricorrono nella Poetica di Aristotele: tragedia e commedia. Averroè non era mai entrato in un teatro: nel mondo medievale musulmano non esistevano. L’erudito finisce quindi per accostare erroneamente la tragedia al panegirico e la commedia all’anatema. L’equivoco di Averroè ricorda la difficoltà di avvicinare l’Intelligenza Artificiale, alimentata da dati e articolata da algoritmi, con quella biologica e, in particolare, umana che si fonda sull’esperienza del mondo fisico e sull’evoluzione, sull’astrazione intellettuale e sui processi inconsci.

«Una IA ben nutrita di dati e allenata con un gran numero di paradossi, in realtà, potrebbe riconoscerne uno e anche formularne degli altri simili. Ma, se si trova di fronte un paradosso che non rientra nei suoi schemi, va in deficit di comprensione», spiega Stefano Quintarelli, autore, imprenditore e alfiere critico dell’informatica. «Lo stesso vale per il linguaggio metaforico. E quando si parla di “allenare” un computer, a nostra volta, usiamo una metafora, spostiamo dalla nostra esperienza di esseri biologici un termine preso dall’attività atletica. Ma l’IA non impara e non si allena. Quando gestisce un paradosso non ne comprende il concetto, lo paragona solo ad altre migliaia di esempi che ha in memoria. Soprattutto, il paradosso non è per la macchina un veicolo di nuova conoscenza».

AI: troppi miti. Quintarelli, presidente del Comitato di indirizzo dell’Agenzia per l’Italia digitale, è membro del gruppo di esperti della Commissione Europea sull’IA. E sul sempre più esteso e complicato rapporto con l’IA ha scritto il suo ultimo libro, Intelligenza Artificiale, cos’è davvero, come funziona, che effetti avrà, (Bollati Boringhieri, prefazione di Piero Angela), opera corale appena arrivata in libreria.

Cominciamo dalla fine: lei ricorda che l’IA è uno strumento dell’uomo, non una nuova entità.
«Esattamente. La letteratura e il cinema, ma anche una narrativa divulgativa originata dalla Silicon Valley, ci ha abituato all’idea di macchine pensanti più o meno simili agli umani. I robot antropomorfi di Io Robot o l’Hal 9000 di Odissea nello spazio, ma si tratta di fantascienza che per ora ha pochissime possibilità di avverarsi. Le IA non provano emozioni e non sono senzienti. Se così ci sembra è perché ci stanno imitando. Una IA che pare arrabbiata su Internet ha solo risucchiato nella sua memoria statistiche di pessimi comportamenti sulla rete. Il computer che “dipinge” un simil Van Gogh sta facendo operazioni matematiche e unendo milioni di punti senza sapere che si tratta di un’immagine».

Nel libro lei sfiora soltanto la molto discussa «singolarità», il momento in cui le macchine penseranno come gli umani: perché?
«La eludo intenzionalmente. La singolarità è un mito alimentato dalla Silicon Valley per ragioni economiche e di potere. Poi c’è chi la vede come un’utopia realizzabile e chi come una distopia da scongiurare. Comunque si investono miliardi. La singolarità, intesa come punto di non ritorno a partire dal quale le IA si sviluppano e prendono il sopravvento, benigno o maligno che sia, sull’umanità è allo stato attuale della tecnologia una fantasia».

Anche se non senzienti, le reti neurali pongono problemi etici e scelte politiche e modificano già i nostri comportamenti: come affrontare questi scenari? 
«Prendiamo una persona abituata a Google: se cambia motore di ricerca, con la scelta delle parole chiavi abituali avrà risultati differenti. Prevedendo i nostri gusti, su basi statistiche, gli algoritmi finiscono per cambiarli. Malignamente usati, possono avere influenze sulle opinioni e le fake news originate dai bot sono l’aspetto più rudimentale. Poi c’è il tema della responsabilità. Chi paga se un’auto guidata da una IA investe un pedone? O quali sono le conseguenze se un computer che ha assorbito pregiudizi umani decide sulla libertà condizionale di un imputato e sbaglia? Negli Usa già succede e si parla di creare una responsabilità giuridica per le IA, equiparandola a quella di alcuni enti. Ma enti e associazioni sono formati da individui e le IA, invece, hanno un programmatore. Non ha quindi senso “punirle”: se sono difettose si aggiustano o si rottamano».

Quindi, le super IA hanno in memoria solo quello che il programmatore ci mette?
«Sono sofisticate reti che imitano il funzionamento dei neuroni, ma di base elaborano previsioni su statistiche sterminate. Fanno scelte che gli stessi programmatori non comprendono e sarebbe giusto incrociare i risultati, soprattutto in ambiti sensibili come quello medico o giuridico, con analisi tradizionali. In più una IA opera in un solo ambito. Non evolve. Un computer programmato per giocare a Go, per esempio, non può scrivere una relazione o fare radici quadrate. Insomma AI: troppi miti».

Le IA predittive sembrano risolvere nel modo più semplice i problemi e non sono portate all’innovazione creativa. Nell’ambito sociale si potrebbe dire che sono conservatrici?
«Se usate male o lasciate a sé stesse, le IA hanno una natura conservativa che potrebbe risultare nociva. Se l’algoritmo trova più semplice attrarre contatti online, puntando su divisione e scontro, anziché sulla coesione, si comporterà in questo modo, a meno che non sia stato inibito dai suoi creatori. E, certo, può fare da sonnifero alle coscienze umane».

Si discute anche molto della possibile perdita di posti di lavoro e di una redistribuzione della ricchezza: qual è la sua opinione?
«Quello della perdita dei posti di lavoro è un effetto transitorio. In realtà i dati dimostrano che l’IA e la robotica creano più posti di lavoro di quanti ne cancellino. Verranno eliminati i lavori ripetitivi e faticosi, mentre saranno richieste professionalità ad alta precisione. Oltre ai programmatori, penso agli “allenatori” dei computer. A livello sociale si dovrà riqualificare la forza lavoro meno specializzata e pensare ad ammortizzatori sociali. Di sicuro le tecnologie legate alla IA stanno creando molta ricchezza e si è parlato di tasse sui robot, che però vedo molto complicate. Pensiamo ai robot domestici. Chi dovrebbe pagare, la casalinga? Anche qui, l’IA ci dovrà spingere a essere creativi e a disegnare nuove strategie per la redistribuzione del reddito».