Il dibattito sull’intelligenza artificiale. Tre punti di vista. Le enormi potenzialità dell’intelligenza artificiale (IA) e i formidabili danni che ci potrebbe arrecare.
Prima puntata: il punto di vista di Google: IA maneggiare con cautela. Sundar Pichai, CEO di Google e Alphabet interviene nel dibattito internazionale con un suo commento, apparso sul Financial Times del 23 maggio 2023.
IA: maneggiare con cautela.
Quest’anno l’IA generativa (GenAI) ha conquistato l’attenzione di tutto il mondo. Già adesso milioni di persone la usano per espandere la loro creatività e migliorare la loro produttività. Nel frattempo, sempre più startup e aziende stanno immettendo sul mercato prodotti e tecnologie basate sull’intelligenza artificiale a un ritmo più rapido che mai.
L’IA è la tecnologia più completa con la quale lavora oggi il genere umano, una tecnologia che interesserà ogni settore industriale e ogni aspetto della nostra vita. Tenuto conto di queste poste in gioco così alte, più persone si adoperano per migliorare la scienza dell’IA meglio sarà in termini di espansione delle opportunità per le comunità di ogni parte del mondo.
Mentre alcuni hanno cercato di ridurre tutto ciò a una semplice corsa competitiva all’IA, noi la consideriamo molto più di questo. Da oltre dieci anni noi di Google stiamo offrendo l’IA nei nostri prodotti e servizi e li stiamo mettendo a disposizione dei nostri utenti. Ci sta molto a cuore farlo. Eppure, riteniamo ancora più importante la corsa a mettere a punto l’IA in modo responsabile, assicurandoci che la nostra azienda lo faccia correttamente.
Stiamo affrontando ciò in tre modi. Prima di tutto, lo facciamo perseguendo le innovazioni con coraggio, così da rendere l’IA più utile per tutti. Stiamo continuando a usarla per migliorare i nostri prodotti in modo significativo – dal motore di ricerca Google e Gmail ad Android a Google Maps. Questi progressi implicano che adesso i conducenti di autoveicoli di tutta Europa possono trovare percorsi e strade in grado di far risparmiare loro combustibile; decine di migliaia di rifugiati ucraini ricevono aiuto per le comunicazioni nelle loro nuove case; gli strumenti di previsione sono in grado di anticipare di molto il verificarsi delle alluvioni. Il lavoro di Google DeepMind su AlphaFold, in collaborazione con il Laboratorio Europeo di Biologia Molecolare, ha portato a una comprensione approfondita di oltre 200 milioni di proteine catalogate note alla scienza, spalancando nuove possibilità di cura e di assistenza sanitaria.
Ci teniamo anche a permettere ad altri al di fuori della nostra azienda di innovare con l’IA, o con le nostre offerte nel cloud e le Api (interfaccia di programmazione di un’applicazione) o con nuove iniziative, per esempio il Google for Startup Growth Program, che sostiene gli imprenditori europei nell’uso dell’IA per assicurare benefici per la salute e il benessere della gente. Stiamo lanciando un fondo sociale per l’innovazione con l’IA per aiutare le imprese sociali a risolvere alcune delle sfide europee più urgenti.
Secondo, ci stiamo adoperando per sviluppare e usare questa tecnologia in modo responsabile, riflettendo così il nostro profondo impegno volto a conquistare la fiducia dei nostri utenti. Per questo motivo nel 2018 abbiamo reso noti i principi dell’IA ai quali ci atteniamo, a partire dal principio secondo cui la si dovrebbe sviluppare per avvantaggiare la società nel suo complesso, evitando ogni sua dannosa applicazione.
Abbiamo molti esempi di come trasformiamo in realtà questi principi, per esempio integrando barriere di protezione che limitano l’uso improprio del nostro Universal Translator. Questo servizio sperimentale di doppiaggio dei filmati con l’IA aiuta gli esperti a tradurre la voce di chi parla e a sincronizzare la traduzione con i movimenti delle sue labbra. Il potenziale di questa tecnologia è enorme ai fini di una maggiore comprensione, ma siamo consapevoli dei rischi che essa porrebbe qualora cadesse nelle mani di persone malintenzionate e quindi l’abbiamo resa accessibile soltanto a partner autorizzati. A mano a mano che l’IA si evolve, così avviene per il nostro approccio: questo mese abbiamo annunciato che offriremo la possibilità di identificare quando si ricorre a questa tecnologia per generare i contenuti dei nostri servizi.
Infine, massimizzare il potenziale dell’IA non è qualcosa che un’azienda possa fare da sola. Nel 2020, condivisi il mio punto di vista secondo cui l’IA dovrebbe essere regolamentata così da equilibrare innovazione e danni potenziali. La tecnologia è arrivata a un punto di svolta e ora che questa settimana ritornerò in Europa per una settimana credo ancora che l’IA sia troppo importante per non regolamentarla e che sia troppo importante per non regolamentarla bene.
Per mettere a punto quadri strategici in grado di anticipare i possibili danni ed evidenziarne i benefici sarà necessario che governi, esperti di settore, editori, mondo accademico e società civile ne parlino tra loro in modo approfondito. I legislatori potrebbero non dover partire da zero: le normative esistenti forniscono utili parametri di riferimento per gestire i potenziali rischi della nuova tecnologia. Altrettanto importante, in ogni caso, sarà garantire flussi continui di investimento nella ricerca e nello sviluppo di un’IA responsabile, così come dar sì che la si utilizzi in modo sicuro, soprattutto laddove le regolamentazioni sono ancora in via di definizione.
Sarà fondamentale una maggiore cooperazione internazionale. Stati Uniti ed Europa sono alleati e partner strategici. È dunque importante che lavorino insieme per dar vita a un quadro di riferimento solido e dalla parte dell’innovazione della tecnologia emergente, sulla base di valori e obiettivi condivisi. Noi continueremo a collaborare con esperti, sociologi e imprenditori che stanno creando criteri di riferimento per uno sviluppo responsabile dell’IA su entrambe le sponde dell’Atlantico.
Per il mondo intero l’IA costituisce l’occasione – di quelle che capitano una volta ogni generazione – per perseguire i suoi obiettivi climatici, creare una crescita sostenibile, mantenere competitività globale e altro ancora. Ma siamo ancora agli albori e davanti a noi c’è molto lavoro da fare. Non vediamo l’ora di collaborare con gli altri e, tutti insieme, costruire l’IA in modo sicuro e responsabile così che tutti ne possano beneficiare.
Guida alla lettura
- In esordio un cenno polemico: contro chi?
- Cosa sta facendo Google e perché: individuate quelle che il CEO presenta come azioni positive di Google sull’IA, e individuate con chiarezza il perché di queste scelte: è il nocciolo della tesi di Sundar Pichai.