IA. Che fa Google?

Che fa Google con l’IA? Sembra assente. Ma è davvero così? La cronaca di Emanuele Capone pubblicata su La Stampa del 23 dicembre 2022, descrive le applicazioni su cui Google sta lavorando e riporta i motivi per cui ne parla con discrezione.

Su ItalianaContemporanea l’articolo è pubblicato nella pagina Intelligenza artificiale. Il testo conta 1.418 parole e richiede circa 7 minuti di lettura.


È una fra le domande più ricorrenti, da quando intelligenze artificiali come ChatGPT e Lensa sono state messe in circolazione e sono accessibili a tutti: “Ma Google non fa niente in questo settore?”. Non se lo domandano gli addetti ai lavori, che ovviamente sanno che Google sta facendo cose in questo settore, ma tantissimo se lo chiedono le persone comuni, soprattutto sui social: “Perché Google non ha tirato fuori qualcosa di simile?”.

Sembra che se lo chiedano pure i dipendenti di Mountain View, almeno secondo quanto raccontato da The Verge: sarebbero preoccupati che queste applicazioni possano togliere all’azienda il ruolo di leader nel campo dei motori di ricerca. Che è un timore legittimo ma un po’ infondato, perché questi modelli di IA sono scollegati dalla Rete e chiusi, nel senso che fotografano la situazione in un preciso momento storico: ChatGPT è in grado di scrivere un sonetto imitando lo stile di Dante o di comporre una canzone che vincerebbe il Festival di Sanremo ma non sa praticamente nulla della guerra in Ucraina o della morte di Mihajlovic. Quindi non si può cercare nulla attraverso di lei. Non per davvero.

Detto questo, va anche detto che rispondere alla domanda non è onestamente facile, anche perché al momento sembra praticamente impossibile affrontare l’argomento con qualcuno interno all’azienda, in Italia o negli Stati Uniti. Almeno non prima della prima metà del 2023 quando, nelle parole del CEO, Sundar Pichai (che intervistammo lo scorso maggio), Google avrebbe in programma di svelare “un sacco di cose” nel campo delle IA applicate al linguaggio. E però, qualche ragionamento sul tema si può ovviamente fare.

La questione della reputation

Innanzi tutto, va ricordato che Google non è startup e nemmeno è OpenAI (l’azienda che sta dietro a ChatGPT), che non è piccola ma nemmeno è confrontabile con il colosso di Mountain View: se ChatGPT ha superato il milione di utenti, Google risponde ogni giorno alle richieste di miliardi di persone nel mondo. Che vuol dire? Vuol dire che la posta in gioco è molto più alta, che la reputazione a rischio è molto maggiore, che le conseguenze di ogni eventuale passo falso sarebbero moltiplicate per mille. Perché a farlo sarebbe Google, non una semisconosciuta startup di belle speranze che anche se sbaglia non succede niente.

Quello che è capitato a Meta, con la sua Galactica secondo cui “Il Colosseo è un centro commerciale”, quello che accadde nel 2016 a Microsoft con la chatbot Tay e in generale tutti i rischi e i problemi, anche etici, connessi allo sviluppo di una IA come ChatGPT, fanno capire che Google ha in effetti ragione a volerci andare con i piedi di piombo.

Anche perché a Mountain View qualche difficoltà con questi argomenti già l’hanno avuto, dal caso di Blake Lemoine, l’ingegnere del software allontanato dopo avere detto che l’IA su cui stava lavorando era senziente, a quello (più grave) di Timnit Gebru, la scienziata licenziata dopo avere denunciato i pregiudizi dell’intelligenza artificiale.

Che cos’è LaMDA e come funziona

Lemoine lavorava su LaMDA, che può essere considerata un po’ la risposta di Google a ChatGPT. Anche se in realtà non è la risposta di Google a ChatGPT. Lo sembra perché apparentemente è più o meno la stessa cosa, cioè una chat dotata di una qualche forma di intelligenza e che risponde alle domande delle persone; non lo è per almeno un paio di motivi: perché è nata prima e perché è in continuo aggiornamento, diversamente da ChatGPT, che è chiusa e ferma a fine 2021.

Con “è nata prima” s’intende molto prima: la versione 1 è stata svelata a maggio 2021, la 2 lo scorso giugno ed entrambe si basano su Transformer, un’architettura di reti neurali che Google ha sviluppato e reso open-source addirittura nel 2017. Il suo nome significa Language Model for Dialogue Applications, cioè Modello di Linguaggio per Applicazioni di Dialogo, e LaMDA questo ha imparato a fare e questo fa: è in grado di dialogare con le persone e di chiacchierare con loro, anche (secondo Google) mostrando sensibilità interesse verso quello che le dicono gli interlocutori. Lo fa talmente bene che appunto Lemoine pensava fosse senziente.

Che cosa fa Google con le intelligenze artificiali

Presto potrà farlo anche in pubblico, quando l’azienda permetterà che “piccoli gruppi di persone scarichino l’app di test per provarla”, ma non è questo il punto. Il punto, come si vede, è che Google è chiaramente attiva nel campo delle IA e lo è molto e da tanto, anche se magari non in maniera così eclatante ed evidente come fanno OpenAI e Prisma Labs (gli sviluppatori di Lensa). Che quindi difficilemte riusciranno a prenderla in contropiede su un settore in cui è presente da oltre vent’anni.

A Mountain View hanno iniziato a usare l’intelligenza artificiale addirittura nel 2001, per il controllo dell’ortografia di quello che le persone cercano online (è quello che oggi vediamo in suggerimenti come “forse intendevi”), ed è in generale nel campo delle ricerche che sono le sue principali applicazioni di questa tecnologia, con un’ulteriore accelerazione a partire dal 2011. Anche i futuri usi di LaMDA si possono immaginare in questo campo, per esempio per dare più umanità alle risposte degli assistenti vocali, ma ce ne sono molti altri:

  • la funzione Neural Matching traduce le parole cercate in concetti così che “possiamo fornire risposte che rispondono meglio al significato delle domande”;
  • l’algoritmo MUM (la sigla sta per Multitask Unified Model, ne abbiamo scritto qui), che viene descritto come 1000 volte più potente del precedente Bert, “non solo comprende il linguaggio, ma lo genera” ed è “addestrato in 75 lingue diverse”;
  • la Multisearch (cos’è?) permette di fare ricerche partendo da un’immagine, anche fotografando qualcosa e scrivendo la domanda direttamente sopra, così da avere risultati su quella specifica immagine;
  • l’assistente vocale di Google, che stia sui telefoni, sulle tv o sugli smart speaker, si basa ovviamente su algoritmi di machine learning e sul riconoscimento vocale, anche arrivando a capire il senso implicito e le sfumature delle varie domande;
  • dentro a Maps vengono usate la computer vision e le reti neurali per ricostruire gli edifici partendo dalle immagini satellitari, cosa che ha permesso (per esempio) di aumentare di 5 volte il numero di edifici catalogati in Africa da luglio 2020, da 60 milioni a quasi 300 milioni;
  • sempre in Maps, la Immersive View (cos’è?) usa il machine learning per ricostruzioni 3D incredibilmente realistiche di monumenti, paesaggi o posti comunque significativi.

Questo quanto a quello che noi consumatori comuni possiamo provare con mano, anche se magari non ce ne rendiamo conto. Poi c’è tutta la parte che non vediamo, perché ci tocca meno da vicino:

  • il Flood Hub (cos’è?), che usa machine learning e IA per prevedere allagamenti e inondazioni, stimando, sulla base dell’intensità delle precipitazioni, dove e in quanto tempo salirà il livello di un fiume o di un torrente e anche quanto terreno allagherà;
  • le tante applicazioni nel settore medico (qui qualche esempio), con le IA sviluppate da Google che aiutano i medici a identificare il tumore al seno, il cancro ai polmoni, la retinopatia e pure a stimare in maniera molto efficace il rischio di infarto, anche senza bisogno di esami specifici;
  • le tante applicazioni legate all’ambiente e alla scienza, più o meno tutte basate su TensorFlow (cos’è?) e sul machine learning, dalla capacità di capire lo stato di salute delle piante, delle mucche e dei terreni a quelle che permettono di riconoscere il suono di una motosega (impiegate per contrastare la deforestazione in Amazzonia), sino a quelle per immaginare come si combineranno le varie molecole, utili nel settore farmaceutico;
  • gli impieghi nel campo della creatività, come l’uso delle IA per sottotitolare automaticamente oltre 1 miliardo di video in 10 lingue su YouTube, così da renderli più accessibili a centinaia di milioni di persone non udenti, come Project Magenta (cos’è?), il cui scopo è “rendere open source gli strumenti basati sul machine learning per artisti e musicisti”.

Per non parlare di tutto quello che viene fatto con l’ottimo Translate, che dal 2020 traduce pure i geroglifici e grazie all’IA funziona in oltre 130 lingue, della funzionalità Real Tone degli smartphone Pixel 7 e 7 Pro, che nelle foto riproduce con maggiore accuratezza i diversi toni di pelle, o anche di Imagen, che crea immagini che non esistevano partendo dalle parole.

Insomma: non è che Google non c’è in questo campo. È che c’è ma non si vede. Anzi: c’è talmente tanto che ormai non ce ne accorgiamo (quasi) più.



Abbonati. Newsletter di italianacontemporanea.com

Abbonati per ricevere GRATIS gli ultimi articoli inviati alla tua e-mail. L’iscrizione può essere revocata in ogni momento