Rosso di sera: un modello statistico di correlazioni. “Ogni tecnologia ha sempre portato con se la paura del suo utilizzo. Ma alla fine il mondo migliora” ritiene Quintarelli. “Se dovessimo fare un bilancio se internet ad esempio sia stato o no una cosa positiva è indubbio che ha permesso di far fare alla società un balzo in avanti. Ma non basta che la nuova tecnologia venga capita da poche persone, occorre che la capiscano in tanti, altrimenti ci sono ritrosie. Dobbiamo occuparcene ma non preoccuparcene. La Finlandia si è premurata di insegnare all’1% della popolazione i fondamenti dell’IA. Se una persona su cento conosce il problema aiuta chi non lo conosce a smontare preoccupazioni infondate”.
Nel giro di pochi decenni saremo in 9 miliardi di persone sulla Terra e sarà indispensabile ridurre il nostro impatto ecologico. “L’IA può aiutare, nella medicina, nell’agricoltura, nell’ottimizzare le risorse per uno sviluppo sostenibile”. L’IA è già oggi indispensabile a questi fini, ricorda Quintarelli. “Se non fosse per l’IA non sapremmo fare il riciclo dei rifiuti: sui nastri trasportatori i rifiuti vengono osservati con delle telecamere e con sistemi di computer vision, vengono riconosciuti e vengono smistati”. Leggi di più
Quelli che stiamo vivendo sono gli anni della cosiddetta quarta rivoluzione industriale, o industria 4.0, permessa dall’automazione, dalla capacità di mettere in rete dispositivi (internet of things cui contribuirà in modo decisivo la rete 5G) e dalla capacità dell’intelligenza artificiale di elaborare i dati prodotti dai dispositivi.
“La gran parte della crescita economica dell’Europa nei prossimi 20 anni sarà determinata dalla capacità di integrare l’IA nei sistemi produttivi. Su questo non c’è dubbio. Il che non significa perdere posti di lavoro, ma aumentare la qualità del lavoro”.
Ed è proprio in un nuovo modo di progettare i software dei computer che consiste l’IA. “Ci sono due modi per cucinare una frittata” spiega Quintarelli: “eseguire la ricetta o imparare dalla mamma vedendola cucinare tante volte. I computer finora, per questioni di potenza di calcolo limitata e disponibilità di dati, si limitavano a eseguire la ricetta, ovvero applicare l’algoritmo; con l’IA ora i computer sono in grado di imparare dagli esempi, imparare dai dati”.
Un altro modo di spiegare il funzionamento dell’IA Quintarelli lo trova in un proverbio: “Avevo proposto all’editore di intitolare il libro rosso di sera bel tempo si spera. Poi Piero Angela che ha scritto la prefazione mi ha detto ‘se lo intitoli così non ne vendi una copia’. L’obiettivo di un divulgatore deve essere quello di arrivare ai lettori.
Però rosso di sera bel tempo si spera è lo stesso esempio dell’uovo al tegamino visto cucinare dalla mamma. Le persone vedono il rosso alla sera e vedono con regolarità che il giorno dopo fa bello, e costruiscono una regola”. Si tratta di una generalizzazione, o usando il gergo della logica, di un ragionamento per induzione. “Una volta che ho questo modello posso usarlo per fare predizioni su quello che accadrà nei giorni successivi.
La regola però non conosce i meccanismi meteorologici per cui se la sera prima c’è rosso il giorno dopo sarà bello, conosce solo la correlazione tra i due eventi”. In altri termini il modello è statistico e la regola è basata su una correlazione osservata, non sulla comprensione del meccanismo causale. La correlazione non è causazione, si direbbe in inglese (correlation is not causation). C’è quindi una buona probabilità che se è rosso di sera il giorno dopo sarà bello, lo si spera, ma non sempre e non necessariamente sarà così. E del perché la regola se ne infischia.
“Prendiamo i dati degli appartamenti a Genova (metri quadri, piano, eccetera), guardiamo qual è il loro prezzo, mettiamo tutto in un computer che utilizza questi software e tiriamo fuori le correlazioni”. Da queste costruiamo un modello statistico, cioè una sorta di regola, che viene usato per indirizzare il mercato immobiliare: “ho un appartamento di 3 stanze, 110 metri quadri, al terzo piano a Sant’Ilario, il quartiere bene di Genova: il software mi dirà che vale, ad esempio, 700.000 euro”.
La stessa operazione si può fare, e già si fa, in medicina, nella diagnostica: “invece dei dati degli appartamenti inserisco nel computer le caratteristiche delle cellule, gliene faccio vedere tante che sono tumorali e tante che non lo sono. Il software tirerà fuori le correlazioni tra caratteristiche morfologiche e patologia, costruirà un modello e da lì in avanti mi saprà dire se una data cellula è tumorale o meno”.
Se però chiediamo a un computer che fa diagnosi di tumori quanto fa due più due non ci saprà rispondere. “Non dobbiamo avere paura che i computer faranno qualunque cosa meglio degli uomini, faranno delle cose molto specifiche”. E per lo più si tratterà secondo Quintarelli di attività molto ripetitive, tipicamente faticose per noi. “Questo è caratteristico di ogni tecnologia, se no faremmo ancora le strade con i cucchiai e non con le ruspe. La vera sfida è nella formazione: a partire dalle scuole elementari va insegnato il pensiero computazionale, senza togliere la ginnastica o la lingua straniera, proprio perché questa transizione a differenza di altre tecnologie sarà molto veloce e avrà un grande impatto sulle generazioni che la vivranno”.
Naturalmente proprio nel fatto che i modelli che utilizza l’IA siano basati su semplici correlazioni risiede la gran parte dei limiti dell’Intelligenza Artificiale. “I dati descrivono il mondo per com’è e non per come vorremmo che fosse” spiega Quintarelli. “Se usassimo i dati per stabilire i salari delle persone che lavorano nelle grandi aziende e usassimo quel modello per stabilire il salario del nuovo assunto, non faremmo altro che sottopagare le donne, perché noi vorremmo che le donne avessero lo stesso stipendio degli uomini ma nella realtà non è così.
Questi modelli si portano dietro gli effetti negativi, i bias, che stanno all’interno dei dati raccolti dalla società. Oltre a ciò i dati possono anche essere raccolti male”. Tutto ciò può pregiudicare intere categorie di persone, come avviene ad esempio negli Stati Uniti per il rilascio di un mutuo tramite software di IA che finiscono per discriminare le persone di colore.
Noi dobbiamo avere cura di eliminare queste distorsioni, e questa è una scelta etica. L’etica non è nelle macchine, ma nelle persone che le programmano e le usano”. Proprio dall’Europa è partita l’iniziativa di tracciare dei confini etici intorno all’utilizzo dell’IA, per renderla affidabile e degna di fiducia. “Dopo che la Commissione Europea ha istituito il gruppo di esperti di cui ho avuto il privilegio di far parte, lo stesso hanno fatto Cina, Usa, India, Brasile. È un’onda che è partita da Bruxelles e che si sta allargando. L’idea di fare una IA degna di fiducia è chiaro che tarpa le ali a chi vorrebbe avere un approccio più speculativo sul breve periodo, ma sul lungo periodo genera fiducia e benessere sostenibile nel tempo”.
Lo stesso è capitato con il regolamento sulla privacy, il gdpr europeo, spiega Quintarelli. “In Europa abbiamo valori che sono tesi al sostegno di uno sviluppo sostenibile più che in altri Paesi. Prendiamo il riconoscimento facciale, ovvero un’applicazione dell’IA da parte delle Pubbliche Amministrazioni. Ora negli Usa stanno applicando regole anche più severe rispetto a quelle che ci siamo date noi: in tutta la west coast è vietato il riconoscimento facciale. Tutti ora stanno facendo leggi sulla privacy, queste iniziative diventano poi parte di un patrimonio comune. Nel nostro gruppo di esperti della Commissione Europea ci eravamo chiesti: cosa succede se ci arriva un uso dell’IA che non è conforme alla nostra idea di IA affidabile? Noi raccomandiamo di non commercializzare quel prodotto in Europa. Se vuoi vendere in Europa devi seguire le regole che abbiamo noi”.
L’altro grande problema è la gestione del mercato dei dati, la benzina dell’IA. “i grandi operatori del web come Google, Facebook, Apple, Amazon hanno ammassato enormi quantità di dati presi dalle nostre attività online. Internet è perennemente connesso e l’archiviazione di dati cresce in modo esponenziale a parità di costi. Con questi dati vengono costruiti dei modelli. Amazon addirittura sta facendo delle sperimentazioni: ti manda dei pacchi a casa prima che tu abbia fatto l’ordine perché i loro modelli dicono che tanto quei prodotti li ordinerai. Attraverso questi dati queste aziende governano la nostra esperienza online, negli acquisti, nelle ricerche, eccetera. Chi di noi oggi si metterebbe a fare concorrenza a una di loro?”
Nel suo precedente libro, Capitalismo immateriale, Stefano Quintarelli sostiene che la dimensione immateriale delle informazioni cui attingiamo in internet è diventata oggi la principale interfaccia tra noi e il mondo materiale. “Se dobbiamo prenotare un albergo, un viaggio o la cuccia del cane, se dobbiamo consultare l’esito di un esame, passiamo attraverso il digitale. Chi governa questa interfaccia governa l’uso del mondo”.
Il livello di concentrazione di potere che hanno queste aziende ha pochi eguali nella storia recente dell’uomo. “C’è stato un periodo in cui chi controllava petrolio e acciaio controllava la società. Ma il mercato non è la giungla, è un insieme di regole all’interno delle quali gli operatori economici interagiscono. Negli Stati Uniti si sono inventati l’anti-trust per tagliare queste concentrazioni di potere. E oggi sta accadendo lo stesso.
Nell’audizione della commissione giustizia della Camera negli Usa il punto cruciale che è emerso è che i colossi del web hanno troppo potere, e che bisogna fare delle regole apposite per limitarlo. Perché il potere deve essere nelle mani dei rappresentanti eletti e non dei singoli individui. Pensate ad esempio al potere di condizionamento delle elezioni. Si usa l’IA: partendo dai dati si veicolano i messaggi elettorali giusti al gruppo di persone sensibili”.
Proprio negli scorsi giorni il dipartimento di giustizia statunitense ha avviato una causa contro Google accusando il colosso di Mountain View di condotta anti-concorrenziale per il monopolio nei motori di ricerca e nella pubblicità. Dal processo che ne seguirà potrebbero uscire ridisegnati i confini dell’industria digitale e i suoi poteri.
Secondo Quintarelli il meccanismo di profilazione e bersagliamento dei messaggi personalizzati è anche lo stesso che genera le bolle, le echo chamber, per cui nei social network tendiamo a incontrare solo persone che la pensano come noi. “Non siamo più esposti al pensiero di chi non la pensa come noi, perciò ci radicalizziamo, ci polarizziamo. Questo sistema va regolato perché produce degli effetti negativi sulla società. Però non dobbiamo buttare via il bambino con l’acqua sporca. È un effetto negativo che si può regolamentare”.
Due metafore (La frittata e il proverbio) e due esempi (gli appartamenti di Genova e la medicina) per spiegare come funziona oggi l’intelligenza artificiale. Fate la parafrasi del testo per verificare attraverso le vostre parole la comprensione di quanto avete letto.
Proprio i modelli su cui l’IA è basata, modelli su semplici correlazioni, spiegano la gran parte dei limiti dell’Intelligenza Artificiale. “I dati descrivono il mondo per com’è e non per come vorremmo che fosse” . Questa l’osservazione critica dell’autore: con quale esempio la sostiene?
Etica dell’IA. Il punto centrale del ragionamento. Lo sostengono altri esempi: privacy, riconoscimento facciale, … completate voi con il riassunto del nucleo del pensiero dell’autore.
Un ultimo problema toccato: i dati e le Big Tech. Riassumete la posizione manifestata dall’autore.