ChatGPT in un vicolo cieco: errori folli e inaffidabilità

ChatGPT in un vicolo cieco: errori folli e inaffidabilità. Quando sbaglia, ChatGPT sbaglia di brutto. Per esempio può dire cose assolutamente ridicole e quando gliene chiedi conto, mente. Questo difetto è “fatale”, afferma Larson. Non si possono affidare a ChatGPT compiti cruciali, perché non si può prevedere in anticipo quando fallirà.

Questo articolo divulgativo è di John Horgan è datato 13 ottobre 2023. Il titolo originale è Cutting Through the ChatGPT Hype (Sfogliando le opinioni che creano la fama di ChatGPT), il testo è in inglese. La presente traduzione italiana è di ItalianaContemporanea assistita da Reverso.com, da Google Translator e dalla stessa ChatGPT! Le traduzioni grazie ad IA sono ormai buone, ma certo vanno sorvegliate e corrette! L’articolo espone i contenuti della conferenza di Eric Larson del 4 ottobre 2023 presso lo Stevens Institute of Technology (NewJersey)
(Tra parentesi, dice Horgan, il discorso di Larson è stato immediatamente trascritto dal software di conversione audio-testo di Zoom).


ChatGPT cambia tutto! Questa e altre intelligenze artificiali dalla parlantina tranquilla diventeranno presto senzienti! Se non lo sono già! Ci distruggeranno! Dobbiamo fermare la ricerca! No, ci salveranno! Dobbiamo investire più fondi nella ricerca sull’intelligenza artificiale, per battere la Cina!

Queste sono le opinioni che circolano. Desideroso di un approccio a ChatGPT serio, lontano dai luoghi comuni, ho chiesto a Erik J. Larson di parlare nella mia scuola, lo Stevens Institute of Technology. Larson è l’autore del saggio pubblicato nel 2021 The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do, (Harvard University Press, da poco pubblicato in italiano da Franco Angeli), che esplora i limiti dell’intelligenza artificiale. Larson analizza la tecnologia anche nella sua eccellente newsletter Substack Colligo.

Larson è un critico militante. Formatosi in informatica e filosofia, ha fondato due società di intelligenza artificiale supportate dalla Defense Advanced Research Projects Agency, Darpa. All’inizio degli anni 2000 ha lavorato come “ingegnere ontologico” (Larson ora sorride al titolo) presso Cycorp, una delle prime aziende dedicate alla costruzione dell’intelligenza artificiale con conoscenze generali e basate sul senso comune. Leggi di più

Guida alla lettura

Scrivete la scaletta di questo articolo divulgativo di John Horgan, che abbiamo intitolato ChatGPT in un vicolo cieco: errori folli e inaffidabilità. Trasformate poi le formulazioni disinvolte, da lingua parlata e discorso diretto in espressioni più formali. Osservate anche le forme impersonali e uniformatele, o tutto “tu generico” o tutto impersonale in terza persona.

Scaletta da completare

  1. Il modello abduttivo e quello induttivo: in cosa si differenziano e qual è più vicino all’intelligenza umana. Conseguenze.
  2. Perché ChatGPT fallisce
  3. Pericolosità di ChatGPT: in cosa?
  4. …. e poi?