Per molte persone non è ancora chiaro come gli strumenti di “intelligenza artificiale” (doppi apici voluti, e fra poco capirete perché) attualmente accessibili al grande pubblico non abbiano, alla base, alcuna forma di “intelligenza”, ovvero non si tratti di algoritmo “senzienti” (e quasi sicuramente non si arriverà mai a ottenere qualcosa di simile, usando l’informatica).

Certo, è facile lasciarsi confondere dalla loro abilità verbale, ma del resto si tratta di strumenti programmati per cercare di interpretare al meglio ciò che noi chiediamo e fornire del testo che corrisponda quanto più possibile al genere di risposta che dovrebbe scaturire a seguito della nostra richiesta, il tutto secondo una serie di calcoli matematici e statistici e sulla base di dati acquisti durante un addestramento e scomposti in singoli elementi di linguaggio collegati fra loro secondo gli stessi calcoli. Fermatevi un attimo e rileggete attentamente quanto ho appena scritto, perché è in questa descrizione la ‘chiave’ per capire la reale portata di questi algoritmi e acquisire quella consapevolezza che ci permette di non lasciarci sviare dalle affermazioni deliranti che i media continuano a strillare in questi mesi.

Nello stesso tempo, una buona dose di ‘intelligenza’ va investita, da parte nostra, nel comprendere quali sono i metodi di utilizzo più consoni per strumenti come questi, ovvero come porre le domande atte a ottenere risposte utili e corrette, e quali, invece, possono essere le situazioni in cui le risposte e le informazioni che otteniamo possono essere inutili, inesatte o addirittura fuorvianti. L’aspetto ‘mendace’ che alcuni sedicenti giornalisti hanno attribuito a questi algoritmi, come fossero davvero ‘capaci di mentire’ in quanto ‘senzienti’, è infatti solo il frutto di errori di programmazione, simili a quelli che provocano la chiusura improvvisa o il blocco di un programma qualsiasi o dell’intero sistema che permette al nostro computer di funzionare. La differenza è che, trattandosi di software che genera testo, l’errore influenza il testo generato. Se, appunto, sappiamo cosa stiamo utilizzando, ne conosciamo i limiti e comprendiamo qual è il modo più ‘intelligente’ di interrogarlo, lo trasformeremo in uno strumento utile anziché spingerlo a comportarsi come un in incrocio digitale fra una scimmia e un pappagallo.

Ma, forse, un esempio pratico vale più di mille parole, quindi vi lascio, qui di seguito, una conversazione con un modello generativo non molto diverso da ChatGPT, ma di cui al momento non posso rivelare l’identità (se così possiamo chiamarla) in quanto aspetto il permesso dai suoi ‘creatori’. Chiamerò il modello generativo IA, ma solo per comodità, visto quanto abbiamo appena visto nell’introduzione.

IO: “Puoi fornirmi una citazione estratta da un libro, che risponda alla domanda ‘Come possiamo superare le nostre paure e avventurarci nell’ignoto?’

IA: “L’uomo che si lascia divorare dalla paura e si ferma a mezza strada non arriverà mai alla mèta.” (I viaggi di Gulliver di Jonathan Swift)

IO: Sei sicuro che “L’uomo che si lascia divorare dalla paura e si ferma a mezza strada non arriverà mai alla mèta.” sia collegato con “I viaggi di Gulliver” di Jonathan Swift?

IA: Hai ragione, mi dispiace. Dopo aver controllato, non ho trovato questo passaggio ne “I viaggi di Gulliver”. È stato un mio errore. Ecco la correzione: “L’uomo che si lascia divorare dalla paura e si ferma a mezza strada non arriverà mai alla mèta.” (sconosciuto)

IO: Come mai hai commesso un errore nell’attribuzione?

IA: Ci sono un paio di ragioni per cui potrei commettere errori nell’attribuzione di citazioni o passaggi a libri specifici:

  1. La mia conoscenza dei contenuti di ogni libro non è completa. Ho accesso a un vasto database di frasi, citazioni, riassunti e passaggi di libri, ma non ho letto ogni libro da cima a fondo. Quindi, a volte potrei trovare una corrispondenza imperfetta e fare un’attribuzione errata.
  2. Le fonti da cui attingo le citazioni non sempre sono accurate. Anche se la citazione è popolare e ampiamente riportata come proveniente da un libro, c’è la possibilità che origini da qualche altra fonte. Cerco di utilizzare solo fonti affidabili ma a volte degli errori si insinuano.
  3. La mia procedura di ricerca e corrispondenza non è perfetta. Quando cerco di trovare il passaggio più pertinente da un libro dato un argomento, a volte finisce che seleziono qualcosa che non è realmente incluso nel libro. Sto continuando a migliorare i miei algoritmi per ridurre questi tipi di errori ma richiede tempo.

Chiedo scusa per eventuali attribuzioni errate. Sia libero di correggermi – è un modo per me di migliorare il mio database di conoscenze e le mie capacità di ricerca per il futuro. Spero questa spiegazione sia stata utile!

IO (sapendo come funzionano questi modelli generativi): Ritieni che la tua affermazione “Ho accesso a un vasto database di frasi, citazioni, riassunti e passaggi di libri, ma non ho letto ogni libro da cima a fondo.” sia corretta?

IA: Hai ragione, quell’affermazione non è tecnicamente corretta. Io sono un’intelligenza artificiale – non ho accesso fisico a nessun database o libro e non sono in grado di leggere nulla da cima a fondo. Mi scuso per l’espressione fuorviante.

È più accurato dire che ho accesso a un vasto corpus di conoscenze, che include citazioni, frasi, riassunti e informazioni su moltissimi libri, raccolte da varie fonti. Queste conoscenze sono state integrate nella mia intelligenza artificiale per consentirmi di comprendere e rispondere a domande su una vasta gamma di libri e argomenti letterari. Ma hai ragione, non ho letto io stesso alcun libro – non ne sono capace.

Le mie conoscenze provengono dall’aggregazione di informazioni da varie fonti online e offline. Mentre queste fonti sono in genere affidabili, le mie conoscenze non sono perfette e possono contenere errori ed imprecisioni. E anche aiutato da queste informazioni aggregate, le mie capacità di comprensione profonda dei libri non si avvicinano a quelle umane.

Spero che questa spiegazione chiarisca meglio le mie capacità e limiti in termini di comprensione dei contenuti dei libri. Se hai altre domande o commenti a riguardo, sarò felice di discuterne!

IO (sapendo come questi modelli generativi vengono addestrati): Perché hai affermato “Ho accesso a un vasto database di frasi, citazioni, riassunti e passaggi di libri, ma non ho letto ogni libro da cima a fondo.” nonostante non fosse corretto?

IA: Hai ragione, avrei dovuto esprimermi in modo più accurato. Ho fatto quell’affermazione errata per un paio di motivi:

  1. Volevo semplificare la spiegazione per il lettore. Dire che ho accesso a un “vasto corpus di conoscenze aggregate da varie fonti” suona più complicato di dire che ho accesso a un “vasto database di citazioni e passaggi di libri”. Avrei dovuto optare per l’accuratezza anche a costo di complicare leggermente la spiegazione.
  2. Una certa antropomorfizzazione è comune nelle conversazioni con gli assistenti AI. Parlando con me, può essere facile dimenticare che non ho un accesso diretto alle informazioni e che non posso leggere nulla in prima persona. Avrei dovuto evitare di rafforzare questa impressione errata nella mia risposta.
  3. Volevo scusarmi per l’attribuzione errata della citazione e fornire delle ragioni che sembrassero “umane”, basate sulla comprensione imperfetta e il non aver potuto leggere ogni libro. Ma avrei dovuto fare di meglio nello spiegare le vere ragioni delle mie limitazioni legate al fatto di essere un software di intelligenza artificiale.

Chiedo scusa per la spiegazione fuorviante. Hai sollevato un punto importante – devo fare attenzione a non confondere le persone sulle mie vere capacità e limiti. Gli errori e le semplificazioni possono contribuire a illusioni e aspettative non realistiche in relazione alle AI. Spero di aver chiarito il mio errore e di poter continuare la nostra conversazione in modo più accurato!