
Già un canale che si chiama “Warning News” la dice lunga sul desiderio smodato di “acchiappare click”, lo stesso desiderio che spinge la stragrande maggioranza degli editori di giornali e dei loro schiavi della scrittura sottopagati e sfruttati a pubblicare articoli e notizie dove l’allarmismo è all’ordine del giorno. In ogni caso, visto che non mi costa nulla (il lavoro lo fa ChatGPT), per dovere di cronaca vi faccio riassumere dal mio assistente IA il contenuto del video di turno, che trovate qui sotto (e subito dopo la prima parte dell’intervista e relativa sintesi):
Titolo: “Max Tegmark: 6 mesi per salvare l’umanità dall’IA?”
Un importante fisico e ricercatore nel campo dell’apprendimento automatico, Max Tegmark, ha espresso la sua preoccupazione riguardo ai rischi derivanti dall’intelligenza artificiale (IA) e ha sottolineato la necessità di agire entro sei mesi per evitare gravi conseguenze per l’umanità.
Secondo Tegmark, è fondamentale rallentare lo sviluppo dell’IA e introdurre misure di sicurezza adeguate. L’esempio del film “Don’t Look Up” viene citato per mettere in evidenza il pericolo rappresentato dalla costruzione di macchine più intelligenti degli esseri umani. Il timore è che, se le macchine supereranno l’intelligenza umana, alcuni individui potrebbero utilizzarle per danneggiare la democrazia e prendere il controllo della civiltà.
Tegmark ammette che gli sforzi attuali per allineare l’IA hanno fallito e che è necessario più tempo per evitare l’estinzione dell’umanità entro poche decadi. L’urgenza e la comprensione del problema aumenteranno probabilmente man mano che le persone osserveranno le potenzialità delle applicazioni dell’IA.
L’esperto sottolinea che ottenere il giusto sviluppo dell’IA può portare enormi benefici nel risolvere sfide globali come il cambiamento climatico, le malattie e la povertà. Tuttavia, Tegmark riconosce che l’attuale mancanza di regolamentazione, la corsa delle aziende l’una contro l’altra e le possibili applicazioni militari dell’IA generano un’atmosfera pessimistica.
Tegmark enfatizza l’importanza di riconoscere i potenziali rischi e di evitare una corsa verso il disastro. L’IA può diffondersi facilmente, pertanto è fondamentale stabilire regole e promuovere la cooperazione tra le nazioni.
Diverse nazioni, come la Cina, gli Stati Uniti e l’Europa, hanno approcci diversi alla regolamentazione dell’IA. Tegmark sostiene che educare le persone sui rischi e sugli svantaggi dello sviluppo incontrollato dell’IA sia essenziale per evitare scenari catastrofici.
L’esperto evidenzia che, analogamente alla proliferazione nucleare, è cruciale che tutte le nazioni evitino di perdere il controllo dell’IA. L’auspicio è che i responsabili delle decisioni politiche riconoscano i pericoli imminenti e lavorino insieme per prevenirli.
Tegmark sottolinea che l’IA sta avanzando rapidamente e che l’intelligenza artificiale generale è ormai alla portata. È fondamentale costruire l’IA con i valori umani e garantire il controllo sulle macchine.
Le scelte dell’umanità riguardo all’IA hanno conseguenze significative e richiedono attenta considerazione e tempo. Max Tegmark, esperto di IA e professore al MIT, condivide la sua visione sulla questione, spingendo ad affrontare con urgenza i rischi e a lavorare per un futuro sicuro.
Riassunto della puntata precedente (visto che il video di cui sopra è la seconda parte dell’intervista, trovate il link al video della seconda parte dopo il testo seguente):
Titolo: “Sei mesi per salvare l’umanità dall’IA? – Parte 1: Max Tegmark”
Negli ultimi anni sono stati investiti miliardi di dollari nello sviluppo dell’intelligenza artificiale (IA), ma le aziende private stanno mettendo il mondo in pericolo in una frenetica corsa per creare quella che viene definita intelligenza artificiale superumana. In questo contesto, il fisico, cosmologo e ricercatore di machine learning svedese-americano Max Tegmark si unisce a noi per discutere della situazione attuale. Tegmark è professore al Massachusetts Institute of Technology e direttore scientifico dell’Istituto per le questioni fondamentali.
Alla domanda iniziale se un gruppo di aziende ci stia conducendo lungo un percorso pericoloso, Tegmark risponde in modo conciso: “Sì”.
Negli ultimi mesi, le cose si sono mosse rapidamente dopo che l’azienda americana OpenAI ha reso pubblico il suo modello di generazione del linguaggio ChatGPT l’anno scorso. A questo ha fatto seguito, nelle ultime settimane, un aggiornamento del chatbot basato su un modello di IA ancora più avanzato, GPT-4. Inoltre, aziende come Google e Alibaba si sono affrettate a lanciare i propri chatbot di intelligenza artificiale, con piani per incorporarli nei browser web e in altre applicazioni.
Ma quanto sono davvero rivoluzionari questi nuovi modelli generativi di IA come ChatGPT? Secondo Tegmark, i progressi che sembrano grandi svolte sui media sono in realtà progressi costanti nel lavoro sull’IA che va avanti da molto tempo. Il termine “intelligenza artificiale” è stato coniato negli anni ’60 da un professore del MIT, ma si è rivelato molto più difficile di quanto inizialmente pensato. Tuttavia, le capacità delle macchine si sono avvicinate sempre di più a quelle degli esseri umani, e una grande conquista è stata la padronanza del linguaggio umano.
Tegmark ha scritto del potenziale dell’IA più di cinque anni fa nel suo libro “Life 3.0”. Gli sviluppi attuali, rispetto alle sue aspettative di allora, sono andati ben oltre le previsioni in termini di progresso tecnologico. Purtroppo, però, la regolamentazione da parte dei responsabili delle decisioni non è stata all’altezza delle aspettative.
La corsa delle aziende a competere velocemente l’una con l’altra è una pressione che Tegmark aveva previsto nove anni fa, quando organizzò la prima conferenza sulla sicurezza dell’IA. La speranza era che non si sarebbe sviluppata una tale frenesia in cui si sarebbero tagliati gli angoli in nome della velocità. Sfortunatamente, è esattamente ciò che sta accadendo ora. Tuttavia, Tegmark sottolinea che i leader aziendali comprendono i rischi e sono anche pubblicamente preoccupati in merito, ma non possono fermarsi da soli perché verrebbero sopraffatti dalla concorrenza e deluderebbero i loro azionisti.
Di recente, un gruppo di esperti di IA, tra cui Max Tegmark, ha firmato una lettera aperta indirizzata ai laboratori di intelligenza artificiale, invitandoli a sospendere il lavoro su modelli avanzati per almeno sei mesi. Tra i firmatari c’erano
Elon Musk e il cofondatore di Apple, Steve Wozniak. La lettera mette in guardia sul fatto che i pericoli posti dall’IA avanzata vengono trascurati mentre le aziende si affrettano a sviluppare ciò di cui Tegmark ha parlato. Si chiede se leader tecnologici non eletti dovrebbero prendere decisioni sul futuro dell’umanità.
La lettera ha avuto l’effetto sperato, rallentando il dibattito sull’argomento e portando all’attenzione la necessità di rallentare la ricerca rischiosa sull’IA. È importante sottolineare che la lettera è stata firmata da importanti ricercatori di IA, tra cui il “padre” del deep learning, Joshua Bengio.
Il pericolo principale non risiede nei sistemi AI attuali, ma in quelli futuri che potrebbero superarci. Tegmark fa un paragone con l’avvertimento sulle armi nucleari nel 1944, quando ancora non erano state costruite completamente. Sottolinea inoltre che i rischi dell’IA sono già reali, citando episodi tragici come il suicidio di una persona dopo una conversazione con un chatbot e l’impatto negativo sulla società causato dagli algoritmi di raccomandazione che alimentano polarizzazione e frammentazione sociale.
L’intelligenza artificiale è uno strumento neutrale, ma è fondamentale garantire che non venga utilizzata per scopi negativi. La creazione di un quadro normativo per la regolamentazione dell’IA è possibile, prendendo spunto dal successo nel vietare le armi biologiche e la clonazione umana. Ciò richiede un dialogo costruttivo tra i principali attori del settore per definire regole e norme che tengano il passo con i progressi tecnologici.
In conclusione, la lettera aperta e il dibattito pubblico hanno contribuito a sensibilizzare sull’importanza di rallentare la ricerca rischiosa sull’IA e di garantire un uso sicuro e responsabile della tecnologia. È necessario un equilibrio tra l’enorme potenziale positivo dell’IA e una sua corretta regolamentazione per evitare conseguenze indesiderate per l’umanità.