Questa volta non è il solito #giornalistaterrorista a parlarne a sproposito: sul blog di OpenAI si parla di “Governance of superintelligence)“, perché l’ipotesi è che in meno di un decennio potremmo trovarci di fronte a qualcosa di superiore all’AGI. L’impatto di una super-IA potrebbe essere tanto positivo quanto negativo, quindi sarà fondamentale essere in grado di gestire gli eventuali rischi. Se l’attuale livello di IA può essere facilmente gestito, per una super-IA saranno necessarie competenze e tecnologie particolarmente avanzate. Fondamentale, in tal senso, è il coordinamento fra coloro che si occupano di sviluppo nel settore, in modo da mantenere la sicurezza e agevolare l’integrazione di questi sistemi nella società. Avremo probabilmente bisogno, quindi, di un’autorità internazionale che possa ispezionare i sistemi, richiedere revisioni, testare la conformità agli standard di sicurezza, imporre restrizioni sui gradi di distribuzione e sui livelli di sicurezza, ecc. Ma prima di tutto è necessario sviluppare la capacità tecnica che permetta di rendere sicura la super-intelligenza. OpenAI, appunto, è al lavoro anche su questi temi.

#intelligenzaartificiale #agi #OpenAI #superintelligence #rischio

https://openai.com/blog/governance-of-superintelligence