Futuro prossimo

L’IA può portare all’estinzione dell’umanità? L’allarme delle Big tech

Esperti del settore ammettono i rischi ma altri affermano che l’attuale intelligenza artificiale non è neanche lontanamente capace di arrivare a tanto

L’IA può portare all’estinzione dell’umanità? L’allarme delle Big tech

"Mitigare il rischio di estinzione dell'Intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare". È questo l'inquitante allarme lanciato dagli esperti del settore tra cui Sam Altman, a.d. del produttore di ChatGPT OpenAI, Demis Hassabis, amministratore delegato di Google DeepMind, e Dario Amodei di Anthropic, affermano in una dichiarazione congiunta pubblicata sul sito Centre for AI Safety.

 

IA e l'estinzione dell'umanità

Che l'intelligenza artificiale possa portare in futuro all'estinzione dell'umanità ne sono sicuri anche altre importanti figure del settore come il dottor Geoffrey Hinton, Yoshua Bengio, professore di informatica all'Università di Montreal e Yann LeCunn professore della NYU, considerati dei pionieri nel loro campo, che hanno infatti deciso di firmare la dichiarazione. Altri esperti come Arvind Narayanan, informatico dell'Università di Princeton, non pensano affatto che si possa arrivare a questo. Alla BBC ha detto: "L'attuale intelligenza artificiale non è neanche lontanamente capace di far materializzare questi rischi. Anzi, questo distrae l'attenzione dai possibili danni a breve termine dell'IA".

 

La lettera di Elon Musk 

Dei rischi potenziali dell'intelligenza artificiale ne aveva già parlato Geoffrey Hinton, 75 anni, definito il “padrino dell’intelligenza artificiale”, dopo aver lasciato il suo ruolo in Google per poter parlare liberamente dei rischi dell'IA che lui stesso ha contribuito a sviluppare, e delle sue forti preoccupazioni sulla tecnologia e sul suo ruolo nel farla progredire.

La decisione di Hinton di ritirarsi da Google era arrivata dopo che a marzo un gruppo di personaggi del mondo tecnologico, compreso Elon Musk, avevano firmato una lettera in cui si chiedeva ai laboratori di intelligenza artificiale di interrompere l’addestramento dei sistemi di IA più potenti per almeno sei mesi, citando «profondi rischi per la società e l’umanità». La lettera, pubblicata dal Future of Life Institute, era arrivata a sua volta, ad appena due settimane dall'annuncio di OpenAI di aver prodotto GPT-4, una versione ancora più potente della tecnologia che alimenta ChatGPT.

COPYRIGHT THEITALIANTIMES.IT © RIPRODUZIONE RISERVATA