Una lettera aperta per chiedere una pausa allo sviluppo dell’IA: tra i firmatari Elon Musk e Steve Wozniak.

loading

Una lettera aperta, firmata – tra gli altri – da Elon Musk, Steve Wozniak e Gary Marcus: una richiesta (al momento sottoscritta da più di 1000 utenti) rivolta ai laboratori IA di mettersi in pausa per sei mesi e non portare l’intelligenza artificiale oltre i progressi di GPT-4.

Pubblicata sul sito del Future of Life Institute, la lettera è titolata Mettete in pausa i giganti esperimenti sull’IA: una lettera aperta e si apre con la constatazione che i sistemi IA possano rappresentare un «profondo rischio per la società e l’umanità, come dimostrato da un’ampia ricerca e riconosciuto dai migliori laboratori IA».

«L’intelligenza artificiale avanzata – continua la lettera – potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura adeguata e risorse. Purtroppo questo livello di pianificazione e gestione non sta avvenendo, anche se recentemente abbiamo visto i laboratori IA bloccati in una corsa fuori controllo per sviluppare e distribuire menti digitali ancora più potenti che nessuno – neanche i loro creatori – può comprendere, prevenire o considerare controllabili».

L’evoluzione incontrollabile dell’IA secondo Musk e soci

La paura dei firmatari della lettera aperta riguarda proprio l’evoluzione incontrollabile dell’intelligenza artificiale. E soprattutto è rivolta ai possibili detentori di un non monitorato potere futuro. «Dobbiamo chiederci: dovremmo permettere alle macchine di riempire i nostri canali informativi di propaganda e bugie? – si legge – Dovremmo rendere automatizzati tutti i mestieri, anche quelli appaganti? Dovremmo sviluppare menti inumane che potrebbero superarci eventualmente in numero, intelligenza e rimpiazzarci? Dovremmo rischiare di perdere il controllo della nostra civiltà? Queste decisioni non possono essere delegate a leader tecnologici non eletti».

Di conseguenza, «i potenti sistemi IA dovrebbero essere sviluppati solo una volta che siamo sicuri che i loro effetti siano positivi e i rischi gestibili».

La richiesta – esplicita – è dunque rivolta a tutti gli IA labs ed è di «mettere in pausa immediatamente per almeno 6 mesi la formazione di sistemi AI più potenti di GPT-4». Una pausa che dovrebbe però «essere pubblica e verificabile, e includere tutti gli attori chiave». Se non fosse possibile agire tempestivamente, i firmatari chiedono l’intervento dei governi e l’istituzione ufficiale di una moratoria.

Considerando che gli sviluppatori di intelligenza artificiale sono al momento indipendenti, serve dunque – secondo la lettera – un protocollo di sicurezza condiviso e un fitto dialogo con la politica. «L’umanità può godere di un futuro fiorente con l’Intelligenza Artificiale. Abbiamo avuto successo nel creare sistemi IA potenti – si conclude la lettera – ora possiamo goderci un’estate IA in cui raccogliamo i premi, progettiamo questi sistemi per il chiaro vantaggio di tutti e diamo alla società la possibilità di adattarsi. La società ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici sulla società. Facciamo lo stesso in questa occasione. Godiamoci una lunga estate IA e non corriamo impreparati verso l’autunno».