L’intelligenza artificiale è un rischio per l’umanità

L’intelligenza artificiale è un rischio per l’umanità

Elon Musk, in una lettera aperta, chiede una pausa di sei mesi allo sviluppo di nuovi sistemi di intelligenza artificiale. Tra i firmatari anche Steve Wozniak e Yuval Noah Harari. L’allarme è di Elon Musk e di altri 1.000 fra ricercatori e manager che nella lettera chiedono uno stop o una moratoria dei governi per evitare il tanto temuto ‘scenario Terminator‘ e consentire lo sviluppo di protocolli di sicurezza condivisi. Secondo Musk «I sistemi di intelligenza artificiale possono comportare gravi rischi per la società e l’umanità» e quindi «invitiamo tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno sei mesi l’addestramento».

Tali dichiarazioni sono state rese note a poche ore dalla pubblicazione di alcune foto che ritraggono immagini falsificate come quelle che stanno girando in rete del finto arresto di Donald Trump e il Papa con il piumino generate dal sistema AI Midjourney. Come si legge nella lettera, anche i non esperti si sono ormai resi conto delle enormi potenzialità dell’intelligenza artificiale e delle «drammatiche perturbazioni economiche e politiche (soprattutto per la democrazia) che l’Ai causerà». Nel mirino dei big non c’è tutta l’intelligenza artificiale ma i sistemi più avanzati di GPT-4, la chatbot di OpenAI capace di raccontare barzellette e superare facilmente esami come quello per diventare avvocato.

L’allarme è stato lanciato anche dall’Europol che ha pubblicato un documento in cui mostra gli abusi di Gpt 3.5 (la versione precedente di Gpt-4 su cui è basata l’attuale ChatGpt) e come potrebbe essere usata dai criminali informatici per generare email di phishing prive di errori ortografici e grammaticali, generare testi credibili di propaganda e disinformazione, programmare in autonomia dei software compilando in codice attraverso numerosi linguaggi di programmazione. Software che potrebbe comprendere anche i malware ovviamente.

Qui di seguito un estratto della lettera: “I sistemi di IA dotati di un’intelligenza competitiva con quella umana possono comportare rischi profondi per la società e l’umanità, come dimostrato da ricerche approfondite e riconosciuto dai migliori laboratori di IA. Come affermato nei principi di Asilomar per l’intelligenza artificiale ampiamente approvati, l’IA avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguate. Sfortunatamente, questo livello di pianificazione e gestione non sta avvenendo, anche se negli ultimi mesi i laboratori di IA si sono impegnati in una corsa fuori controllo per sviluppare e impiegare menti digitali sempre più potenti che nessuno – nemmeno i loro creatori – è in grado di comprendere, prevedere o controllare in modo affidabile. Pertanto, chiediamo a tutti i laboratori di IA di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di IA più potenti del GPT-4. Questa pausa deve essere pubblica e verificabile e deve includere tutti gli attori chiave. Se tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria. I laboratori di IA e gli esperti indipendenti dovrebbero utilizzare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di IA avanzate, rigorosamente controllati e supervisionati da esperti esterni indipendenti. Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano sicuri al di là di ogni ragionevole dubbio. Ciò non significa una pausa nello sviluppo dell’IA in generale, ma solo un passo indietro rispetto alla pericolosa corsa verso modelli black-box sempre più grandi e imprevedibili con capacità emergenti. La ricerca e lo sviluppo dell’IA dovrebbero concentrarsi sul rendere i potenti sistemi all’avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali. Parallelamente, gli sviluppatori di IA devono lavorare con i politici per accelerare drasticamente lo sviluppo di solidi sistemi di governance dell’IA. Questi dovrebbero come minimo includere: autorità di regolamentazione nuove e capaci dedicate all’IA; sorveglianza e monitoraggio di sistemi di IA altamente capaci e di grandi bacini di capacità computazionale; sistemi di provenienza e watermarking per aiutare a distinguere i modelli reali da quelli sintetici e per tracciare le fughe di notizie; un robusto ecosistema di auditing e certificazione; responsabilità per i danni causati dall’IA; solidi finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell’IA; istituzioni ben finanziate per affrontare i drammatici sconvolgimenti economici e politici (soprattutto per la democrazia) che l’IA causerà. L’umanità può godere di un futuro fiorente con l’IA. Essendo riusciti a creare potenti sistemi di IA, possiamo ora goderci una estate dell’IA in cui raccogliere i frutti, progettare questi sistemi per il chiaro beneficio di tutti e dare alla società la possibilità di adattarsi. La società ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici per la stessa e possiamo farlo anche in questo caso. Godiamoci una lunga estate dell’IA, non precipitiamoci impreparati in un autunno”.

Se ti è piaciuto l'articolo condividilo

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *