Un piano d'azione per una Intelligenza Artificiale sicura
Una dichiarazione congiunta di esperti internazionali definisce la sicurezza dell'IA come "bene pubblico globale"; piano d'azione in tre fasi: prevenzione, certificazione e ricerca indipendente
Un gruppo di esperti internazionali di Intelligenza Artificiale (IA), tra cui alcuni vincitori del Premio Turing, ha pubblicato una dichiarazione congiunta che definisce la sicurezza dell’IA come “bene pubblico globale” e propone un piano d'azione in tre fasi per affrontare i rischi potenziali dei sistemi IA avanzati.
La dichiarazione è il risultato del terzo International Dialogue on AI Safety (IDAIS), tenutosi a Venezia dal 5 all’8 settembre 2024.
Intanto, la scorsa settimana è stato anche reso pubblico il Report finale dell’AI Advisory Body istituito dal Segretariato generale delle Nazioni Unite, che riflette su come “governare l’IA a beneficio dell’umanità”. Sul prossimo numero di Anima digitale rifletteremo su questo documento. Ora invece ci soffermiamo sulla Dichiarazione di Venezia.
Le tre fasi del piano d’azione per la sicurezza dell’IA
1. Prevenzione e risposta rapida alle crisi
L’obiettivo di questa fase è stabilire una rete di sicurezza internazionale che possa monitorare, identificare e rispondere efficacemente alle minacce emergenti nel campo dell’IA.
Le iniziative principali includono:
Istituzione di autorità nazionali coordinate a livello internazionale: Ogni Paese dovrebbe creare un’organizzazione dedicata alla supervisione della sicurezza dell’IA. Ciascuna di queste collaborerebbe con le controparti internazionali per condividere informazioni, standard e migliori pratiche, unificando così la gestione dei rischi associati all’IA.
Sviluppo di un piano di emergenza globale per gestire incidenti gravi: si tratta di avere protocolli e strategie predefinite per affrontare situazioni di crisi causate da sistemi IA, per una risposta coordinata in modo da mitigare conseguenze negative e ripristinare la sicurezza.
Creazione di un registro internazionale dei modelli avanzati: una sorta di database centralizzato dove vengono catalogati i modelli di IA più avanzati. In questo modo le autorità possono monitorare lo sviluppo e la distribuzione di tecnologie IA potenzialmente rischiose, facilitando l’identificazione precoce di possibili minacce.
Implementazione di un sistema standardizzato per la segnalazione degli incidenti, in modo da accelerare la risposta alle emergenze e permettere l’analisi di trend o pattern ricorrenti.
2. Certificazione e monitoraggio continuo dei sistemi
Questo pilastro si concentra sulla creazione di standard rigorosi per lo sviluppo e l’implementazione di sistemi IA avanzati. Prevederebbe:
Obbligo per gli sviluppatori di presentare una dettagliata “valutazione di sicurezza” prima dell’implementazione di modelli IA avanzati
Istituzione di un processo di audit indipendente pre-implementazione
Sistema di monitoraggio continuo post-implementazione per i sistemi IA avanzati
Sviluppo di un codice etico internazionale per l’aspetto ingegneristico dell’IA
Queste misure - segnalano i firmatari - mirano a garantire che solo sistemi IA sufficientemente sicuri e controllati vengano implementati, mantenendo un monitoraggio costante per individuare eventuali comportamenti imprevisti o rischiosi.
3. Potenziamento della ricerca indipendente sulla sicurezza
La terza fase si focalizza sull’intensificazione della ricerca indipendente per garantire la sicurezza dei sistemi IA avanzati. Le azioni principali includerebbero:
Istituzione di fondi globali per sostenere la ricerca su sicurezza e verifica dell’IA.
Sviluppo di metodi di verifica avanzati che tutelano la privacy e migliorano la sicurezza.
Collaborazioni internazionali per testare e ottimizzare questi metodi.
Destinazione di fondi significativi alla ricerca indipendente sulla sicurezza IA.
Le precedenti iniziative
Il piano d’azione presentato si basa anche su precedenti iniziative promosse dal “network”, come l'IDAIS-Beijing del marzo scorso e due summit intergovernativi.
L’obiettivo è ora tradurre queste proposte in azioni concrete, coinvolgendo governi, industria e comunità scientifica nella creazione di un framework globale per lo sviluppo sicuro e responsabile dell’intelligenza artificiale.