Il campanello d’allarme suona forte e chiaro, e non proviene dagli analisti, ma direttamente dai core developer. Oltre 200 luminari del panorama AI, tra cui Premi Nobel e padri fondatori come Geoffrey Hinton e Yoshua Bengio, hanno lanciato un input critico all’Assemblea Generale delle Nazioni Unite.
Nel documento “Global Call for AI Red Lines”, si esorta a una configurazione urgente di un framework normativo globale con “linee rosse” invalicabili per l’intelligenza artificiale, da implementare entro il 2026. Il messaggio, supportato da ingegneri e ricercatori di giganti del calibro di Anthropic, Google, Microsoft e OpenAI, non è un semplice bug report, ma un warning di sistema su scala planetaria.
Nonostante il potenziale illimitato dell’IA per ottimizzare processi e migliorare il benessere umano, la sua current build presenta vulnerabilità senza precedenti. I firmatari avvertono che il timeframe per un intervento significativo si sta rapidamente esaurendo.
La richiesta è chiara: vietare a livello internazionale l’uso dell’IA per il controllo di arsenali nucleari, lo sviluppo di sistemi d’arma autonomi letali, la sorveglianza di massa, gli attacchi informatici e i deepfake. Questi non sono errori di compilazione, ma malware che potrebbero compromettere la sicurezza e i diritti umani.
Il documento dipinge un quadro inquietante, dove un’AI che supera di gran lunga le capacità umane potrebbe eseguire rischi come pandemie create in laboratorio, disinformazione virale, manipolazione su vasta scala di individui e instabilità geopolitica.
La lettera sottolinea che, senza un patch normativo, il controllo umano diventerà un processo sempre più complesso da gestire e che presto si potrebbe arrivare a un punto di non ritorno. La community AI, solitamente focalizzata sullo sviluppo e il deployment, sta ora chiedendo una pausa di sistema per stabilire regole di base prima che la tecnologia out of control.
Ile And
