L’AI ha imparato a replicarsi da sola

Alcuni modelli avanzati sono in grado di replicarsi autonomamente

Quelle che erano e sono le preoccupazioni sulla potenza e sull’ingerenza dell’Intelligenza Artificiale divengono oggi realtà. Si è oltrepassato un limite senza nemmeno rendersene conto (forse). E purtroppo si ha contezza soltanto della ricerca civile ma è cosa nota che la quella miliare è sempre molto più avanzata.

Ci sono due circostanze che preoccupano principalmente gli esperti di AI e non  solo loro, e cioè: la capacità dell’intelligenza artificiale di replicarsi autonomamente e quella di autoripararsi.

In alcuni casi queste due sue nuove capacità non erano nemmeno previste espressamente dai programmatori ma rientrano tra le soluzioni che il sistema creato trova in autotutela della “macchina” (usiamo un termine che renda l’idea). Questa rilevazione pone sicuramente un problema di sicurezza e di controllo assoluto che l’essere umano deve avere sulla macchina.

Si è arrivati a questo risultato utilizzando due modelli di LLM  (Large Language Model) già molto diffusi. Il Llama31-70B-Instruct di Meta e Qwen2.5-72B-Instruct di Alibaba.

Entrambi assolutamente affidabili e stabili ma sicuramente non sono i più tecnologicamente avanzati in circolazione oggi. Sono quindi largamente adottati dalla comunità di sviluppatori di AI

I ricercatori hanno messo in luce che in due differenti contesti l’AI riesce a replicarsi in modo autonomo. E’ stato simulato il caso in cui l’Intelligenza Artificiale deve “evitare lo spegnimento”.

E’ stata quindi programmata per rilevare quando il sistema stava per essere “arrestato” e per replicarsi prima che questo accadesse. Questa istruzione inserita nell’AI ed eseguita dalla stessa fa sì che essa possa sopravvivere a tentativi di spegnimento ad lei non desiderati e di continuare a funzionare senza interruzioni predisposte dai suoi creatori.

Un secondo scenario analizzato dai ricercatori è quello  per li quale l’AI è è stata istruita a clonare se stessa e a programmare la sua replica per eseguire il medesimo processo previsto. In questo caso potrebbe accadere che  in un continuo ciclo di auto-replicazione (potenzialmente anche teso all’infinito) il numero di copie di sistema potrebbe essere così elevato da sfuggire al controllo umano.

Intelligenza Artificiale - AIIl dato che allarma ulteriormente sulle qualità appena “scoperte” dell’AI è la sua capacità di auto-riparazione.

La possibilità di far fronte a migliaia di situazioni impreviste in tempi brevi, come per esempio: la mancanza di file necessari per il funzionamento o conflitti tra diverse componenti software.

La capacità di auto-riparazione e auto-adattamento ha mostrato che i modelli sono molto più sofisticati di quanto si pensasse inizialmente e ricordiamolo ancora una volta non sappiamo gli sviluppi di questa tecnologia in campo militare e spaziale.

Quanto si è potuto verificare sino al momento è quindi preoccupante, lo scenario catastrofico da film del futuro, in cui l’essere umano perde il controllo dell’Intelligenza Artificiale  potrebbe essere dietro l’angolo, creando scenari imprevisti.

Occorre, oggi più di ieri, creare delle regole rigide, internazionalmente vincolanti, affinchè questa tecnologia assolutamente valida, si continua a sviluppare in modo responsabile e sicuro. Altrimenti potrebbe essere il “punto di non ritorno” per l’umanità così come siamo abituati a concepirla.

Fabrizio Pace

 

banner

Recommended For You

About the Author: Fabrizio Pace

Fabrizio Pace è giornalista e direttore del quotidiano d’Approfondimento on line www.IlMetropolitano.it e dell’allegato magazine di tecnologia e scienza www.Youfuture.it.