Il moltiplicarsi e linfettare tutto: lallerta dei ricercatori alimenta i timori sulle IA – SDI Online
Un team di ricercatori ha creato un virus AI chiamato Morris II per testare la sicurezza delle applicazioni abilitate all’intelligenza artificiale. Il worm Morris II AI è in grado di rubare dati sensibili e infettare piattaforme come ChatGPT e Gemini.
Il virus è stato progettato per replicarsi, compiere azioni dannose e diffondersi nell’ecosistema dell’IA. Durante i test, è stato in grado di raccogliere numeri di previdenza sociale e dettagli delle carte di credito.
I ricercatori hanno informato OpenAI e Google dei risultati dei loro test. OpenAI ha dichiarato di essere al lavoro per rendere i propri sistemi più sicuri e ha consigliato ai developer di utilizzare metodi per verificare gli input dannosi.
Questa dimostrazione mette in evidenza i rischi associati all’IA e sottolinea l’importanza di garantire la sicurezza delle applicazioni basate sull’intelligenza artificiale. È fondamentale adottare misure adeguate per proteggere i dati sensibili e prevenire eventuali attacchi informatici.
“Comunicatore. Ninja web hardcore. Amante estremo dei social media. Analista. Drogato di alcol.”