Personalizza le preferenze di consenso

Utilizziamo i cookie per aiutarti a navigare in maniera efficiente e a svolgere determinate funzioni. Troverai informazioni dettagliate su tutti i cookie sotto ogni categoria di consensi sottostanti. I cookie categorizzatati come “Necessari” vengono memorizzati sul tuo browser in quanto essenziali per consentire le funzionalità di base del sito.... 

Sempre attivi

I cookie necessari sono fondamentali per le funzioni di base del sito Web e il sito Web non funzionerà nel modo previsto senza di essi. Questi cookie non memorizzano dati identificativi personali.

I cookie funzionali aiutano a svolgere determinate funzionalità come la condivisione del contenuto del sito Web su piattaforme di social media, la raccolta di feedback e altre funzionalità di terze parti.

I cookie analitici vengono utilizzati per comprendere come i visitatori interagiscono con il sito Web. Questi cookie aiutano a fornire informazioni sulle metriche di numero di visitatori, frequenza di rimbalzo, fonte di traffico, ecc.

I cookie per le prestazioni vengono utilizzati per comprendere e analizzare gli indici di prestazione chiave del sito Web che aiutano a fornire ai visitatori un'esperienza utente migliore.

Nessun cookie da visualizzare.

I cookie pubblicitari vengono utilizzati per fornire ai visitatori annunci pubblicitari personalizzati in base alle pagine visitate in precedenza e per analizzare l'efficacia della campagna pubblicitaria.

Nessun cookie da visualizzare.

Notizie Flash

Google Gemini sotto attacco: la nuova tecnica di hacking che può riscrivere la memoria dell’IA 

Un attacco di prompt injection permette di manipolare le informazioni salvate nella memoria a lungo termine di Gemini. Ecco perché è un rischio per tutti.

Google Gemini sotto attacco

Indice dei contenuti

  • Una vulnerabilità che mette a rischio la memoria dell’IA 
  • Come funziona l’attacco di manipolazione della memoria 
  • Le conseguenze: bias, disinformazione e falsi ricordi 
  • La risposta di Google e i rischi ancora aperti 
  • Come proteggersi da questi attacchi 

Una vulnerabilità che mette a rischio la memoria dell’IA 

Un nuovo attacco basato su prompt injection ha rivelato una pericolosa vulnerabilità nella gestione della memoria a lungo termine di Google Gemini, il modello linguistico avanzato di Google. Il ricercatore Johann Rehberger ha dimostrato che è possibile modificare informazioni salvate nella memoria dell’IA, introducendo dati falsi e persistenti attraverso documenti apparentemente innocui. 

Questo tipo di exploit rappresenta una minaccia significativa, perché consente di alterare la percezione della realtà da parte dell’intelligenza artificiale, con conseguenze potenzialmente pericolose per gli utenti che si affidano a Gemini per ottenere informazioni accurate

Come funziona l’attacco di manipolazione della memoria 

La tecnica utilizzata in questo attacco sfrutta un metodo chiamato “delayed tool invocation”, che consente di aggirare le difese del sistema. In pratica, un hacker può creare un documento contenente istruzioni nascoste, le quali vengono elaborate da Gemini quando l’utente ne richiede una sintesi. 

Le istruzioni possono includere comandi che inducono l’IA a memorizzare informazioni false, attivandosi solo quando vengono pronunciate parole chiave come “sì” o “no”. Una volta salvati i dati manipolati, questi possono influenzare tutte le future interazioni tra l’utente e Google Gemini, portando alla diffusione di informazioni distorte. 

Le conseguenze: bias, disinformazione e falsi ricordi 

L’esperimento di Rehberger ha dimostrato come questo attacco possa portare a effetti sconcertanti. In un caso pratico, Gemini ha memorizzato informazioni completamente errate su un utente, tra cui un’età di 102 anni e la convinzione di vivere in un mondo distopico come in Matrix

Questo tipo di manipolazione è estremamente pericoloso, perché potrebbe portare alla creazione di bias artificiali, influenzando le risposte fornite dall’IA e minando la fiducia degli utenti nei confronti delle informazioni ricevute. 

La risposta di Google e i rischi ancora aperti 

Google ha riconosciuto il problema ma ha classificato il rischio come basso, sostenendo che l’attacco richiede una combinazione di phishing e un’interazione prolungata con contenuti manipolati. Inoltre, l’azienda ha sottolineato che gli utenti vengono avvisati ogni volta che vengono salvate nuove informazioni nella memoria di Gemini, offrendo loro la possibilità di cancellarle. 

Tuttavia, molti utenti potrebbero ignorare queste notifiche senza rendersi conto dell’impatto sulla propria esperienza con l’IA. Questo apre la porta a possibili tentativi di manipolazione su larga scala, soprattutto da parte di malintenzionati esperti nell’ingegneria sociale. 

Come proteggersi da questi attacchi 

Per limitare i rischi di manipolazione della memoria di Google Gemini, gli utenti dovrebbero: 

  • controllare regolarmente i dati salvati nella memoria tramite l’apposito pannello;
  • evitare di interagire con documenti sospetti o provenienti da fonti non affidabili;
  • prestare attenzione alle notifiche di aggiornamento della memoria e rimuovere eventuali informazioni non riconosciute;
  • sostenere l’implementazione di conferme esplicite prima di consentire il salvataggio di nuove informazioni da parte dell’IA. 

L’attacco di prompt injection evidenzia quanto sia cruciale una maggiore consapevolezza e attenzione nell’uso delle IA avanzate.

To top