Un nuovo tipo di attacco contro sistemi di intelligenza artificiale sfrutta immagini ad alta risoluzione per nascondere istruzioni malevoli visibili solo alle macchine.
Il metodo, sviluppato dai ricercatori di Trail of Bits, utilizza immagini apparentemente innocue che, una volta ridimensionate automaticamente dall'algoritmo AI, rivelano messaggi nascosti che possono indurre comportamenti indesiderati senza che l'utente ne sia consapevole. Questo tipo di vulnerabilità è stata dimostrata su sistemi AI come Google Gemini, Google Assistant, e altri, evidenziando una nuova minaccia alla sicurezza dei dati e all'integrità dei sistemi intelligenti.
Un nuovo tipo di attacco informatico ha recentemente attirato l'attenzione della comunità di cybersecurity: l'uso di immagini ad alta risoluzione per nascondere istruzioni malevole all'interno di immagini che sembrano innocue. Trail of Bits, un rinomato gruppo di ricerca nella sicurezza informatica, ha scoperto che questi attacchi sfruttano il downscaling delle immagini, una pratica comune nei sistemi di intelligenza artificiale, per rivelare messaggi segreti visibili solo alle macchine. Quando un'immagine viene ridimensionata, le sue informazioni nascoste possono emergere e interagire con i sistemi AI in modi non previsti, causando comportamenti indesiderati senza che l'utente ne sia consapevole. Questo nuovo approccio solleva serie preoccupazioni riguardo alla sicurezza dei dati e alla protezione delle informazioni personali, in quanto i sistemi di AI come Google Gemini e Google Assistant non sono immuni a queste vulnerabilità. Il team di Trail of Bits ha dimostrato come le tecniche di prompt injection possano essere utilizzate per esfiltrare dati sensibili, come le informazioni memorizzate in Google Calendar, semplicemente inviando immagini apparentemente innocue. Inizialmente, gli esperti hanno identificato questa vulnerabilità nelle versioni del Gemini CLI, Vertex AI Studio e in altre interfacce dei sistemi AI, sottolineando un rischio che potrebbe estendersi a molti altri strumenti e applicazioni. La scoperta di questo attacco rappresenta un punto di svolta nella sicurezza informatica, poiché mette in evidenza come sia sempre più necessario proteggere i sistemi di AI da manipolazioni sofisticate che sfruttano la loro architettura e i loro processi di ridimensionamento delle immagini.
Meccanismo dell'attacco: il funzionamento di questo attacco si basa su un'idea semplice ma efficace: gli algoritmi di ridimensionamento delle immagini spesso introducono artefatti, che possono essere sfruttati per incorporare dati dannosi. Al fine di testare questa vulnerabilità, i ricercatori di Trail of Bits hanno utilizzato l'opzione trust=True della configurazione del server Zapier MCP, che consente di bypassare i normali processi di conferma degli utenti. Questo significa che, senza alcuna interazione dell'utente, l'immagine caricata, trasformata in un'immagine malevola dal modello AI, poteva attivare azioni automatiche che esfiltravano informazioni sensibili. Durante i test, i ricercatori hanno documentato come il sistema AI interpretasse le istruzioni nascoste come input normali, permettendo così attacchi di prompt injection a cui gli utenti non erano affatto preparati. La capacità di mascherare i payload maligni all'interno di immagini legittime rappresenta una significativa evoluzione rispetto alle tecniche di attacco precedenti, aumentando la portata e la gravità delle minacce in questo ambito. I risultati hanno evidenziato non solo un problema di sicurezza, ma anche la necessità di sviluppare contromisure efficaci per proteggere i sistemi AI da attacchi simili in futuro.
Azioni raccomandate per la sicurezza: di fronte a questa crescente minaccia, gli esperti di cybersecurity hanno proposto diverse misure di sicurezza che potrebbero mitigare il rischio associato a tali attacchi. Tra le raccomandazioni più importanti ci sono:
- Limitare le dimensioni delle immagini caricate nei sistemi AI, per ridurre i punti di attacco potenziali.
- Implementare anteprime obbligatorie delle immagini ridimensionate per consentire agli utenti di vedere esattamente cosa verrà elaborato dal sistema AI.
- Richiedere conferme esplicite da parte degli utenti per azioni sensibili, specialmente quelle che coinvolgono dati personali o operazioni critiche.
- Adottare design sistematici più sicuri per i sistemi AI, in modo da prevenire iniezioni di prompt maligni e altre manipolazioni varie.
Conclusione: la scoperta di attacchi basati su immagini rappresenta una nuova era nella sicurezza dei sistemi di intelligenza artificiale. Con l'evoluzione costante della tecnologia AI, è fondamentale che le misure di sicurezza si adattino e si rafforzino per affrontare le vulnerabilità emergenti.
Il lavoro di Trail of Bits non solo evidenzia le potenziali minacce legate all'uso delle immagini nell'AI, ma sollecita anche una maggiore attenzione alla sicurezza e alla protezione dei dati. Anamorpher, lo strumento open-source introdotto dai ricercatori, offre una nuova chiave per comprendere e combattere questi attacchi, permettendo alla comunità di sviluppare soluzioni più robuste. Con il continuo aumento della dipendenza dall'AI nelle nostre vite quotidiane, è imperativo che tutti noi, dai ricercatori agli sviluppatori fino agli utenti finali, rimaniamo informati e pronti a difenderci contro le sfide di sicurezza del futuro.
Il lavoro di Trail of Bits non solo evidenzia le potenziali minacce legate all'uso delle immagini nell'AI, ma sollecita anche una maggiore attenzione alla sicurezza e alla protezione dei dati. Anamorpher, lo strumento open-source introdotto dai ricercatori, offre una nuova chiave per comprendere e combattere questi attacchi, permettendo alla comunità di sviluppare soluzioni più robuste. Con il continuo aumento della dipendenza dall'AI nelle nostre vite quotidiane, è imperativo che tutti noi, dai ricercatori agli sviluppatori fino agli utenti finali, rimaniamo informati e pronti a difenderci contro le sfide di sicurezza del futuro.
Attacco alle AI: spiegazione dell’exploit nascosto nelle immagini
Breve video che illustra, con esempi pratici, come immagini apparentemente innocue possono rivelare istruzioni nascoste quando vengono ridimensionate da sistemi AI, integrando i concetti trattati nell’articolo.
