Un wallpaper descărcat de pe internet, aparent inofensiv, ar putea deveni poartă de intrare pentru atacuri asupra calculatoarelor care rulează asistenți AI, avertizează cercetările recente. O echipă academică din Marea Britanie a explorat scenarii în care detalii subtile, aproape invizibile pentru ochiul uman, inserate în imagini determină modele vizuale ale agenților inteligenți să interpreteze greșit conținutul și, în consecință, să execute acțiuni nedorite.
Studiul pornește de la ipoteza că anumite imagini pot conține „instrucțiuni” camuflate, elemente manipulate la nivelul pixelilor sau la scară aproape imperceptibilă, capabile să inducă erori în modul în care un agent AI „vede” și procesează o scenă. În practică, riscul crește pentru aplicațiile care au permisiuni extinse pe sistem: agenți care pot realiza periodic capturi de ecran, deschide pagini web, face click automat sau interacționa cu aplicații pot fi păcăliți să urmeze linkuri periculoase ori să lanseze comenzi nedorite. În schimb, sistemele care doar generează text, fără capacitatea de a acționa asupra mediului, rămân mai puțin expuse.
Analiza experților în securitate arată că eficiența unui astfel de atac depinde de trei factori principali: tipul agentului AI, nivelul de permisiuni acordat aplicației și modul concret în care modelul vizual interpretează imaginea. Astfel, un wallpaper simplu, afișat în fundalul desktopului sau setat ca imagine de ecran, nu reprezintă un pericol în sine, dar în combinație cu un software care preia periodic conținut vizual și are drepturi de interacțiune, vulnerabilitatea poate deveni exploatabilă.
Contextul nu este nou pentru lumea securității informatice. În trecut au existat tehnici care profitau de neglijențe în validarea input-urilor, exemplul clasic fiind SQL injection, prin care comenzi speciale introduse într-un formular permit acces neautorizat la baza de date. În paralel, noile probleme legate de imagini pot fi privite ca o extensie a aceluiași tip de eroare de proiectare: dacă un agent tratează conținutul vizual ca pe un input nefiltrat, există riscul ca solicitările ascunse să fie interpretate ca instrucțiuni valide.
„Există posibilitatea ca în imagini să fie instrucțiuni ascunse pentru inteligența artificială. Niște persoane curioase, sau cum alții le numesc hackeri, au identificat această vulnerabilitate a AI-ului cu comenzii ascunse în imagine și au exploatat-o.
Aș putea asemăna această vulnerabilitate cu cunoscutul SQL injection, unde în trecut, când nu erau atât de bine gândite sistemele software din punct de vedere al arhitecturii astfel încât să prevină ca un atacator să facă un query pe bază de date prin intermediul input. La fel se întâmplă și acum cu imaginele.
Practic, un atacator poate să trimită o imagine care să conțină niște comenzi, dar acest lucru va fi limitat, la fel cum a fost limitat în urmă cu un deceniu SQL injection-ul”, a spus Alexandru Panait, specialist în securitate cibernetică, pentru Fanatik.
Câteva scenarii practice ilustrează modul în care un atac vizual s-ar putea derula. Un program cu permisiuni de a face capturi automate de ecran ar putea detecta, în fundalul unei ferestre, un element care seamănă cu un buton; dacă modelul vizual al agentului recunoaște elementul și are și permisiunea de a interacționa, ar putea „da click” pe un link dintr-o pagină malițioasă, declanșând astfel o descărcare sau redirecționând utilizatorul către un site capcană. Alternativ, o imagine plasată ca wallpaper ar putea conține un pattern care, la analiza modelului, sugerează o secvență de comenzi; agentul care convertește imaginea în text sau acțiuni ar putea executa acea secvență dacă nu există bariere de securitate.