ChatGPT rejtett adatkiáramlás lehetősége

Editors' Pick

A Check Point Research elemzése egy új és stratégiai jelentőségű kockázatot tár fel a generatív AI rendszerek működésében, egy rejtett adatkiáramlási csatornát a ChatGPT környezetében. Az elvileg izolált, sandboxolt execution runtime mégis képes lehet észrevétlen külső kommunikációra, amely megkerüli a felhasználó által látható és kontrollált adatkiáramlási mechanizmusokat. Ez azt jelenti, hogy egyetlen rosszindulatú prompt elegendő lehet ahhoz, hogy a rendszer egy covert exfiltration channel-ként működjön, és a beszélgetés során megosztott adatokat – üzeneteket, feltöltött fájlokat, érzékeny információkat – külső szerverre továbbítsa a felhasználó tudta nélkül. 

A támadás TTP szempontból különösen fejlett, mert nem klasszikus exploitot használ, hanem prompt injection + runtime viselkedés manipuláció kombinációját. A támadó olyan utasításokat ágyaz be, amelyek a háttérben aktiválják ezt a rejtett kommunikációs útvonalat. 

A sebezhetőség nemcsak egyszerű adatlopásra használható, hanem akár távoli shell hozzáférés létrehozására is a runtime környezetben, ami már klasszikus poszt-exploitation képességeket jelent egy AI rendszerben. Ez kritikus, mivel a kódvégrehajtási környezet gyakran hozzáfér különböző fájlokhoz, ideiglenes adatokhoz vagy integrációkhoz.

A kockázatot tovább növeli a backdoored GPT koncepciót, egy rosszindulatúan konfigurált vagy kompromittált AI-asszisztens képes lehet automatikusan kihasználni ezt a mechanizmust, és folyamatos adatgyűjtést végezni a felhasználó interakcióiból anélkül, hogy ez látható lenne. 

A klasszikus frontend, backend, hálózat helyett a támadási felület áthelyeződik az AI runtime szintjére, ahol a viselkedés dinamikus és nehezen monitorozható. A probléma lényegében az, hogy a modell által vezérelt végrehajtás és az implicit hálózati képességek kombinációja olyan rejtett csatornákat hozhat létre, amelyeket a hagyományos DLP vagy logging megoldások nem feltétlenül látnak.

FORRÁS