OpenAI rosszindulatú felhasználása
Az OpenAI jelentése alapján az AI-modellek – köztük a ChatGPT – egyre intenzívebben kerülnek rosszindulatú felhasználásra a kibertámadásokban, befolyásolási műveletekben és csalásokban. A TechRepublic cikke részletesen bemutatja, hogy tíz olyan kampányt zavartak meg az elmúlt időszakban, amelyek hat különböző országból származnak, többek között Kína, Oroszország, Észak-Korea, Irán, Kambodzsa és a Fülöp-szigetek
A jelentés szerint noha az AI nem hozott létre teljesen új fenyegetést, jelentősen csökkentette a támadók számára a technikai belépési korlátot. Ilyenek az álláshirdetések segítségével technológiai eszközöket kérő, csaló kampányok az Észak‑Koreától származó szereplőktől, a ScopeCreep nevű orosz nyelvű művelet, amely a ChatGPT-t használta Windows-malware kódolására, hibák javítására és C2 infrastruktúra fejlesztésére, az Operation Sneer Review, ami egy kínai kapcsolatra utaló befolyásolási kampány, amely TikTokon, X-en és Facebookon terjesztett AI-generált tartalmat – célja politikai narratívák befolyásolása volt és az Észak‑koreai résztvevők által indított laptop farm csalások, ahol tömeges önéletrajz-generálás történt – AI segítséggel. A tíz esetből négyhez Kína köthető – ezek között befolyásolási műveletek is szerepeltek.
Az OpenAI Disrupting Malicious Uses of AI – June 2025 jelentése szerint a beavatkozása több fronton zajlott: letiltották az érintett ChatGPT-fiókokat, együttműködtek platformpartnerekkel a gyors reagálás érdekében, és figyelmezetéseket küldtek a közösségnek a kiemelt visszaélésekről. Az AI leginkább azzal növeli a támadások hatékonyságát, hogy szignifikánsan lecsökkenti a belépési küszöböt és felgyorsítja a támadási láncokat.