A fenyegető szereplők előtt járni
A Microsoft jelentése szerint az elmúlt évben a támadások sebessége, mértéke és kifinomultsága a mesterséges intelligencia gyors fejlődésével és elfogadásával párhuzamosan nőtt. A védők még csak most kezdik felismerni és alkalmazni a generatív AI erejét, hogy a kiberbiztonsági egyensúlyt a maguk javára fordítsák, és az ellenfelek előtt maradjanak.
Ugyanakkor azt is fontos megértenünk, hogy a fenyegető szereplők kezében hogyan lehet visszaélni a mesterséges intelligenciával. Az OpenAI-val együttműködve ma az AI korában megjelenő fenyegetésekről szóló kutatást teszünk közzé, amely az ismert fenyegető szereplőkkel kapcsolatos azonosított tevékenységekre összpontosít, beleértve a prompt-injektálásokat, a nagy nyelvi modellekkel (LLM) való visszaélési kísérleteket és a csalást.
Az LLM-technológia fenyegető szereplők általi jelenlegi használatának elemzése során olyan viselkedéseket tártunk fel, amelyek összhangban vannak azzal, hogy a támadók a mesterséges intelligenciát a támadóterületen egy újabb termelékenységi eszközként használják. Az OpenAI blogját a kutatásról itt olvashatja. A Microsoft és az OpenAI egyelőre nem figyelt meg különösen újszerű vagy egyedi AI-alapú támadási vagy visszaélési technikákat, amelyek a fenyegető szereplők AI-használatából erednek. A Microsoft és partnerei azonban továbbra is alaposan tanulmányozzák ezt a környezetet.