Prompt injection attack
Az Egyesült Királyság Nemzeti Kiberbiztonsági Központja (NCSC) figyelmeztetést adott ki a mesterséges intelligencia használatával épített alkalmazások elleni azonnali befecskendezési (prompt injection) támadások növekvő veszélyével kapcsolatban. Míg a figyelmeztetés azoknak a kiberbiztonsági szakembereknek szól, akik nagy nyelvi modelleket (Large Language Models – LLM) és más mesterséges intelligencia-eszközöket készítenek, az azonnali befecskendezést érdemes megérteni, ha bármilyen mesterséges intelligenciával támogatott eszközt használ, mivel az ezt használó támadások valószínűleg a biztonsági rések egyik fő kategóriáját jelentik a jövőben.
A prompt injekció egyfajta támadás az LLM-ek ellen, amelyek olyan nyelvi modellek, amelyek a chatbotokat működtetik, így a ChatGPT is az. A támadó beszúr egy promptot oly módon, hogy felborítsa a fejlesztők által felállított korlátokat, és így rávegye az AI-t olyasmire, amit nem kellene. Ez bármit jelenthet a káros tartalom kiadásától a fontos információk adatbázisból való törléséig vagy a tiltott pénzügyi tranzakciókig – a lehetséges kár mértéke attól függ, hogy az LLM-nek mekkora ereje van a külső rendszerekkel való interakcióhoz. Az olyan alkalmazások esetében, mint a chatbotok, amelyek önmagukban működnek, elég kicsi az esély a károkozásra. De amint az NCSC figyelmeztet, amikor a fejlesztők LLM-eket kezdenek építeni a meglévő alkalmazásaik mellé, akkor az azonnali injekciós támadások lehetősége jelentős károkat okozhat.