OWASP LLM Top 10

Editors' Pick

Az OWASP (Open Worldwide Application Security Project) nemrégiben közzétette a Top 10 listáját a Nagy Nyelvi Modellek (LLM) alkalmazásaira vonatkozóan, hogy felhívja a figyelmet a mesterséges intelligencia (AI) rendszerek bevezetésével és kezelésével kapcsolatos potenciális biztonsági fenyegetésekre.

·  Prompt Injection: A támadók manipulálhatják a bemeneti utasításokat, hogy nem kívánt műveleteket hajtsanak végre az LLM-en keresztül.

·  Data Leakage: Az LLM-ek érzékeny adatokat szivárogtathatnak ki, ha nem megfelelően vannak konfigurálva vagy védve.

·  Inadequate Sandboxing: A nem megfelelően elszigetelt környezetek lehetővé tehetik a támadók számára a rendszer többi részének kompromittálását.

·  Unauthorized Code Execution: A támadók kihasználhatják az LLM-eket arra, hogy jogosulatlan kódot futtassanak a célrendszeren.

·  Training Data Poisoning: A rosszindulatú adatokkal történő betanítás torzíthatja az LLM működését, és hibás vagy káros outputot eredményezhet.

·  Model Theft: Az LLM-ek modelljeinek ellopása lehetővé teszi a támadók számára a technológia visszafejtését vagy saját céljaikra történő felhasználását.

·  Denial of Service (DoS): A túlterheléses támadások megbéníthatják az LLM-ek működését, szolgáltatáskimaradást okozva.

·  Insufficient Access Controls: A nem megfelelő hozzáférés-kezelés lehetővé teszi illetéktelen személyek számára az LLM-ekhez való hozzáférést.

·  Misinterpretation of Outputs: Az LLM-ek által generált válaszok félreértelmezése hibás döntésekhez vezethet.

·  Overreliance on LLMs: A túlzott bizalom az LLM-ekben figyelmen kívül hagyhatja azok korlátait és potenciális hibáit.

Az OWASP LLM Top 10 listája segít a szervezeteknek és fejlesztőknek felismerni és kezelni az AI rendszerek bevezetésével járó új biztonsági kihívásokat, elősegítve a biztonságosabb és megbízhatóbb alkalmazások létrehozását.

FORRÁS – Darkreading

FORRÁS – OWASP