OWASP LLM Top 10
Az OWASP (Open Worldwide Application Security Project) nemrégiben közzétette a Top 10 listáját a Nagy Nyelvi Modellek (LLM) alkalmazásaira vonatkozóan, hogy felhívja a figyelmet a mesterséges intelligencia (AI) rendszerek bevezetésével és kezelésével kapcsolatos potenciális biztonsági fenyegetésekre.
· Prompt Injection: A támadók manipulálhatják a bemeneti utasításokat, hogy nem kívánt műveleteket hajtsanak végre az LLM-en keresztül.
· Data Leakage: Az LLM-ek érzékeny adatokat szivárogtathatnak ki, ha nem megfelelően vannak konfigurálva vagy védve.
· Inadequate Sandboxing: A nem megfelelően elszigetelt környezetek lehetővé tehetik a támadók számára a rendszer többi részének kompromittálását.
· Unauthorized Code Execution: A támadók kihasználhatják az LLM-eket arra, hogy jogosulatlan kódot futtassanak a célrendszeren.
· Training Data Poisoning: A rosszindulatú adatokkal történő betanítás torzíthatja az LLM működését, és hibás vagy káros outputot eredményezhet.
· Model Theft: Az LLM-ek modelljeinek ellopása lehetővé teszi a támadók számára a technológia visszafejtését vagy saját céljaikra történő felhasználását.
· Denial of Service (DoS): A túlterheléses támadások megbéníthatják az LLM-ek működését, szolgáltatáskimaradást okozva.
· Insufficient Access Controls: A nem megfelelő hozzáférés-kezelés lehetővé teszi illetéktelen személyek számára az LLM-ekhez való hozzáférést.
· Misinterpretation of Outputs: Az LLM-ek által generált válaszok félreértelmezése hibás döntésekhez vezethet.
· Overreliance on LLMs: A túlzott bizalom az LLM-ekben figyelmen kívül hagyhatja azok korlátait és potenciális hibáit.
Az OWASP LLM Top 10 listája segít a szervezeteknek és fejlesztőknek felismerni és kezelni az AI rendszerek bevezetésével járó új biztonsági kihívásokat, elősegítve a biztonságosabb és megbízhatóbb alkalmazások létrehozását.