Kiberkockázatok kezelése AI-val
Az ANSSI a mesterséges intelligencia rendszerek (SIA) biztonságát nem különálló technológiai kérdésként, hanem a szervezet kritikus informatikai környezetének szerves részeként kezeli. A Francia Nemzeti Információbiztonsági Ügynökség (ANSSI) égisze alatt készült, a terület francia intézményi szakértőivel (CNIL, INRIA, LNE, PEReN, AMIAD) együttműködésével létrejött vizsgálat rávilágít arra, hogy az AI rendszerek ugyanazon szoftveres és infrastruktúra-kockázatoknak vannak kitéve, mint bármely alkalmazás, de emellett sajátos fenyegetésekkel – mint a modell megmérgezése, adatkinyerés vagy a bemenetek manipulációja.
A tanulmány hangsúlyozza a kiberkockázat-analízis szükségességét minden AI-projekt esetében, már a bevezetés előtt, hogy felmérhetőek legyenek az infrastruktúrához (hardver, adatbázisok, modellkészletek) és az ellátási lánchoz (adat, szoftverkönyvtárak, szolgáltatások) kapcsolódó sebezhetőségek. Ezen három, egymást keresztező komponens (számítási teljesítmény, modellszoftverek, adatok) mind hordozza a maga kockázatait, amelyek eltérő eredetű és súlyosságú támadások révén aktiválódhatnak.
Az elemzés szerint a támadási vektorok három csoportba sorolhatók, az adatmanipuláció (adatai bemenetek megváltoztatása), adatkinyerés (modellekből származó érzékeny információ visszafejtése) és adatinjektálás (a modell működésének finomhangolása káros célra). Ezekkel együtt az SIA rendszerek rendelkezésre állása, integritása és átláthatósága is sérülhet, különösen, ha a belső működésük „fekete dobozként” viselkedik, és nem biztosít elegendő magyarázhatóságot.
A dokumentum részletes gyakorlati iránymutatásokat is nyújt, javasolt a kockázatelemzés – kezdetben kvalitatív –, a modell adattartalmának ellenőrzése és integritásvédelem hash vagy ellenőrző összegekkel, a bemeneti és kimeneti útvonalak monitoringja, biztonsági érettségi szint megállapítása, valamint az automatikus döntéstámogatás korlátozása vagy mellett legyen emberi validáció.
Az infrastruktúra és architektúra területén kiemelik a hozzáférés-szabályozás, titkosítás, auditnaplózás, többfaktoros hitelesítés, környezeti szeparáció és felhőspecifikus biztonsági intézkedések jelentőségét. A modell és az adatforrások esetén ajánlott a pseudonimizálás, anonimizálás, integritás-ellenőrzés, valamint az adatgyűjtés és -tárolás biztonságos tervezése.
A szerzők felsorolják azokat a stratégiai ajánlásokat a döntéshozók számára, amelyek a kockázat-orientált AI-fejlesztés kulturális és jogi keretét alkotják, így az auditrajzolás, beszállítói lánc átláthatóság, standardok támogatása és nemzetközi együttműködés. Ösztönzik a folytonos kockázati monitorozást, eseménygyakorlatokat, szervezeti tudatformálást és szabályozási párbeszéd kialakítását is