A mesterséges intelligencia rendszerek biztonságáról

Editors' Pick

A Szingapúri Kiberbiztonsági Ügynökség (CSA) a 2024-es Szingapúri Nemzetközi Kiberhéten (SICW) bemutatta a mesterséges intelligencia (AI) rendszerek biztonságáról szóló iránymutatást.

Miközben a mesterséges intelligencia jelentős előnyökkel jár a gazdaság és a társadalom számára azáltal, hogy különböző ágazatokban növeli a hatékonyságot és az innovációt, az ilyen rendszerek fejlesztése és telepítése kiberbiztonsági kockázatokkal jár. Az AI-rendszerek sebezhetőek lehetnek a támadásokkal szemben, amikor a rosszindulatú szereplők szándékosan manipulálják vagy megtévesztik az AI-rendszert. A mesterséges intelligencia alkalmazása a vállalati rendszereket érintő meglévő kiberbiztonsági kockázatokat is súlyosbíthatja. Ezért a mesterséges intelligenciának – mint minden szoftverrendszernek – alkalmaznia kell a secure by design és a secure by default alapelveket.

Az iránymutatásokat azzal a céllal dolgozták ki, hogy segítsék a szervezeteket a mesterséges intelligencia biztonságos bevezetésében. Azonosítják a potenciális fenyegetéseket, például az ellátási láncot érő támadásokat, és az olyan kockázatokat, mint az ellenséges gépi tanulás, és olyan elveket tartalmaznak, amelyek a döntéshozók és a gyakorlati szakemberek számára útmutatást nyújtanak a biztonsági kontrollok és a legjobb gyakorlatok végrehajtásához az AI-rendszerek védelme érdekében. Az iránymutatások és a kísérő útmutató a bevett nemzetközi iparági iránymutatásokra és szabványokra való hivatkozással készültek. Ezek közé tartoznak a biztonságos mesterséges intelligencia rendszerek fejlesztésére vonatkozó iránymutatások (az Egyesült Királyság Nemzeti Kiberbiztonsági Központja és az Egyesült Államok Kiberbiztonsági és Infrastruktúra-biztonsági Ügynöksége), a National Institute of Standards and Technology kockázatkezelési keretrendszere, a MITRE Adversarial Threat Landscape for AI Systems és az Open Web Application Security Project Machine Learning Security Top 10.

Mivel csak a mesterséges intelligenciamodell megerősítése nem elegendő a biztonsági kockázatok mérsékléséhez, a CSA azt ajánlja, hogy a rendszer tulajdonosai a biztonsági kockázatok azonosítása és mérséklése érdekében holisztikus szemléletű életciklus-megközelítést alkalmazzanak. A mesterséges intelligencia életciklusának öt kulcsfontosságú szakasza van, nevezetesen a tervezés és a tervezés, a fejlesztés, a telepítés, az üzemeltetés és karbantartás, valamint az életciklus vége.

    i. Tervezés – A mesterséges intelligencia biztonsági veszélyeinek tudatosítása és kockázatértékelés kidolgozása.
    ii. Fejlesztés – Az ellátási lánc biztonsága és az AI-eszközök védelme.
    iii. Telepítés – Az infrastruktúra védelme, incidenskezelési folyamatok kialakítása, valamint a mesterséges intelligencia teljesítményértékelése és red-teaming.
    iv. Üzemeltetés és karbantartás – A biztonsági anomáliák nyomon követése és a sebezhetőségek nyilvánosságra hozatali folyamatainak kialakítása.
    v. Életciklus vége – Az adatok és a modell artefaktumok biztonságos és megfelelő eltávolítása.

    Forrás