A mesterséges intelligencia biztonsági aggályai dióhéjban

Editors' Pick

A német Szövetségi Információbiztonsági Hivatal (BSI) iránymutatást adott ki, ami megismerteti a fejlesztőkkel a mesterséges intelligencia által támogatott rendszerek elleni legfontosabb támadásokat és a lehetséges kiegészítő védekezési módokat. Az iránymutatás nem átfogó csak egy bevezetést nyújt a témába.

Számos alkalmazásban a gépi tanulási modellek érzékeny információkat használnak képzési adatként, vagy olyan kritikus területeken hoznak embereket érintő döntéseket, mint például az autonóm vezetés, a rákfelismerés és a biometrikus hitelesítés. A támadások lehetséges hatása egyre nő, ahogy a gépi tanulást egyre gyakrabban használják kritikus alkalmazásokban. Az olyan támadások, amelyek vagy a modellekből való adatszerzésre, vagy a döntéseik manipulálására irányulnak, olyan fenyegetések, amelyeket amelyeket a kockázatértékelés során figyelembe kell venni. Előre betanított modellek vagy nyilvánosan elérhető adathalmazok használata a külső forrásokból származó, nyilvános vagy nyilvános forrásból származó adatok felhasználásával csökkenthető a mesterséges intelligencia-rendszerek fejlesztéséhez szükséges erőforrások száma, de ugyanakkor számos különböző támadás érintheti ezeket. Az adatkészleteket vagy modelleket rosszindulatúan is elő lehet készíteni, hogy egy adott viselkedést idézzenek elő a következők során az AI fejlesztője számára ismeretlen viselkedést idézzen elő. 

FORRÁS