Mesterséges intelligencia kockázatértékelési keretrendszer
A legtöbb vállalat nem rendelkezik megfelelő eszközökkel annak felmérésére, hogy mennyire sebezhetőek a mesterséges intelligencia-rendszereik és az ML-folyamataikkal szembeni fenyegetések, ezért a Microsoft kockázatértékelési keretrendszert bocsát ki. A Microsoft gépi tanulással foglalkozó csoportja közzétett egy keretrendszert, amely elmagyarázza, hogyan gyűjthetnek információkat a mesterséges intelligencia használatáról, elemezhetik biztonságuk jelenlegi állapotát, és hogyan alakíthatnak ki módszereket a fejlődés nyomon követésére. Az „AI Security Risk Assessment” című jelentés azt állítja, hogy a vállalatoknak nem lehet, és nem is kell külön eljárást létrehozniuk az mesterséges intelligencia és gépi tanulás rendszerek biztonságának értékelésére, be kell építeniük a jelenlegi biztonsági folyamatokba.