Microsoft Purview Insider Risk Management 

Editors' Pick

A Microsoft a Microsoft Purview Insider Risk Management rendszerben új funkciót vezet be, amely lehetővé teszi, hogy a megfelelőségi és belső kockázat elemzők megtekintsék a felhasználók AI-interakcióit, a promptokat és az AI-válaszokat , még akkor is, ha a rendszerben a felhasználók alapértelmezés szerint pszeudonimizáltak. 

A Microsoft 365 Message Center MC1304292 bejegyzése szerint az új képesség célja az AI-alapú insider risk események jobb vizsgálata. Az elemzők láthatják a kockázatos AI használat eseményekhez kapcsolódó promptokat és válaszokat, például érzékeny adatok AI-ba történő bevitelét, adatkiáramlást, policy-sértést vagy potenciális prompt injection aktivitást. A felhasználók identitása továbbra is maszkolt marad, amíg egy megfelelő jogosultságú analyst explicit deanonymization műveletet nem hajt végre. 

A rendszer a Microsoft Purview DSPM for AI (Data Security Posture Management for AI) és Insider Risk Management komponenseire épül, amelyek már jelenleg is képesek monitorozni a Copilot, ChatGPT Enterprise, Gemini és más generatív AI platformok használatát vállalati környezetben. A platform auditálja a promptokat, válaszokat, érzékeny adatmozgásokat és AI-használati mintázatokat. 

A funkció technikai és adatvédelmi szempontból azért váltott ki figyelmet, mert a pszeudonimizáció ellenére a rendszer gyakorlatilag lehetőséget ad a vállalati AI-használat visszakövetésére konkrét felhasználókhoz. A Microsoft szerint ugyanakkor a deanonymizáció csak role-based access kontroll mellett történhet, minden hozzáférést audit log rögzít, és a funkciót kifejezetten compliance, insider threat és adatvédelmi vizsgálatok támogatására tervezték. 

A generatív AI rendszerek használata egyre inkább teljes körű compliance- és biztonsági monitoring alá kerül, különösen olyan környezetekben, ahol a promptok üzleti, pénzügyi vagy szellemi tulajdont érintő adatokat tartalmazhatnak.

FORRÁS