AI generált jelszavak biztonsága

Editors' Pick

A mesterséges intelligenciával, így például ChatGPT-vel generált jelszavak nem feltétlenül biztonságosak, ha azokat szó szerint használjuk fel védelmi célokra. Az Irregular szerint az AI-modellek ugyan képesek látszólag komplex, véletlenszerű jelszó-mintákat előállítani, de ezek nem garantáltan statisztikailag véletlenszerűek, és vissza lehet követni vagy modellezni őket adott tanulási mintákból. Ez azt jelenti, hogy ha valaki egy testreszabott prompttal adja meg a ChatGPT-nek, hogy adj egy erős jelszót, a generált kimenet sokszor nem olyan erős, mint egy kriptográfiailag véletlenszerű generátorral létrehozott jelszó, és a támadók számára, akik ismerhetik a használt promptot vagy modellel való mintázatot, nagyobb valószínűséggel lehet feltörni vagy kitalálni az ilyen jelszavakat.

A valóban erős jelszavak létrehozásához kriptográfiailag megbízható véletlenszám-generátorok szükségesek, olyanak, amelyeket modern operációs rendszerek vagy jelszókezelők használnak, és nem elég pusztán MI-alapú szöveg-outputot használni. Egy AI-modell ugyanis nyelvi minták alapján működik, és még ha a kimenet karakterei között látszólag sokféle is szerepel, az nem feltétlenül felel meg az igazán nagy entrópiájú, véletlenszerű jelszavak kritériumainak a kiberbiztonsági gyakorlatban.

Ez a különbség különösen fontossá válik olyan környezetben, ahol magas szintű hitelesítés-biztonság és adatszivárgás elleni védelem szükséges, például banki fiókok, vállalati belső rendszerek vagy kriptotárcák esetén, mert a gyenge vagy modellezhető jelszavak jelentősen növelik a támadási felületet és csökkentik a hozzáférés-védelmi mechanizmusok hatékonyságát. A szerzők ezért azt tanácsolják, hogy a felhasználók ne az AI-javaslatokat használják elsődlegesen jelszógenerálásra, hanem erre a célra dedikált, kriptográfiailag megalapozott eszközöket és gyakorlatokat alkalmazzanak a jelszókezelés és hálózati biztonság erősítésére.

FORRÁS