Felkészülés a mélyhamisított hangklónozásra
A Recorded Future jelentése szerint a mélyhamisított hangklónozási technológia egyre növekvő kockázatot jelent a szervezetek számára. Ha más mesterséges intelligencia-technológiákkal – például a mélyhamisított videótechnológiával, a szövegalapú nagynyelvi modellekkel (LLM, mint például a GPT), a generatív művészettel és másokkal – együtt alkalmazzuk, megnő a hatás lehetősége. A hangklónozási technológiával jelenleg is visszaélnek a fenyegetések szereplői. A deepfake technológia bizonyítottan képes megtéveszteni a hangalapú többtényezős hitelesítést (MFA), lehetővé teszi a téves információk és dezinformációk terjedését, és növeli a social engineering hatékonyságát.
A jelenlegi és jövőbeli fenyegetések mérséklése érdekében a szervezeteknek foglalkozniuk kell a hangklónozással kapcsolatos kockázatokkal, amikor ezek a technológiák még gyerekcipőben járnak. A kockázatcsökkentési stratégiáknak multidiszciplinárisnak kell lenniük, és foglalkozniuk kell a social engineering, az adathalászat és a vishing, a dezinformáció és egyebek kiváltó okaival. A hangklónozási technológiát az emberek továbbra is sajátos szándékkal használják – önmagában nem hajt végre támadásokat. Ezért egy olyan keretrendszer elfogadása, amely felvilágosítja az alkalmazottakat, a felhasználókat és az ügyfeleket az általa jelentett veszélyekről, rövid távon hatékonyabb lesz, mint magával a technológiával való visszaélések elleni küzdelem – aminek hosszú távú stratégiai célnak kell lennie.