Deepfake vezetői csalások

Editors' Pick

Az FBI figyelmeztetést adott ki egy új, mesterséges intelligenciát (AI) alkalmazó csalási kampány kapcsán, amely során kiberbűnözők magas rangú amerikai tisztviselők nevében küldenek hamis üzeneteket és hangüzeneteket. A támadók célja, hogy hozzáférést szerezzenek jelenlegi és korábbi szövetségi vagy állami kormányzati tisztviselők, valamint kapcsolataik személyes fiókjaihoz.

A támadók először kapcsolatot létesítenek az áldozatokkal, majd arra kérik őket, hogy váltsanak át egy másik üzenetküldő platformra, amelyet a támadók irányítanak. Ezeken a platformokon keresztül próbálnak meg hitelesítő adatokat, például felhasználóneveket és jelszavakat megszerezni. A megszerzett fiókokat ezután további tisztviselők vagy kapcsolataik elérésére, érzékeny információk vagy pénz megszerzésére használhatják fel.

A kampány során alkalmazott technikák közé tartozik a smishing (SMS-alapú adathalászat) és a vishing (hangalapú adathalászat), utóbbi esetben AI által generált hangüzeneteket használnak, amelyek megtévesztően hasonlítanak ismert közszereplők vagy személyes ismerősök hangjára. A támadók gyakran nyilvánosan elérhető hanganyagokat, például beszédeket használnak fel az AI-modellek betanításához, így akár néhány percnyi hangfelvétel is elegendő lehet egy élethű hangklón létrehozásához.

Az FBI korábban, 2024 decemberében már figyelmeztetett az AI által generált szövegek, képek, hangok és videók bűncselekményekben való felhasználásának növekvő veszélyére, különösen csalás és zsarolás céljából. A mostani kampány azonban új szintre emeli a fenyegetést, mivel közvetlenül célozza meg a kormányzati tisztviselőket és kapcsolataikat.

Az FBI arra kéri a nyilvánosságot, hogy ne fogadják el automatikusan hitelesnek az olyan üzeneteket, amelyek magas rangú amerikai tisztviselők nevében érkeznek. Javasolják, hogy mindig ellenőrizzék a hívó vagy az üzenetküldő személyazonosságát, például a telefonszám, az e-mail-cím vagy a szervezet ellenőrzésével, valamint figyeljenek a hang- vagy képfelvételek esetleges hibáira, amelyek deepfake technológiára utalhatnak.

FORRÁS