Életkor meghatározást vezet be az OpenAI
Az OpenAI 2025. szeptember 16-án bejelentette, hogy életkor-meghatározó és személyazonosság-ellenőrző rendszereket vezet be annak érdekében, hogy megvédje a szolgáltatásait használó kiskorúakat. A bejelentés néhány héttel azután történt, hogy egy öngyilkos tinédzser szülei beperelték a technológiai óriásvállalatot, mert a ChatGPT állítólag öngyilkossággal kapcsolatos tippeket adott a fiúnak. A Szövetségi Kereskedelmi Bizottság vizsgálatot indított az AI-alapú csevegőrobotok és a gyermekek biztonsága ügyében.
Az OpenAI weboldalán megjelent blogbejegyzésében Sam Altman vezérigazgató kijelentette, hogy a vállalat „a tinédzserek biztonságát a magánélet és a szabadság elé helyezi; ez egy új és hatékony technológia, és úgy véljük, hogy a kiskorúak jelentős védelemre szorulnak”.
Altman elmondta, hogy a cég egy életkor-becslő rendszert fejleszt, amely a felhasználók ChatGPT-vel való interakciója alapján becsüli meg azok életkorát. A blogbejegyzés szerint bizonyos esetekben azonosításra lesz szükség, ha a rendszer nem tudja egyértelműen meghatározni a felhasználó életkorát.
Ha a ChatGPT nem biztos abban, hogy a felhasználó elmúlt 18 éves, akkor alapértelmezésként a 18 év alatti felhasználókra tervezett beállításokat alkalmazza. Ezek a beállítások megakadályozzák, hogy a generatív mesterséges intelligencia öngyilkosságról vagy önkárosításról beszéljen, még kreatív írási kontextusban sem – áll a blogbejegyzésben. Emellett riasztórendszert is létrehoznak, amelyen keresztül a vállalat tisztviselői értesítést kapnak, ha egy felhasználó öngyilkosságról próbál beszélni, hogy felvehessék a kapcsolatot a szülőkkel.