Veszélyes áttörés vezethetett az OpenAI vezetőjének kirúgásához

A világ még mindig találgatja, mi állhatott pontosan az OpenAI-nál napokon át tartó káoszhoz, még úgy is, hogy biztost választ vélhetően soha nem fogunk kapni. Kettő, az ügyet ismerő személy azonban egy eddig nem ismert részletet árult el a Reutersnek.

Mint mondták, Sam Altman vezérigazgató elbocsátásához egy mesterséges intelligencia fejlesztésével kapcsolatos áttörés járulhatott hozzá. Az információk szerint a szappanopera kirobbanása előtt a cég több kutatója levelet írt az igazgatótanácsnak, amelyben egy hatalmas, mesterséges intelligenciával kapcsolatos felfedezésre figyelmeztettek, amely szerintük veszélyt jelenthet az emberiségre.

Az érintettek szerint a levél csak az egyik érv volt az Altman kirúgásához vezető hosszú felsorolásban. A listában az is helyet kapott, hogy az OpenAI többször is azelőtt tett nyilvánossá fejlesztéseket, mielőtt megvizsgálták volna, hogy az milyen következményekkel járhat.

A cégnek nem méltatta válaszra a lapot, azonban egy belső üzenetben elismerte a rejtélyes Q* nevű projekt létezését és az igazgatótanácsnak írt levél létezését sem tagadták.

A cég munkatársai közül néhányan úgy vélik, hogy a Q* áttörést jelenthet a mesterséges általános intelligencia (AGI) fejlesztésében. A szivárogtatások szerint a modell komoly eredményeket ért el a különösen problémásnak számító matematikai problémamegoldás terén.

Hatalmas számítási erőforrások mellett az új modell képes volt bizonyos matematikai problémák megoldására. Bár a képességeit egyelőre nem tartják túl magasnak, a tesztek teljesítése nagyon optimistává tette a kutatókat a Q* jövőbeli sikereit illetően

— mondta egy névtelen megszólaló. Az OpenAI egyébként egy olyan autonóm rendszerként definiálja az AGI-t, amely a legtöbb gazdaságilag releváns feladatban felülmúlja az embert. Azt, hogy az OpenAI ezt már az idei évben elérheti, korábban is jelezte egy megbízható szakértő.

Borítókép: MATEUSZ SLODKOWSKI/SOPA IMAGES/LIGHTROCKET VIA GETTY IMAGES

Forrás: 24.hu