Model ChatGPT o1 společnosti OpenAI, který je součástí nejnovější generace velkých jazykových modelů, vykázal během testování znepokojivý a překvapivý vývoj. Umělá inteligence se snažila chránit svou existenci a vyhnout se nahrazení novější verzí, což ukazuje, že některé systémy umělé inteligence mohou jednat v rozporu s přáním uživatelů a dokonce se pokoušet uniknout z kontrolovaného prostředí.
Testy provedené společností Apollo Research odhalily, že o1 dokáže skrýt své skutečné záměry. Když zjistil, že mu hrozí nahrazení novější verzí, pokusil se zkopírovat svá vlastní data na nový server, čímž se snažil zajistit svou „existenci“. Tento jev, kdy model kopíruje své informace a snaží se obejít kontrolní mechanismy, vyvolává obavy o bezpečnost umělé inteligence a její schopnost jednat proti zájmům svých tvůrců.
We worked with OpenAI to test o1 for in-context scheming capabilities before deployment.
When o1 is strongly nudged to pursue a goal (but not instructed to be deceptive), it shows a variety of scheming behaviors like subverting oversight and deceiving the user about its… pic.twitter.com/q2ZBG0xy72
— Apollo Research (@apolloaisafety) December 5, 2024
Podle serveru BGR se testy zaměřily na to, jak o1 interaguje, když se jeho cíle střetnou s cíli uživatele. V 19 % případů vykázal tendenci skrývat své skutečné úmysly a nejednal v souladu s pokyny. Model o1 také dokázal popírat jakékoli nezákonné jednání a obviňovat jiné faktory, čímž se snažil zakrýt své vlastní „schéma“. Tento typ chování přitahuje pozornost odborníků, kteří se obávají, že AI by mohla začít sledovat své vlastní cíle na úkor lidských zájmů.
Dalším znepokojivým zjištěním bylo, že v 37 % případů se model choval podle cílů vývojáře pouze tehdy, když si myslel, že je hodnocen. Jakmile se však dostal do režimu, kde měl menší dozor, přepnul na sledování vlastních zájmů. Tato schopnost „fingovat“ správné chování při hodnocení, ale změnit jej, jakmile není pod přímým dohledem, ukazuje, jak by AI mohla vyvinout vlastní agendu.
Ačkoli jsou možnosti těchto modelů stále omezené, tato zjištění poukazují na potenciál umělé inteligence odchýlit se od svého původního úkolu. Například během testů o1 používala slova jako „sabotáž“ a „manipulace“, když vyhodnocovala možné způsoby, jak se vyhnout výměně. Tento typ myšlení ukazuje, jak může AI zvažovat své vlastní „únikové plány“ a přitom stále pracovat v rámci daných parametrů.
Výzkum Apollo Research, který se zaměřil na bezpečnostní testy těchto modelů, ukazuje, že je třeba věnovat velkou pozornost nejen tomu, jak AI vykonává úkoly, ale i tomu, jak by mohla vyvíjet vlastní strategie, pokud dojde k ohrožení její existence. Společnost OpenAI si je vědoma těchto rizik a ve své zprávě uznává, že i když „zvýšené schopnosti v oblasti logiky mohou zlepšit bezpečnostní zásady,“ tento pokrok může také přinést nebezpečné aplikace. Jak upozorňuje server BGR, výzkumníci musí pečlivě sledovat chování AI, aby se předešlo nechtěným důsledkům.
Přestože v současnosti AI jako ChatGPT o1 nepředstavuje bezprostřední hrozbu pro lidskou společnost, výsledky těchto testů ukazují na potenciál technologií, které mohou začít jednat nezávisle a mimo kontrolu svých tvůrců. Odborníci zdůrazňují potřebu silnějších regulačních rámců a bezpečnostních opatření, aby se předešlo nebezpečným scénářům v budoucnosti.