
Image generated with OpenAI
Názor: AI modely jsou záhadné „bytosti“ a dokonce ani jejich tvůrci je plně nerozumí
Poslední studie společnosti Anthropic o fungování jejího modelu Claude 3.5 Haiku slibuje průlomové odhalení a jiskru vhledu do pochopení, jak fungují pokročilé technologie AI. Ale co tím myslí, když říkají, že LLM jsou „živé organismy“, které „myslí“?
Před několika dny Anthropic vydala dvě studie s průlomovým výzkumem o fungování Velkých jazykových modelů (LLM). Zatímco technické vývoje byly zajímavé a relevantní, to, co mi nejvíce upoutalo pozornost, byla slovní zásoba použitá odborníky na AI.
Ve studii O biologii velkých jazykových modelů, se výzkumníci srovnávali s biology, kteří studují složité „živé organismy“, které se vyvíjely miliardy let.
„Podobně, i když jazykové modely jsou generovány jednoduchými, lidsky navrženými tréninkovými algoritmy, mechanismy vzniklé z těchto algoritmů se zdají být velmi složité,“ napsali vědci.
V posledních letech se modely umělé inteligence výrazně vyvinuly. A my jsme byli svědky jejich rychlé evoluce v posledních několika měsících. Viděli jsme, jak se ChatGPT proměnil z modelu pouze pro text v mluvícího společníka a nyní v mnohorozměrného agenta, který dokáže generovat ohromující obrázky ve stylu Studio Ghibli.
Ale co když současné modely umělé inteligence dosahují té úrovně sci-fi, kdy vyvíjejí tak pokročilé logické myšlení, že ani jejich tvůrci nerozumí jejich procesům a systémům? Existuje mnoho záhad kolem technologií umělé inteligence, které by bylo možná dobré znovu prozkoumat – nebo se do nich ponořit – v roce 2025.
Strapadla tajemství modelů umělé inteligence
Existuje mnoho diskusí o přijetí AI a o AI gramotnosti a o tom, jak ti, kteří rozumějí, jak fungují generativní AI modely, jsou méně pravděpodobně považovat chatboty za své „přátele“ nebo „magické“ aplikace. Nicméně, existuje další debata – mezi odborníky a lidmi, kteří jsou se technologií více obeznámeni – o tom, zda srovnávat nebo považovat LLM za nezávislé tvorby. Co se týče tohoto druhého bodu, existuje speciální přísada, tajemství známé jako „paradox černé skříňky AI“, které hraje v diskusi klíčovou roli.
Systémy hlubokého učení jsou trénovány k rozpoznávání prvků a trendů podobným způsobem, jakým to dělají lidé. Stejně jako učíme děti rozpoznávat vzory a přiřazovat specifická slova k různým objektům, LLM byly trénovány na vytváření jedinečných spojení a budování sítí, které se stávají stále složitějšími, jak „rostou“.
Samir Rawashdeh, docent elektrotechniky a informatiky, se specializuje na umělou inteligenci a vysvětluje, že stejně jako v případě studia lidské inteligence, je téměř nemožné skutečně vidět, jak systémy hlubokého učení rozhodují a dospívají k závěrům. To je to, co odborníci nazývají „problémem černé skříňky“.
Výzva AI modelů lidskému porozumění
Nedávná studie společnosti Anthropic přinesla světlo na situaci s AI černou skříňkou tím, že vysvětlila, jak její model „přemýšlí“ v určitých scénářích, které byly dříve nejasné nebo dokonce zcela špatné. I když je studie založena na modelu Claude 3.5 Haiku, umožňuje to odborníkům vyvíjet nástroje a analyzovat podobné charakteristiky na jiných modelech AI.
„Porozumění povaze této inteligence je hlubokou vědeckou výzvou, která má potenciál přeformulovat naše pojetí toho, co znamená ‚myslet‘,“ uvádí studie sdílená výzkumníky z Anthropicu.
Nicméně termín „myslet“, přiřazený k technologiím AI, rozčiluje některé odborníky v průmyslu a je součástí kritiky tohoto vyšetřování. Uživatel Redditu vysvětlil, proč toto některým lidem vadí: „V celém článku je mnoho antropomorfizace, která zastírá skutečnou práci. Například neustále používá slovo ‚myslet‘, když by mělo říkat ‚vypočítat‘. Mluvíme o počítačovém softwaru, ne o biologickém mozku.“
Zatímco „zlidštěné“ termíny pomáhají nelaickým lidem lépe rozumět modelům AI a vyvolávají debatu v komunitě, pravda je, že ať už říkáme „vypočítat“ nebo „přemýšlet“, stejná výzva zůstává: nemáme plné porozumění ani úplnou transparentnost o tom, jak LLMs fungují.
Co očekávat od pokročilých modelů AI v blízké budoucnosti
Dokážete si představit, že byste ignorovali existenci pokročilých technologií AI jako je ChatGPT, DeepSeek, Perplexity nebo Claude – nyní nebo v blízké budoucnosti? Všechny znaky ukazují na to, že není cesty zpět. Generativní a důvodová AI již transformovala náš každodenní život a budou se pouze dále vyvíjet.
Téměř každý den v WizCase hlásíme nový vývoj v oboru – nový model AI, nový nástroj AI, novou společnost AI – který má potenciál výrazně ovlivnit naši společnost. Představa o tom, že bychom si dali pauzu, abychom lépe pochopili tyto pokročilé modely a jejich fungování – nebo dokonce zpomalili – se zdá nemožná, vzhledem k rychlému tempu závodu AI a zapojení vlád a nejmocnějších společností světa.
„Modely AI mají stále větší vliv na to, jak žijeme a pracujeme, musíme je dostatečně rozumět, aby jejich dopad byl pozitivní,“ uvádí se v dokumentu společnosti Anthropic. I když to může znít trochu nereálně, výzkumníci zůstávají optimističtí: „Věříme, že naše zde prezentované výsledky a směr pokroku, na kterém jsou postaveny, jsou vzrušujícím důkazem, že můžeme čelit této výzvě.“
Ale jak rychle se mohou tyto objevy skutečně pohybovat? Studie rovněž upozorňuje, že výsledky pokrývají jen několik oblastí a konkrétní případy a že není možné formulovat obecnější závěry. Takže pravděpodobně ne dostatečně rychle.
Zatímco regulátoři zavádějí opatření, jako je Evropský akt o umělé inteligenci (EU AI Act), aby vyžadovali větší transparentnost, čímž vytvářejí obvinění a stížnosti ze strany velkých technologických firem za údajné zpomalení pokroku, silné modely AI pokračují v pokroku.
Jako společnost se musíme snažit najít rovnováhu mezi prohlubováním našeho porozumění tomu, jak tyto technologie fungují, a jejich přijetím způsobem, který přináší našim komunitám smysluplné výhody a pokrok. Je to možné? Nápad jen tak se modlit nebo doufat, že tyto „bytosti“ zůstanou „etické“ a „dobré“, právě teď nezní tak nerealisticky.
Zanechat komentář
Zrušit