Koncept AGI už tu je s námi nějakou tu dobu. Termín AGI byl nejspíše poprvé zaveden Johnem McCarthym, počítačovým vědcem, který tento termín zavedl roku 1956. V dřívějších dobách tento termín odkazoval na inteligenci, která se svou úrovní může rovnat inteligenci lidské, a která stejně jako lidé, může vykonávat téměř jakoukoli činnost. Ačkoli pojem AGI za tu dobu prošel mnohým přehodnocováním, základní myšlenka, zůstala zachována.
V současné době velké inovace v oblasti AI opět rozdmýchaly jak zájem, tak i obavy ohledně AGI konceptu. Z článku publikovaném v magazínu BigThink se ukazuje, že předpokládaný objev AGI se uskuteční kolem roku 2060.
Velké věci ale obvykle nepřichází jen tak z ničeho nic najednou. Podobně jako narozeninový dort musí podstoupit celou řadu malých procesů, než vznikne, tak i velké technologické novinky se skládají z menších technologických novinek. Malé technologické novinky ale samozřejmě nemají takovou popularitu, a proto si jich lidé často nevšímají. Z toho důvodu jsou pak velmi překvapení při vydání něčeho velkého (například ChatGPT), stejně jako při přinesení celého hotového dortu.
Z toho vychází následující ponaučení: „Nebudeme-li slepí vůči malým věcem, nepřekvapí nás pak ani ty velké.“ Což samozřejmě hraje v náš prospěch, poněvadž se můžeme připravit a přizpůsobit mnohem rychleji než naše okolí.
V tomto článku se podíváme na tzv. introspektivní umělou inteligenci, tedy inteligenci, která dokáže upravovat sama sebe a měnit své rozhraní strojového/hlubokého učení podle „svého“ uvážení ve snaze dosáhnout co nejlepších výsledků. Právě tato schopnost by mohla být teoretickým kamenem AGI, jejímž cílem je schopnost adaptovat se na nové podmínky, vykonávat různorodé činnosti a na základě zpětné vazby upravovat své vnitřní parametry.
Obrázek 1 – Midjourney: Neuronové sítě
Samostatná úprava neuronových sítí
V nové studii se ukázalo, že umělá inteligence, která má vhled do svého vnitřního fungování a dokáže upravovat svou neuronovou síť, dosahuje lepších výsledků. To ale jen za předpokladu, že AI při svých úpravách dbala na diverzitu. Výsledné různorodé neuronové sítě tak byly zvláště efektivní při řešení složitých úkolů. Pojmem „diverzita“ se v kontextu úprav vlastních neuronových sítí myslí takové úpravy, které vedou k různorodosti neuronové síti. Tato různorodost může zahrnovat:
- Různé typy neuronů s různými funkcemi.
- Různé váhy a síly spojení mezi neurony.
- Různé cesty zpracování informací v rámci sítě.
Tato diverzita pak může AI dovolit být kreativnější, adaptabilnější a flexibilnější. Zároveň je méně náchylná k předpojatostem a zkreslením.
Vhled dovnitř
„Vytvořili jsme experimentální systém založený na umělé inteligenci (AI) s cílem zjistit, zda by AI upřednostnila diverzitu před jejím nedostatkem a zda by tento výběr pozitivně ovlivnil její výkon,“ uvádí William Ditto, profesor fyziky na Severokarolínské státní univerzitě a ředitel Laboratoře nelineární umělé inteligence (NAIL) na NC State.
Jak fungují neuronové sítě?
Neuronové sítě představují pokročilou formu umělé inteligence (AI) inspirovanou funkcí lidského mozku. Zatímco naše biologické neurony komunikují prostřednictvím elektrických impulzů v závislosti na síle svých spojení, umělé neuronové sítě simulují tuto komunikaci upravováním numerických vah a zkreslení během tréninku. Jako příklad si můžeme představit neuronovou síť trénovanou na rozpoznávání fotografií psů. Prochází množstvím obrázků, odhaduje, zda je na nich pes, vyhodnocuje svou přesnost a následně upravuje své váhy a zkreslení, aby dosáhla lepších výsledků.
Pro představu neuronových sítí si zde dovolím uvést obrázek, v němž je znázorněno jejich grafické vypodobnění:
Jednotlivé kružnice zde představují tzv. uzly neboli neurony, které jsou mezi sebou propojené řadou spojení. Každé spojení má svou váhu – obecně lze říct, že čím větší váha, tím silnější vztah mezi uzly panuje. Například první uzel bude reprezentovat psa, druhý uzel, který je na ten první napojen bude mít vysokou váhu a bude představovat štěkot. Poněvadž štěkot se psem velmi souvisí, váha na tomto spojení bude velká. Pak zde ale můžeme mít třetí uzel, který je na ten první také napojen a představuje ocas. Jelikož ocas už má docela dost velké množství zvířat, nejenom pes, váha na spojení mezi prvním a třetím uzlem bude menší:
V tomto případě, když budete chtít rozeznat psa na základě písemného popisu a řeknete neuronové síti, že to „štěká“, budete mít mnohem větší šanci na úspěch, než kdybyste zadali jen obecný pojem ocas. Problém ale nastává, když si vaše neuronová síť vytvoří vztahovou předpojatost mezi psem a štěkotem. V tomto případě se nejedná o nic problematického, když poté ale dojde na otázky ohledně ras, kultur, etniky, politiky apod. vytvořené stereotypy a předpojatosti nemusí být ideální, ba naopak. Asi si pak dovedete představit, jak vám takový AI model, který má zafixovanou jasnou vztahovost mezi slovem „politika“ a „korupce, bude odpovídat.
Neuronové sítě jsou samozřejmě mnohem složitější a jejich funkce se budou lišit podle jejich druhu. Toto je pouze zjednodušený popis pro rychlou jejich hrubé funkčnosti.
Problematika identických neuronů
Tradiční AI modely využívají neuronové sítě, které se často skládají z mnoha identických umělých neuronů. Ačkoli se mohou měnit váhy a spojení mezi těmito neurony během učení, konečná optimalizovaná síť stále obsahuje tyto standardní neurony.
Oproti tomu tým vedený panem Dittem umožnil AI měnit nejen váhy spojení, ale také počet, tvar a charakteristiky jednotlivých neuronů v síti. To vedlo k vytváření pod-sítí s různými kombinacemi neuronů a spojení.
„Lidský mozek obsahuje různé typy neuronů,“ komentuje Ditto. „Proto jsme naší AI poskytli nástroje k introspekci a rozhodování o tom, jak upravit svou vlastní neuronovou strukturu. V podstatě jsme jí poskytli kontrolu nad svým ‚mozkem‘. Může tak analyzovat problém, zhodnotit výsledek a upravit svou strukturu, dokud nenalezne optimální kombinaci. Je to jakýsi nadřazený proces učení pro AI.“
Ditto dále dodává: „Naše AI měla také možnost volby mezi různorodými a standartními (stejnými) neurony. Zjistili jsme, že AI vždy upřednostnila diverzitu pro maximalizaci svého výkonu.“ Jako by i sama AI věděla, že uzamčení se v bublinách stejných názorů a informací bez otevřenosti ke změně je ve výsledku neefektivní.
Obrázek 3 – Midjourney: Neuronové sítě
Výsledky testování
Tým testoval přesnost AI tím, že ji požádal o provedení standardního číselného klasifikačního cvičení, a zjistil, že její přesnost se zvyšuje s počtem neuronů a neuronovou diverzitou. Standardní, homogenní AI mohla identifikovat čísla s přesností 57 %, zatímco meta-učící se, diverzifikovaná AI dosáhla přesnosti 70 %. Jak je vidět, umění přehodnotit a pozměnit své informace v momentě kdy vidíme, že naše informace jsou nesprávné, je naprosto klíčovou vlastností pro úspěch.
V čem je diverzita tak důležitá?
Relevanci různorodosti jsme si již zde trochu popsali. Pro ucelenost si zde ale dovolím ještě jednou zopakovat v čem spočívají výhody diverzity, a kde naopak může kolísat:
- Ochrana před přeučením: Diverzitou v architektuře můžeme zabránit tomu, aby se neuronová síť příliš „zamilovala“ do tréninkových dat a zapomněla, jak správně reagovat na nové informace. Jednoduše řečeno, různorodá struktura může rozšířit obzory sítě a zamezit jejímu zúžení na jen určitý vzorec (například politika a korupce).
- Mistr v adaptaci: Díky rozmanitosti může síť lépe reagovat na širokou škálu situací. Stejně jako člověk vybavený různými dovednostmi je schopen se přizpůsobit různým výzvám, tak diverzifikovaná neuronová síť může lépe čelit neočekávaným datovým scénářům.
- Optimální výkon pro různé úkoly: Ne všechny úkoly jsou stejné. A tak by měly být i neuronové sítě flexibilní ve své architektuře, aby se mohly přizpůsobit specifickým potřebám různých úkolů.
- Změna v čase: Spolu s postupem času dochází ke změnám. AI model, který je vzhledem k těmto změnám schopen se adaptovat a upravovat může být velmi cenný. Představte si, že byste měli operační systém, který by se samostatně v průběhu času upravoval a vylepšoval.
Obrázek 4 – Midjourney: Neuronové sítě
Potenciální rizika
- Nepředvídatelné chování: Introspektivní AI může začít upravovat svou strukturu způsoby, které jsou pro nás nesrozumitelné nebo neočekávané. To může vést k nežádoucím a náhodným výsledkům v jejích funkcích a rozhodnutích.
- Ztráta kontroly: Pokud necháme AI, aby si sama upravovala svou architekturu a funkci, může se stát, že nám, jak se říká, „unikne z rukou“. Může to komplikovat snahy o ladění, opravy nebo zasahování do její činnosti.
- Zvýšená zranitelnost: Se zvyšujícím se složitostí a autonomií introspektivní AI může narůstat také riziko jejího zneužití nebo napadení. Například, pokud by byla napadena, mohla by začít upravovat svou strukturu způsobem, který je pro útočníka výhodný.
- Zvýšené výpočetní nároky: Introspekce a seberegulace vyžadují často značné výpočetní zdroje. Toto může způsobit, že systémy budou náročnější na hardware a mohou se stát méně efektivními pro běžné aplikace.
- Komplikace v diagnostice a ladění: Tradiční modely AI můžeme snadno analyzovat a ladit. U introspektivních modelů může být diagnostika chyb a jejich následné odstraňování mnohem náročnější, protože AI sama může měnit své vnitřní parametry.
Závěr
Jak můžete vidět, v technologickém světě je málokdy něco naprosto jednoznačné. Introspektivní AI nám ukazuje, jak hluboké a komplexní mohou být inovace v oblasti AI. Zatímco nám přináší řadu vzrušujících možností, je důležité přistupovat k nim s uvážením a obezřetností.