Kdo by to jen řekl? Umělá inteligence je mnohdy vnímána jako potenciální zdroj narušení etických norem, nástroj pro šíření dezinformací a diskriminace, který upřednostňuje a potlačuje různé segmenty společnosti na základě stereotypních, diskriminačních a nenávistných datech, na nichž byla systém natrénován. Ačkoli jsem tento scénář trochu nadzdvihl, není vyloučené, že se výše uvedená rizika nemohou do společnosti skrze AI promítnout. A i přesto zde máme umělou inteligenci, která má za úkol vůči těmto nemravnostem zakročit!
AI „policajt“
Výzkumníci z Ben-Gurionovy univerzity v Negevu představili průkopnický AI systém, který dokáže úspěšně identifikovat porušování sociálních norem. Systém, který využívá GPT-3, zero-shot textovou klasifikaci a automatické objevování pravidel, kategorizuje sociální emoce do deseti hlavních kategorií. Analyzuje psané situace a přesně určuje, zda se na základě poskytnutých kategorií jedná či nejedná o porušování sociálních norem.
Obrázek 1 – Midjourney
V čem je projekt tak „objevný“?
Mnozí z vás se možná ptají: „Ano, ale neměla by AI být připravena rozpoznat nemorální chování přímo při činu?“ Souhlasím, analýza sociálního chování na základě textu může být v současné době omezeně uplatnitelná. Jak se však říká, velké úspěchy nejsou dosaženy přes noc. Stejně jako programátoři nepíší celý kód na první pokus, vývojáři nových technologií také postupují krok za krokem. Klíčem ve všech odvětvích je dělení velkých cílů na menší, lépe zvládnutelné úkoly. Když tyto malé úlohy spojíte, vytvoříte něco většího a soudržnějšího. Důvod, proč se o tom zmiňuji, je ten, že tato studie a nový objev mohou poskytnout solidní základ pro další výzkumníky, kteří na tomto základě mohou stavět.
Teoretický kamerový systém
Z toho důvodu si myslím, že je dost pravděpodobné, že v následujících letech uvidíme pokročilejší kamerové technologie integrované například do veřejných míst, letištích nebo na sociální akce. Tyto systémy by mohly být schopny rozpoznat dodržování, nebo naopak nedodržování sociálních norem, díky čemuž by mohli významně přispět k navýšení bezpečnosti a snížení kriminality. Asi se ptáte, jak by AI mohla přispět k navýšení bezpečnosti tím, že bude „okukovat“ okolí?
Odpověď je velmi jednoduchá kamera, která by byla schopná zaznamenat nevhodné chování (například vytáhnutí zbraně nebo násilný incident) by také mohla automaticky upozornit policii, která by mohla bezprostředně zasáhnout. Navíc, sofistikovaný kamerový systém by mohl dokonce předpovědět kriminální chování podle pohybu a chování jednotlivce. Tato technologie by díky těmto prediktivním schopnostem mohla být následně využita i v obchodním sektoru k detekci potenciálních zlodějů.
Obava o soukromí
Někteří z Vás možná napadne, zda by takový kamerový systém nezasahoval příliš do soukromí, nebo zdali by neskrýval riziko diskriminace určitých etnik či vytváření stereotypů vůči různým skupinám lidí. Toto jsou oprávněné obavy a aktuálně velmi diskutované téma. U takových kamerových systémů by musel být implementován mechanismus, který by automaticky mazal záznamy po určité době (například po jednom dni) a poskytoval k nim přístup bezpečnostním službám pouze v případě, že by byly porušeny sociální normy. Chtěl bych zde nicméně upozornit, že se jedná se pouze o mou myšlenkovou teorii.
Obrázek 2 – Midjourney
Co to ale sociální normy vlastně jsou?
Sociální normy jsou nepsaná pravidla chování, která jsou v dané společnosti nebo skupině považována za přijatelná nebo očekávaná. Tyto normy mohou ovlivňovat širokou škálu chování, od základních zdvořilostních konvencí, jako je „pozdravit se“, až po závažnější otázky, jako je dodržování zákonů.
Sociální normy mohou být formální nebo neformální. Formální normy jsou často kodifikovány v zákonech nebo pravidlech a mohou být vynuceny sankcemi nebo tresty. Neformální normy jsou obecně nepsané a mohou být vynuceny sociálními sankcemi, jako je odsouzení nebo vyloučení.
Sociální normy mohou zahrnovat:
- Etiketa: Normy týkající se zdvořilosti a slušnosti, jako je čekání ve frontě, neříkání urážlivých věcí nebo držení dveří pro někoho, kdo je za vámi.
- Zákony: Normy, které jsou kodifikovány v zákonech, jako je zákaz krádeže nebo vraždy.
- Morální normy: Normy týkající se toho, co je považováno za správné nebo špatné, jako je pravdivost, spravedlnost nebo laskavost.
- Sociální konvence: Normy týkající se očekávaného chování v určitých situacích, jako je ticho v knihovně nebo oblečení vhodné pro určité události.
Je důležité poznamenat, že sociální normy se mohou lišit v závislosti na kultuře, společnosti, skupině nebo dokonce jednotlivci. Co je považováno za normální v jedné kultuře nebo společnosti, nemusí být považováno za normální v jiné. Je také samozřejmé, že ne všechny sociální normy budou hodnoceny umělou inteligencí.
Průlom v porozumění jazykovým bariérám
Od brouzdání vlny budoucnosti se na chvíli zase vraťme k našemu objevu. AI systém, který se zaměřuje na detekci sociálních norem, využívá deset kategorií sociálních emocí k rozpoznání jejich porušení. Aby ověřil svoji efektivitu, byl testován na dvou rozsáhlých datasetech obsahujících krátké texty, čímž potvrdil schopnost svých prediktivních modelů. Tato pilotní studie, financovaná organizací DARPA, představuje značný pokrok v oblasti mezikulturního porozumění a situačního uvědomění.
Vytvoření tohoto systému si na svůj účet může připsat profesor Yair Neuman a inženýr Yochai Cohen, kteří ho založili na principu GPT-3, zero-shot textové klasifikace a automatickém objevování pravidel. Systém používá deset typů sociálních emocí jako základ pro svou kategorizaci. Pro každou emoci provádí takzvanou binární klasifikaci, což znamená, že určuje, zda daný kus informací (v tomto případě textová data) emoci vyjadřují či nikoli. Pro každou emoci tak může být vyhotovena řada parametrů. Hněv bychom tak mohli hodnotit následovně:
- Má osoba svraštělé obočí?
- Má osoba přimhouřené oči či naopak velmi rozšířené oči?
- Má osoba semknuté úzké rty?
- Má osoba zatnutou čelist?
- Má osoba povysunutou dolní čelist?
- Je u osoby znatelná kontrakce lící (tváří)?
Každá otázka by se pak podle binární klasifikace hodnotila stylem „ano“, „ne“.
„Program Computational Cultural Understanding (CCU), jehož vznik iniciovala DARPA, se zaměřuje na vytváření technologií pro mezikulturní porozumění s cílem zlepšit situační uvědomění a interakční efektivitu operátorů v rámci Ministerstva obrany.
Emoce jako klíč k porozumění
Profesor Neuman a jeho inženýr trénovali systém na identifikaci deseti sociálních emocí: kompetence, zdvořilosti, důvěry, disciplíny, péče, přívětivosti, úspěchu, konformity, slušnosti a loajality. Systém úspěšně charakterizoval psanou situaci pod jednou z těchto deseti klasifikátorů a dokázal vnímat, zda byla pozitivní nebo negativní.
„Systém byl testován na dvou velkých datasetech krátkých textů a empiricky prokázal platnost modelů. Toto je předběžná práce, ale poskytuje silné důkazy, že náš přístup míří správným směrem a v dohledné době bude moci být rozšíření na více sociálních norem,“ říká profesor Yair Neuman, vedoucí Functor Labu v oddělení kognitivních a mozkových věd na BGU.
Obrázek 3 – Midjourney
Umělá inteligence se stává stále více přítomnou v našem každodenním životě, a spolu s ní přicházejí i nové výzvy, a to zejména v oblasti sociálních norem a morálních hodnot. Je naprosto klíčové tyto výzvy nepodceňovat, ale naopak, přistupovat k nim otevřeně a s respektem, tak abychom maximalizovali přínosy, které nám AI může přinést, ale zároveň minimalizovali potenciální rizika, které v souladu s touto novou technologií mohou vyrůst.
Je proto třeba vytvářet AI systémy, které budou nejenom respektovat etické standardy, ale budou ve společnosti akceptovány jako něco, co jim zajistí větší bezpečnost a kvalitu života. Mají-li uživatelé technologiím důvěřovat, je třeba vůči nim jednat transparentně a odpovědně.