Na rozdíl od potravin, léků a automobilů jsme se v USA zatím nedočkali jasných předpisů nebo zákonů, kterými by se návrh umělé inteligence řídil. Bez standardních pokynů se společnosti, které navrhují a vyvíjejí modely ML, v minulosti řídily vlastním vnímáním toho, co je správné a co ne.
To se brzy změní.
S tím, jak EU dokončuje svůj zákon o umělé inteligenci a generativní umělá inteligence se nadále rychle vyvíjí, uvidíme, jak se regulační prostředí umělé inteligence posune od obecných, navrhovaných rámců k trvalejším zákonům.
Zákon EU o umělé inteligenci podnítil významné rozhovory mezi vedoucími představiteli podniků: Jak se můžeme připravit na přísnější regulaci umělé inteligence? Měl bych proaktivně navrhovat umělou inteligenci, která toto kritérium splňuje? Za jak dlouho bude podobná regulace přijata v USA?
Čtěte dále, abyste lépe porozuměli tomu, jak může regulace AI pro firmy v blízké budoucnosti vypadat.
Jak zákon EU o AI ovlivní vaše podnikání
Stejně jako obecné nařízení EU o ochraně osobních údajů (GDPR) vydané v roce 2018 se očekává, že se zákon EU o AI stane globálním standardem pro regulaci AI. Parlament má o návrhu hlasovat do konce března 2023, a pokud bude tento časový plán dodržen, mohl by být konečný akt o AI přijat do konce roku.
Je vysoce pravděpodobné, že účinky zákona o umělé inteligenci budou citelné i za hranicemi EU (čtěte: bruselský efekt), přestože se jedná o evropskou regulaci. Organizace působící v mezinárodním měřítku se budou muset legislativě přímo podřídit. Mezitím si americké a další nezávisle řízené společnosti rychle uvědomí, že je v jejich nejlepším zájmu se tomuto nařízení podřídit.
Začínáme to pozorovat již u jiných podobných právních předpisů, jako je kanadský návrh zákona o umělé inteligenci a datech a newyorská regulace automatizovaného zaměstnávání.
Kategorie rizik ze strany umělé inteligence
Podle zákona o umělé inteligenci budou systémy umělé inteligence organizací zařazeny do tří rizikových kategorií, z nichž každá bude mít vlastní soubor pokynů a důsledků.
- Nepřijatelné riziko. Systémy AI, které splňují tuto úroveň, budou zakázány. Patří sem manipulativní systémy, které způsobují škodu, biometrické identifikační systémy v reálném čase používané ve veřejném prostoru pro vymáhání práva a všechny formy sociálního bodování.
- Vysoké riziko. Tyto systémy AI zahrnují nástroje, jako jsou modely skenování uchazečů o zaměstnání, a budou podléhat zvláštním právním požadavkům.
- Omezené a minimální riziko. Tato kategorie zahrnuje mnoho aplikací umělé inteligence, které dnes podniky používají, včetně chatbotů a nástrojů pro správu zásob poháněných umělou inteligencí, a bude z velké části ponechána bez regulace. Aplikace s omezeným rizikem zaměřené na zákazníky však budou vyžadovat zveřejnění informace o tom, že se AI používá.
Vzhledem k tomu, že zákon o AI je stále ve fázi návrhu a jeho globální dopady se teprve určí, nemůžeme s jistotou říci, jak bude regulace pro organizace vypadat. Víme však, že se bude lišit v závislosti na odvětví, typu navrhovaného modelu a kategorii rizik, do které spadá.
Regulace bude pravděpodobně zahrnovat kontrolu třetí stranou, při níž bude váš model podroben zátěžovým testům na populaci, které se snažíte sloužit. Při těchto testech se budou hodnotit otázky jako „Funguje model v rámci přijatelných mezí chyb?“ a „Zveřejňujete povahu a použití vašeho modelu? ‚
Pro organizace s vysoce rizikovými systémy umělé inteligence již zákon o umělé inteligenci stanovil několik požadavků:
- Zavedení systému řízení rizik
- Správa a řízení dat
- Technická dokumentace
- Vedení záznamů a protokolování
- Transparentnost a poskytování informací uživatelům
- Lidský dohled
- Přesnost, robustnost a kybernetická bezpečnost
- Posuzování shody.
Registrace u vlády členského státu EU. - Systém monitorování po uvedení na trh.
- Můžeme také očekávat, že pravidelné testování spolehlivosti modelů (podobně jako elektronické kontroly automobilů) se stane rozšířenější službou v odvětví AI.
Jak se připravit na předpisy týkající se AI
Mnoho vedoucích pracovníků v oblasti umělé inteligence již při navrhování a vývoji ML modelů upřednostňuje důvěru a snižování rizik. Čím dříve přijmete regulaci AI jako naši novou realitu, tím úspěšnější budete v budoucnu.
Zde je jen několik kroků, které mohou firmy podniknout, aby se připravily na přísnější regulaci AI:
- Prozkoumejte a vzdělávejte své týmy o typech regulace, které budou existovat, a o tom, jak ovlivňují vaši společnost dnes i v budoucnu.
- Proveďte audit svých stávajících a plánovaných modelů. Které kategorii rizik odpovídají a které související regulace na vás budou mít největší dopad?
- Promyslete si strategii zmírňování rizik spojených s AI. Jak se vztahuje na stávající modely a na modely navržené v budoucnu? S jakými neočekávanými kroky byste měli počítat?
- Vytvořte strategii správy a vykazování AI, která zajistí několikanásobnou kontrolu před spuštěním nového nástroje.
- Ve světle zákona o umělé inteligenci a nevyhnutelné budoucí regulace již není etický a férový přístup k umělé inteligenci jen něčím, co byste mít měli – ale spíše něčím, co mít musíte. Jak se může vaše firma připravit na takovou fundamentální změnu?