20. duben 2021 / Jan Klesla
EU chce tvrdě zregulovat umělou inteligenci. Doplatit na to mohou startupy
Návrh nového evropského nařízení jde mnohem dál, než se čekalo. Z umělé inteligence dělá nebezpečnou technologii, kterou svazuje složitými pravidly a drahými povinnostmi.
Pokud se to hýbe, zdaň to. Když se to stále hýbe, reguluj to. A když se to přestane hýbat, dotuj to. Slavný výrok amerického prezidenta Ronalda Reagana si nejspíš vzal k srdci evropský komisař pro digitální agendu Thierry Breton. Bohužel bez původně zamýšlené ironie. Alespoň tak vypadá návrh nových pravidel pro umělou inteligenci (AI), který se svými lidmi připravil. Mají být představena ve středu 21. dubna a na veřejnost unikla minulý týden. Pokud ale regulace AI projde tak, jak je navržena, nebude už moc co danit a žádné dotace to už zpět nerozpohybují.
Návrh evropské právní úpravy umělé inteligence tady není poprvé, potichu se objevil už v létě roku 2019. A stejně potichu zase zmizel. Příkazy, zákazy a zřizování nového dohledového úřadu nepřišly jako dobrý nápad tehdejší Evropské komisi pod vedením Jeana-Clauda Junckera, která se snažila hlavně podporovat rozvoj a investice a budování evropského AI ekosystému, který jsme popisovali v minulém článku.
Nová komise v čele s Ursulou von der Leyen a francouzským superkomisařem Bretonem ale zcela otočila kurz. Ke všem technologiím označovaným jako umělá inteligence se začala stavět jako k něčemu apriori nebezpečnému, ohrožujícímu lidi, jejich zdraví a bezpečnost, a ne jako k příležitosti pro hospodářský skok kupředu. Namísto podpory se najednou stalo prioritou svázat AI přísnými pravidly. A podle toho to také dopadlo.
Kdo se bojí AI?
U každého nového předpisu je potřeba se nejprve ptát proč. V tomto případě se Evropská komise zaklíná ochranou základních práv, nechce dovolit, aby se algoritmy zneužívaly pro sledování, kádrování a šikanování lidí jako například v Číně. Nebo třeba aby ubližovaly chybou, jako se to stalo v USA či ve Velké Británii. Evropské heslo zní, že AI má být důvěryhodná a bezpečná. Potud vše v pořádku. Háček je v tom, že my už v EU přísnou regulaci umělé inteligence dávno máme.
Euroúředníci staví návrh regulace na seznamu negativních případů, které se paradoxně nestaly v EU – a díky platné legislativě se tu ani stát nemohou. Sledování lidí a sociální scoring je, stejně jako pronásledování Ujgurů, případ z komunistické Číny a u nás by samozřejmě neprošel nejen přes přísná pravidla ochrany soukromí v čele s GDPR, ale ani přes takzvanou Chartu základních práv EU. Přes zákazy diskriminace v ní zdůrazněné by neprošly ani další údajné důvody pro nové nařízení.
Zneužívání AI k rasové diskriminaci afroamerických nájemníků, které Komise v návrhu zmiňuje, je případ Atlantic Plaza Towers, který zvednul vlnu vášní před dvěma lety v New Yorku. Obdobně by narazila i uváděná diskriminace počítačem v zaměstnání, v obou případech máme navíc antidiskriminační zákon.
Pro prověřování bonity klientů bank a fintechů zase platí přísná finanční regulace a ochrana spotřebitele. A konečně případ špatného vyhodnocení výsledků středoškoláků pro přijímačky na univerzity se odehrál nedávno ve Velké Británii a u nás by ho zastavil vysokoškolský zákon. Obdobně je u nás nemyslitelné nasazování systémů pro prevenci zločinu, které podezřele často ukazují na podezřelé z etnických minorit. A samozřejmě je zkoušeli v Londýně.
Na druhé straně kontroverzní sledování lidí na ulici prostřednictvím rozpoznávání obličejů sice zakázáno je, ale návrh obsahuje výjimky pro policii a další represivní složky. Přitom právě pražská městská policie na podzim 2019 s podobným případem narazila. Obdobně je v návrhu z nařízení přímo vyňata armáda. Kontroverzního využití AI u pověstných „zabijáckých robotů“ se tedy vůbec nedotýká.
Když si odpovíme na otázku proč, druhou v pořadí je otázka jak. V případě moderních a velmi rychle se měnících odvětví, jako je umělá inteligence, se nabízí řada takzvaných „soft“ nástrojů. Samoregulace, kodexy, jednoduché dobrovolné certifikace a další možnosti jsou výhodné tím, že je firmy přijímají samy, zpravidla je píší odborníci z praxe, nemusí se čekat na dlouhý legislativní proces a velmi často jsou i mnohem účinnější.
Především v oboru IT se etickými desatery řídí rádi sami vývojáři a jejich tlak na firmy je mnohem účinnější než vzdálená hrozba pokuty. Nabízí se zejména citlivá oblast manipulace a fake news. Právě s přijetím dobrovolných kodexů chování v oblasti boje s hate speech, ke kterým se zavázali i giganti jako Microsoft či Facebook, přišel už před pěti lety tým české eurokomisařky Věry Jourové.
Proč nenechat na firmách, ať se samy zaváží k etickému vývoji AI? Případně přijmout několikastránkový obecný předpis a nechat posuzování konkrétních případů na soudech? Bretonovi lidé místo toho posílají členským státům superkomplikované nařízení o dvaaosmdesáti stranách, s kostrbatou definicí AI, se kterou si zjevně nevěděli moc rady, a tak mají výčet technologií v příloze. Samotné tvrdé zákazy algoritmů manipulujících skrze ovlivnění podvědomí, útočících na psychiku či AI kádrování se i s pravidly pro facial recognition vejdou na stránku a půl. Jde přitom o vágní a gumová ustanovení.
Obdobný prostor zabírají obecné povinnosti, které ale nedávají moc smysl. Například pro chatbota, který se musí vždy představit jako AI, protože asi Komise předpokládá, že Turingův test už brzy nebude žádný problém rozlousknout. Nebo třeba povinnost označit viditelně podvržené video jako „deep fake“, protože to samozřejmě každý falzifikátor okamžitě udělá. Jakákoliv snaha řešit hlouběji tento dnes asi největší problém s umělou inteligencí ale dál už chybí. Přitom právě tam mířila zejména doporučení skupiny expertů, kterou si zřídila předchozí bruselská administrativa a ta nová se na jejich závěry opakovaně odvolává.
Vysoké riziko
Drtivou většinu obsahu návrhu právního předpisu tvoří povinnosti pro takzvané vysoce rizikové AI systémy. Tedy především ty, které Bretonovi lidé posbírali v zahraničí: biometrická identifikace, přijímací zkoušky, kritická infrastruktura, nábor a povyšování zaměstnanců, posuzování sociálních dávek, vymáhání práva, migrace, azyl nebo algoritmy používané u soudu. Jejich vývojářům, prodejcům i uživatelům návrh stanoví velmi dlouhý seznam povinností.
V podstatě jde o kombinaci opsanou hned ze tří oblastí – ochrany dat, kybernetické bezpečnosti a zejména takzvaného posuzování shody, udělování známých CE. Proces běžný u elektrotechnických zařízení nabývá ale u AI na tragikomičnosti. Okopírovaná ustanovení působí, jako by úředníci žádali proměřit onu pověstnou krabičku, ve které je schovaný internet, v tomto případě neuronová síť, z legendárního seriálu IT Crowd. Jen třešničkou je povinnost umělou inteligenci viditelně označit nálepkou CE.
Humor ale ochladne, když si uvědomíme, kolik úředníků, technologie, jaký aparát bude třeba za peníze daňových poplatníků postavit na státní proměřování a zkoušení AI a datasetů. Na druhé straně pak stojí obrovské peníze, takřka nekonečná administrativa a řada nových lidí, které budou muset firmy najmout, aby mohly svůj AI systém vůbec nabídnout na trhu v EU.
To je zejména pro startupy skoro nepředstavitelné, pomoc pro ně ale v Bruselu vyřešili šalamounsky – prostě chtějí uložit členským státům, aby jim nějak ulevily. Ještě lepší pak je, že seznam vysoce rizikových aplikací chtějí úředníci rozšiřovat sami, podle velmi obecných pravidel. Nikdo si tak nebude jistý, jestli zrovna jeho byznys najednou někdo nezastaví a nedonutí ho projít dlouhou a nákladnou procedurou. Namísto právní jistoty tak přichází pravý opak, absolutní právní nejistota v AI.
Život v nejistotě
Třetí a finální otázkou u každého nového předpisu samozřejmě je, co způsobí. V tomto případě především každý, kdo dostane nápad na novou AI aplikaci, se bude muset prokousat složitou legislativou, nebo si spíš najmout právníka. A to i jen proto, aby se ujistil, že pod kvantum povinností s tvrdými sankcemi opravdu nespadá. Z umělé inteligence se má ze dne na den stát regulované odvětví, navíc regulované velmi netradičně plošně na celý široký soubor technologií, nikoliv jen na vybraný sektor.
Země EU budou namísto podpory výzkumu a vývoje AI muset investovat velké peníze a postavit nebo přestavět certifikační a zkušební orgány, aby firmy mohly prověřovat své vysoce rizikové systémy v domácím jazyce. Především sehnat dost kvalitních expertů bude velký oříšek a je možné, že v menších státech se to prostě nepovede. Jejich vývojáři tak budou muset překládat tisíce stránek dokumentace a žádat o certifikace jinde, jako se to dnes děje třeba ve zdravotní technice.
Pro opravdu velké evropské firmy s týmy právníků asi nebude takový problém nařízení splnit, zvlášť pokud působí v tradičních odvětvích, kde jsou na něco podobného zvyklí. Tímto pohledem se možná dívá na své dílo právě komisař Breton, dřívější šéf polostátního francouzského gigantu Atos. Z pohledu velkých firem se skutečně nejedná o nic zásadního, a dokonce jim to může poskytnout i tolik touženou konkurenční výhodu proti zejména americkým IT konkurentům.
Malým týmům startupů nebo spinoffů, zvláště z menších zemí, pak návrh nabízí život v nejistotě a plnění dost možná nesplnitelných podmínek, případně nucené partnerství s nějakým velkým korporátním partnerem. Nebylo by se moc co divit, kdyby se zvlášť ti nejlepší rozhodli zkusit štěstí nejprve mimo EU. Jestli jim pak bude stát za to získávat CE nálepku a vracet se domů, je velká otázka. Budování center podpory pro ně v Unii a především v malých zemích, jako je Česko, přestává dávat smysl.