20. ledna 2022
Kliknutím zobrazíte soubor PDF
Rok 2021 byl rušným rokem pro návrhy politik a zákonodárství související s umělou inteligencí („AI“) a automatizovanými technologiemi. OECD identifikovala 700 politických iniciativ v oblasti umělé inteligence v 60 zemích a mnoho domácích právních rámců se formuje. S novým umělým Intelligence Act, jehož dokončení se očekává v roce 2022, je pravděpodobné, že vysoce rizikové systémy umělé inteligence budou v EU výslovně a komplexně regulovány. Přestože v Kongresu byly předloženy různé legislativní návrhy týkající se umělé inteligence, Spojené státy nepřijaly komplexní přístup k regulaci umělé inteligence, jak jej navrhuje Evropská komise, místo toho se soustředí na investice do obrany a infrastruktury s cílem využít růst umělé inteligence.
Nicméně – odrážející nedávný vývoj v zákonech o ochraně osobních údajů – existují určité náznaky konvergence v tvorbě politik v USA a Evropě, zdůrazňující přístup k regulaci založený na riziku a rostoucí zaměření na etiku a „důvěryhodnou“ AI, stejně jako prosazování cesty pro spotřebitele. Administrativa prezidenta Bidena v USA oznámila vypracování „zákona o právech AI“. Federální obchodní komise USA („FTC“) navíc signalizovala zvláštní horlivost při regulaci spotřebitelských produktů a služeb zahrnujících automatizované technologie a velké objemy dat a zdá se, že je připravena v nadcházejícím roce zintenzivnit činnost v oblasti tvorby pravidel i vymáhání práva. Kromě toho bude do roku 2023 pravděpodobně pověřena vydáváním předpisů upravujících umělou inteligenci, což bude mít dalekosáhlý dopad. Konečně se začínají objevovat principy správy a technické standardy pro zajištění důvěryhodné umělé inteligence a ML, i když se teprve uvidí, do jaké míry globální regulační orgány dosáhnou konsensu o klíčových měřítcích přes národní hranice.
A.U.S. Národní politika
1. Národní strategie umělé inteligence
Téměř tři roky poté, co prezident Trump vydal výkonný příkaz „Zachování amerického vedení v umělé inteligenci“ s cílem zahájit „Americkou iniciativu AI“ a usilovat o urychlit vývoj a regulaci umělé inteligence s cílem zajistit si místo Spojených států jako globálního lídra v technologiích umělé inteligence, zaznamenali jsme v USA výrazný nárůst legislativních a politických opatření souvisejících s umělou inteligencí, čímž jsme propojili starou a novou administrativu. Před rokem byla federální vláda USA aktivní při koordinaci vedení napříč agenturami a podpoře pokračujícího výzkumu a vývoje technologií umělé inteligence pro vládní účely. Za tímto účelem byla řada klíčových legislativních a výkonných opatření zaměřena na zvýšení růst a vývoj takových technologií pro federální agentury, národní bezpečnost a vojenské aplikace.U.S. zákonodárci rovněž pokračovali v dialogu se svými protějšky v EU a zavázali se ke spolupráci během slyšení v parlamentu EU dne 1. března.[1]Rep. Robin Kelly (D-Ill.) svědčil na slyšení před Zvláštním výborem EU pro AI a poznamenal, že „[n]átiny, které nesdílejí náš závazek k demokratickým hodnotám, závodí o to, aby se staly vůdci v AI a stanovily pravidla pro AI. světě,“ .[2]Naléhala na Evropu, aby při spolupráci s USA zaujala „úzký a flexibilní“ přístup k regulaci.[3]
a)Zákon o národní iniciativě AI z roku 2020 (součást zákona o povolení národní obrany z roku 2021 („NDAA“)) a Národní úřad pro iniciativu AI
V souladu se zákonem o národní iniciativě AI z roku 2020, který byla schválena 1. ledna 2021 jako součást zákona o povolení k národní obraně z roku 2021 (dále jen „NDAA“)[4], OSTP formálně zřídilo Národní úřad pro iniciativu AI (dále jen „úřad“) 12. ledna. několik nových federálních úřadů pověřených NDAA – bude odpovědných za dohled a implementaci národní strategie umělé inteligence a bude fungovat jako centrální centrum pro koordinaci a spolupráci federálních agentur a externích zúčastněných stran napříč vládou, průmyslem a akademickou sférou ve výzkumu a tvorbě politik v oblasti umělé inteligence.[5] ]Zákon také zřídil Národní pracovní skupinu pro výzkum AI (dále jen „Task Force“), která svolala skupinu technických expertů z akademické sféry, vlády a průmyslu, aby posoudili a poskytli doporučení ohledně proveditelnosti a vhodnosti zřízení národního zdroje pro výzkum AI ( „NAIRR“)[6]Task Force vypracuje koordinovaný plán a plán implementace pro zřízení a udržení NAIRR, národního výzkumného cloudu, který výzkumníkům poskytne přístup k výpočetním zdrojům, vysoce kvalitním datovým souborům, vzdělávacím nástrojům a uživatelské podpoře. usnadnit příležitosti pro výzkum a vývoj AI. Pracovní skupina předloží Kongresu dvě zprávy, aby představila svá zjištění, závěry a doporučení – průběžnou zprávu v květnu 2022 a závěrečnou zprávu v listopadu 2022.
Dne 27. ledna 2021 podepsal prezident Biden memorandum nazvané „Obnovení důvěry ve vládu prostřednictvím vědy a integrity a tvorby politik založených na důkazech“, které zahájilo rozsáhlou revizi federálních politik vědecké integrity a nařídilo agenturám posílit jejich úsilí na podporu rozhodování založeného na důkazech[7], od kterého se očekává, že „vytvoří důležité poznatky a osvědčené postupy včetně transparentnosti a odpovědnosti….“[8]Prezident také podepsal exekutivní příkaz k formálnímu znovuustavení Rady prezidentských poradců pro vědu a technologii ,[9] a oznámila zřízení Národního poradního výboru pro umělou inteligenci, který má za úkol poskytovat doporučení k různým tématům souvisejícím s umělou inteligencí, včetně současného stavu ekonomické konkurenceschopnosti a vedoucího postavení USA, výzkumu a vývoje a komerční aplikace.[10]
b)Zákon o inovacích a hospodářské soutěži (S. 1260)
Dne 8. června 2021 Senát USA schválil hlasováním 68-32 americký zákon o inovacích a hospodářské soutěži (S. 1260), jehož cílem je zvýšit schopnost země konkurovat čínským technologiím investováním více než 200 miliard dolarů do vědeckých a technologických inovací v USA v průběhu příštích pěti let, přičemž umělá inteligence, strojové učení a autonomie jsou uvedeny jako „klíčové oblasti zaměřené na technologie“.[11]80 miliard dolarů je vyčleněné na výzkum v oblasti umělé inteligence, robotiky a biotechnologie. Kromě různých dalších programů a aktivit návrh zákona zřizuje ředitelství pro technologie a inovace v Národní vědecké nadaci („NSF“) a podporuje vědecký výzkum, vývojové kanály, vytváří granty a cíle podporovat dohody mezi soukromými společnostmi a výzkumnými univerzitami s cílem podpořit technologické průlomy.
Zákon také obsahuje ustanovení označená jako „Advancing American AI Act“[12], jejichž cílem je „podporovat programy a iniciativy související s umělou inteligencí, které zvyšují konkurenceschopnost Spojených států“ a zároveň zajistit zavádění umělé inteligence. ] s hodnotami Spojených států, včetně ochrany soukromí, občanských práv a občanských svobod.“[13]Ustanovení specifická pro AI nařizují, aby ředitel Úřadu pro řízení a rozpočet („OMB“) vypracoval zásady a politiky pro používání umělé inteligence ve vládě, s přihlédnutím ke zprávě NSCAI, výkonnému nařízení z 3. prosince 2020 „Podpora používání důvěryhodné umělé inteligence ve federální vládě“ a příspěvkům různých meziagenturních rad a odborníků.[14 ]
c) Algoritmické řízení
Také jsme byli svědky vzniku nových iniciativ na federální úrovni zaměřených na algoritmické řízení, které vyvrcholily listopadovým oznámením Úřadu pro vědeckou a technologickou politiku Bílého domu (OSTP) 10, 2021, že příští týden zahájí řadu poslechových relací a akcí s cílem zapojit americkou veřejnost do procesu vývoje Listiny práv pro automatizovanou společnost.[15]Podle ředitele OSTP Erica bude tento zákon potřebovat „zuby“ ve formě vymáhání veřejných zakázek.[16]V paralelní akci ředitelka Národního úřadu pro iniciativu AI, Lynne Parker, uvedla komentáře, že Spojené státy by měly mít vizi regulace AI podobnou obecnému Nařízení o ochraně údajů („GDPR“).[17]V říjnu 2021 navíc Úřad pro politiku vědy a technologie Bílého domu („OSTP“) zveřejnil RFI požadující zpětnou vazbu o tom, jak biometrické technologie fungovaly v organizacích a jak ovlivňují jednotlivce. emocionálně a mentálně.[18]
V červnu 2021 zveřejnil Úřad vlády USA (GAO) zprávu, která identifikuje klíčové postupy, které pomohou zajistit odpovědnost a odpovědné používání umělé inteligence federálními agenturami a dalšími subjekty zapojenými do návrhu, vývoje, nasazení a průběžného sledování Systémy umělé inteligence.[19]Zpráva určila čtyři klíčové oblasti zájmu: (1) organizace a řízení algoritmů; (2) výkonnost systému; (3) dokumentování a analyzování údajů používaných k vývoji a provozu systému umělé inteligence; a (4) průběžné monitorování a hodnocení systému pro zajištění spolehlivosti a relevance v čase.[20]
Nakonec Národní institut pro standardy a technologie (“NIST”), pověřený administrativou Trumpa vyvinout standardy a opatření pro umělou inteligenci, zveřejnil svou zprávu o tom, jak měřit a zvyšovat důvěru uživatelů a jak identifikovat a spravovat předsudky v Technologie AI.[21]NIST obdržela šedesát pět komentářů k dokumentu a autoři plánují syntetizovat a použít reakce veřejnosti k vytvoření další verze zprávy a pomoci utvářet agendu několika společných virtuálních akcí, které NIST uspořádá. nadcházející měsíce.[22]
2. Národní bezpečnost
a)Závěrečná zpráva NSCAI
Zákon o povolení k národní obraně z roku 2019 vytvořil 15člennou Národní bezpečnostní komisi pro umělou inteligenci (“NSCAI”), a nařídil, aby NSCAI „kontrolovala a poskytovala poradenství ohledně konkurenceschopnosti Spojených států v oblasti umělé inteligence, strojového učení a dalších souvisejících technologií, včetně záležitostí souvisejících s národní bezpečností, obranou, partnerstvím veřejného a soukromého sektoru a investicemi.“[23]Přes v posledních dvou letech vydala NSCAI několik zpráv, včetně průběžných zpráv v listopadu 2019 a říjnu 2020, dvou dalších čtvrtletních memorand a řady zvláštních zpráv v reakci na pandemii COVID-19.[24]
Dne 1. března 2021 předložila NSCAI svou závěrečnou zprávu Kongresu a prezidentovi. Na začátku zpráva naléhavě vyzývá k akci a varuje, že vláda USA v současnosti není dostatečně organizována a nemá dostatečné zdroje, aby mohla úspěšně konkurovat. s jinými národy, pokud jde o vznikající technologie, ani nejsou připraveny bránit se hrozbám s umělou inteligencí nebo rychle přijímat aplikace umělé inteligence pro účely národní bezpečnosti. V této souvislosti zpráva nastiňuje strategii, jak do roku 2025 připravit Spojené státy na „AI“. [25] a identifikuje konkrétní kroky ke zlepšení veřejné transparentnosti a ochraně soukromí, občanských svobod a občanských práv, když vláda zavádí systémy umělé inteligence. NSCAI výslovně podporuje používání nástrojů ke zlepšení transparentnosti a vysvětlitelnosti: hodnocení rizik a dopadů umělé inteligence; audity a testování systémů umělé inteligence; a mechanismy pro poskytování řádného procesu a nápravy jednotlivcům, kteří jsou nepříznivě ovlivněni systémy umělé inteligence používanými ve státní správě. Zpráva také doporučuje zavést politiku řízení a dohledu nad vývojem umělé inteligence, která by měla zahrnovat „požadavky na audit a podávání zpráv“, systém kontroly pro „vysoce rizikové “ Systémy umělé inteligence a proces odvolání pro dotčené osoby. Tato doporučení mohou mít významné důsledky pro potenciální dohled a regulaci umělé inteligence v soukromém sektoru. Zpráva také nastiňuje naléhavá opatření, která musí vláda podniknout na podporu inovací umělé inteligence s cílem zlepšit národní konkurenceschopnost a zajistit talent a chránit kritické výhody USA, včetně práv duševního vlastnictví.
b)Oddělení pro obranné inovace Ministerstva obrany (DIU) zveřejnilo své „Odpovědné pokyny pro umělou inteligenci“
Dne 14. listopadu 2021 vydalo oddělení pro obranné inovace ministerstva obrany („DIU“) „Odpovědné pokyny pro umělou inteligenci“ které poskytují vývojářům třetích stran podrobné pokyny, které mohou použít při vytváření umělé inteligence pro vojenské účely. Tyto pokyny zahrnují postupy pro identifikaci toho, kdo by mohl technologii používat, kdo by jí mohl být poškozen, jaká tato poškození mohou být a jak by mohli je třeba se vyhnout – jak před vytvořením systému, tak po jeho uvedení do provozu.[26]
c)Zákon o schopnostech a transparentnosti umělé inteligence (AICT)
Dne 19. května 2021 představili senátoři Rob Portman (R-OH) a Martin Heinrich (D-NM) dvoustranný zákon Artificial Zákon o zpravodajských schopnostech a transparentnosti („AICT“).[27]AICT by zajistilo zvýšenou transparentnost vládním systémům umělé inteligence a je založeno především na doporučeních vyhlášených Národní bezpečnostní komisí pro umělou inteligenci (NSCAI) v dubnu 2021.[28 ]AICT doprovázel zákon o umělé inteligenci pro armádu (AIM).[29]Zákon o AICT by v rámci ministerstva obrany zřídil pilotní fond pro vývoj a prototypování umělé inteligence zaměřený na vývoj technologií s umělou inteligencí pro operační potřeby armády, a by vyvinul plán zdrojů pro DOD, aby umožnil vývoj, testování, nasazení a aktualizaci aplikací poháněných umělou inteligencí.[30] Oba návrhy zákonů byly schváleny jako součást zákona o povolení k národní obraně pro fiskální rok 2022.[31]
B. Ochrana spotřebitele, soukromí & Algoritmická spravedlnost
1. FTC se zaměřuje na algoritmickou transparentnost a spravedlnost
Dne 19. dubna 2021 vydala FTC pokyny, které zdůrazňují svůj záměr prosazovat zásady transparentnosti a spravedlnosti s ohledem na rozhodnutí o algoritmech – dopad na spotřebitele. Příspěvek na blogu „Usilování o pravdu, spravedlnost a spravedlnost při používání umělé inteligence vaší společností“ oznámil záměr FTC podat donucovací opatření související s „předpojatými algoritmy“ podle oddílu 5 zákona FTC, Fair Credit Reporting Act a Equal Credit Opportunity Act.[32] Prohlášení výslovně uvádí, že „prodej nebo používání – například – rasově zaujatých algoritmů“ spadá do působnosti zákazu nekalých nebo klamavých obchodních praktik. Příspěvek na blogu poskytl konkrétní pokyny k „používání umělé inteligence pravdivě, spravedlivě a spravedlivě“, což naznačuje, že se očekává, že společnosti „udělají více užitku než škody“ tím, že budou auditovat svá školicí data a v případě potřeby „omezí[] kde a jak [ ] použít model;” testování jejich algoritmů na nesprávné zkreslení před a během nasazení; používání rámců transparentnosti a nezávislých standardů; a transparentnost vůči spotřebitelům a získání příslušného souhlasu s používáním údajů o spotřebitelích. Pokyny také varovaly společnosti před prohlášeními spotřebitelům, která „přehnaně slibují“ nebo zkreslují schopnosti produktu, a poznamenali, že zkreslené výsledky mohou být považovány za klamavé a vést k vynucovacím opatřením FTC. .
Toto prohlášení o záměru přišlo po poznámkách bývalé úřadující předsedkyně FTC Rebeccy Kelly Slaughterové 10. února na fóru Future of Privacy Forum, která předběžně upozornila na priority prosazování v rámci Bidenovy administrativy a konkrétně spojila roli FTC při řešení systémového rasismu digitální propast, umocněná onemocněním COVID-19, AI a rozhodováním o algoritmech, technologií rozpoznávání obličejů a používání údajů o poloze z mobilních aplikací.[33]Řídí se také neformálními pokyny FTC z minulého roku, které nastiňují zásady a osvědčené postupy týkající se transparentnosti a vysvětlitelnosti , zkreslení a robustní datové modely.[34]
Tyto regulační priority nadále nabírají tempo pod vedením nové předsedkyně FTC Liny Khan, která v listopadu 2021 oznámila několik nových přírůstků do Úřadu pro plánování politik FTC, včetně tří „poradců pro umělou inteligenci“, Meredith Whittaker, Ambak Kak a Sarah. Meyers West – všichni dříve v AI Now Institute na NYU a odborníci na různá témata AI včetně algoritmické odpovědnosti a politické ekonomie AI.[35]
FTC také podnikla kroky k posílení svých donucovacích pravomocí a přijala řadu opatření, která umožní rychlejší vyšetřování potenciálních porušení, včetně problémů týkajících se zkreslení v algoritmech a biometrii.[36]Navíc 27. července 2021 vyhlásila FTC Hlavní technolog FTC Erie Meyer poznamenal, že agentura předpokládá, že společnosti, které se zabývají nelegálním využíváním dat, budou „nejen vyhazovat data a peníze“, ale také „algoritmy, které byly vytvořeny špatně získanými daty.“[37]Sen. Mike Lee, R-Utah, následně dne 15. prosince 2021 představil návrh zákona, který by FTC udělil pravomoc domáhat se restituce u federálního okresního soudu poté, co Nejvyšší soud USA v dubnu rozhodl, že pravomoc agentury žádat o soudní zákazy od federálního soudce nezahrnuje možnost požádat o restituci nebo vyřazení neoprávněně nabytých zisků.[38]Navrhovaný zákon o ochraně spotřebitele a řádném procesu by pozměnil oddíl 13(b) zákona o federální obchodní komisi tak, aby dal FTC výslovnou pravomoc požádat o federálního soudce, aby mu umožnil získat zpět peníze od podvodníků a porušovatelů antimonopolních pravidel.[39]
FTC také identifikovala „temné vzorce“ jako rostoucí problém a ohnisko vymáhání práva. design uživatelského dojmu (UX) – například robot zákaznického servisu, nechtěná záruka nebo zkušební předplatné, které se převede na placené.[40]Na virtuálním workshopu FTC, který zkoumal tmavé vzory, úřadující ředitel Úřadu pro ochranu spotřebitelů, Daniel Kaufman navrhl, že společnosti mohou v této oblasti očekávat agresivní vymáhání FTC a že FTC použije oddíl 5 zákona FTC a zákona o obnovení důvěry online nakupujících k výkonu své pravomoci přijetím nových pravidel, prohlášení o zásadách nebo pokynů k vymáhání. [41]
Doporučujeme, aby společnosti, které vyvíjejí nebo nasazují automatizované rozhodování, přijaly přístup „etiky již od návrhu“ a přezkoumaly a posílily zásady interního řízení, péče a dodržování předpisů. Společnosti by také měly držet krok s vývojem týkajícím se schopnosti FTC žádat restituce a peněžní prostředky. sankce a uložit povinnost vymazat algoritmy, modely nebo data.
2. Consumer Financial Protection Bureau
CFPB, nyní vedená bývalým komisařem FTC Rohitem Choprou, navrhla, že může použít zákon Fair Credit Reporting Act (FCRA) k výkonu jurisdikce nad velkými technologickými společnostmi a jejich obchodní praktiky.[42]FCRA tradičně reguluje činnost úvěrových kanceláří, společností prověřujících spolehlivost a služeb prověřování nájemců, ale Chopra učinil několik prohlášení, že podkladová data používaná technologickými giganty mohou být důvodem pro závazky podle FCRA. FCRA definuje spotřebitelskou zpravodajskou agenturu poměrně široce, aby zahrnovala společnosti, které shromažďují, vyhodnocují a prodávají data třetím stranám, které tyto údaje používají při rozhodování o způsobilosti o spotřebitelích. CFPB se může pokusit dotazovat velké technologické společnosti, aby zjistila, zda jsou data , ve skutečnosti jsou prodávány třetím stranám a jak mohou být dále použity na navazujícím trhu.
V listopadu CFPB vydala poradní stanovisko, v němž potvrdila, že společnosti oznamující spotřebitele, včetně společností prověřujících nájemce a zaměstnance, porušují zákon, pokud se zapojují do nedbalých postupů při porovnávání jmen.[43] CFPB je obzvláště znepokojena algoritmy společností prověřujících pozadí, které přiřazují falešnou identitu žadatelům o zaměstnání a bydlení kvůli chybovým zprávám o prověřování pozadí, které mohou neúměrně ovlivnit barevné komunity. Poradní stanovisko znovu potvrzuje povinnosti a požadavky spotřebitelských zpravodajských společností používat přiměřené postupy k zajištění maximální možná přesnost.
3.U.S. Komise pro rovné pracovní příležitosti
Americká komise pro rovné pracovní příležitosti plánuje přezkoumat, jak jsou nástroje a technologie umělé inteligence aplikovány na rozhodnutí o zaměstnání.[44]Iniciativa EEOC bude blíže zkoumat, jak technologie zásadně mění způsob zaměstnávání jsou přijímána rozhodnutí. Jeho cílem je vést žadatele, zaměstnance, zaměstnavatele a dodavatele technologií při zajišťování toho, aby tyto technologie byly používány spravedlivě v souladu s federálními zákony o rovných příležitostech v zaměstnání.
4. Technologie rozpoznávání obličeje a biometrické technologie
a)Vymáhání
V lednu 2021 FTC oznámila své vyrovnání se společností Everalbum, Inc. v souvislosti s její aplikací „Ever App“, aplikace pro ukládání fotografií a videí, která používala technologii rozpoznávání obličejů k automatickému třídění a „označování“ fotografií uživatelů.[45]FTC tvrdila, že Everalbum poskytlo spotřebitelům nepravdivé informace o používání technologie rozpoznávání obličejů a uchovávání fotografií a videí uživatelů. uživatelé, kteří deaktivovali své účty v rozporu s oddílem 5(a) zákona FTC. Podle dohody o vyrovnání musí Everalbum smazat modely a algoritmy, které vyvinul pomocí nahraných fotografií a videí uživatelů, a získat výslovný souhlas svých uživatelů před podáním žádosti. technologie rozpoznávání obličeje, zdůrazňující vznik mazání jako potenciálního vynucovacího opatření. Požadavek na mazání dat, modelů a algoritmů vyvinutých pomocí dat shromážděných bez výslovného souhlasu by mohl představovat významnou nápravnou povinnost s širšími důsledky pro vývojáře AI.
Komisař FTC Rohit Chopra, signalizující potenciál pro zvýšení regulace a vymáhání v této oblasti, vydal doprovodné prohlášení, v němž popisuje vyrovnání jako „nápravu kurzu“, v komentáři k tomu, že technologie rozpoznávání obličejů je „zásadně chybná a posiluje škodlivé předsudky“, přičemž zdůraznil důležitost „úsilí uzákonit moratorium nebo jinak přísně omezit jeho používání.“ Komisař však také varoval před „širokou federální preempcí“ ochrany údajů a poznamenal, že pravomoc regulovat práva na údaje by měla zůstat na státní úrovni.[46] bude pečlivě sledovat jakékoli další vynucovací opatření ze strany FTC (a dalších regulačních orgánů), jakož i řadu nevyřízených soudních sporů na základě údajného nezákonného shromažďování biometrických údajů používaných automatizovanými technologiemi podle rostoucího počtu státních zákonů na ochranu soukromí – jako je například Illinois' Biometric Information Privacy Act (“BIPA”)[47] – a doporučuje společnostem, které vyvíjejí nebo používají technologie rozpoznávání obličeje, aby vyhledaly konkrétní právní radu ohledně požadavků na souhlas s biometrickými údaji, a také vyvinuly robustní procesy AI diligence a hodnocení rizik pro třetí strany. AI aplikace.
b)Legislativa
Technologie rozpoznávání obličeje také přitáhla v roce 2021 obnovenou pozornost federálních a státních zákonodárců. 15. června 2021 skupina demokratických senátorů znovu zavedla zákon o moratoriu na rozpoznávání obličeje a biometrické technologie, který by zakázal agenturám používat technologii rozpoznávání obličeje a další biometrické technologie – včetně rozpoznávání hlasu, rozpoznávání brány a rozpoznávání dalších neměnných fyzických vlastností – federálními subjekty a blokoval federální fondy pro systémy biometrického sledování.[48]Podobný návrh zákona byl předložen v roce obě komory v předchozím Kongresu, ale nepostoupily z výboru.[49]Legislativa, která je schválena ACLU a mnoha dalšími organizacemi pro lidská práva, také poskytuje soukromé právo na žalobu pro jednotlivce, jejichž biometrické údaje jsou používány v rozporu s zákon (vynucený státními generálními prokurátory) a snaží se omezit používání biometrických technologií místními subjekty tím, že příjem federálního grantového financování spojí s lokalizovanými zákazy biometrických technologií. Jakékoli biometrické údaje shromážděné v rozporu s ustanoveními zákona by také byly zakázány. použití v soudních řízeních.
Na státní úrovni schválila Virginie zákaz používání technologie rozpoznávání obličeje ze strany vymáhání práva (H.B. 2031). Legislativa, která získala širokou podporu obou stran, zakazuje všem místním donucovacím orgánům a policejním oddělením kampusu nakupovat nebo používat technologie rozpoznávání obličeje, pokud není výslovně povolena státní legislativou.[50]Zákon vstoupil v platnost 1. července 2021. Virginie se připojuje ke Kalifornii, stejně jako k mnoha městům po celých USA, a omezuje používání technologie rozpoznávání obličeje orgány činnými v trestním řízení. .[51]
5. Algorithmic Accountability
a) Zákon o algoritmické spravedlnosti a online platformě Transparency Act z roku 2021 (S. 1896)
Dne 27. května 2021 senátor Edward J. Markey (D -Mass.) a kongresmanka Doris Matsui (CA-06) představili zákon o Algorithmic Justice and Online Platform Transparency Act z roku 2021 s cílem zakázat škodlivé algoritmy, zvýšit transparentnost v oblasti zesilování a moderování obsahu webových stránek a zadat mezivládní vyšetřování diskriminačních algoritmů. procesy v rámci národního hospodářství.[52]Zákon by zakázal algoritmické procesy na online platformách, které diskriminují na základě rasy, věku, pohlaví, schopností a dalších chráněných charakteristik. Kromě toho by stanovil standard bezpečnosti a účinnosti pro algoritmy. a vyžadovat, aby online platformy uživatelům popisovaly algoritmické procesy srozumitelným jazykem a vedly podrobné záznamy o těchto procesech pro kontrolu FTC.
b)Consumer Safety Technology Act neboli AI for Consumer Product Safety Act (H.R. 3723)
Dne 22. června 2021 Sněmovna hlasů 325-103 schválila zákon Consumer Safety Technology Act neboli AI for Consumer Product Safety Act (H.R. 3723), který požaduje, aby Komise pro bezpečnost spotřebitelských produktů vytvořila pilotní program, který využívá AI ke zkoumání otázek bezpečnosti spotřebitelů, jako jsou trendy zranění, nebezpečí produktů, produkty stažené z oběhu nebo produkty, které by neměly být dováženy do USA.[53]Je to podruhé, co Sněmovnou prošel zákon o technologiích pro bezpečnost spotřebitelů. Minulý rok, po schválení Sněmovnou, návrh zákona neprošel v Senátu poté, co byl postoupen Výboru pro obchod, vědu a dopravu.[54] ]
c)Zákon o ochraně údajů z roku 2021 (S. 2134)
V červnu 2021 představila senátorka Kirsten Gillibrand (D-NY) zákon o ochraně údajů z roku 2021, který by vytvořil nezávislou federální agenturu chránit spotřebitelská data a soukromí.[55]Hlavním zaměřením agentury by bylo chránit soukromí jednotlivců související se shromažďováním, používáním a zpracováním osobních údajů.[56]Návrh definuje „systém automatizovaného rozhodování“ jako „výpočetní proces, včetně procesu odvozeného ze strojového učení, statistiky nebo jiného zpracování dat nebo technik umělé inteligence, který činí rozhodnutí nebo usnadňuje lidské rozhodování.“[57] Navíc používání „automatizovaného systému rozhodování“ je „vysoce rizikovým datová praxe“ vyžadující vyhodnocení dopadu po nasazení a posouzení rizik vývoje a návrhu systému, včetně podrobného popisu praxe včetně návrhu, metodiky, školicích dat a účelu, jakož i všech různorodých dopadů a poškození soukromí.[58] ]
d)Filter Bubble Transparency Act
Dne 9. listopadu 2021 představila dvoustranná skupina sněmovních zákonodárců legislativu, která lidem poskytne větší kontrolu nad algoritmy, které utvářejí jejich online zkušenost.[59]Pokud bude schválen , zákon Filter Bubble Transparency Act vyžaduje, aby společnosti jako Meta nabízely verzi svých platforem, která běží na „vstupně transparentním“ algoritmu, který ke generování doporučení nevyužívá uživatelská data – jinými slovy, poskytuje uživatelům možnost odhlásit se z algoritmických zdrojů obsahu na základě osobních údajů. Tato legislativa Sněmovny je doprovodným zákonem k legislativě Senátu, která byla zavedena v červnu 2021.
e)Deepfake Task Force Act
Dne 29. července představili senátoři Gary Peters (D-Mich.) a Rob Portman (R-Ohio) legislativu obou stran, která by vytvořila pracovní skupinu v rámci ministerstva Homeland Security (DHS) měla za úkol vytvořit plán na snížení šíření a dopadu deepfakes, digitálně upravených obrázků a videí téměř k nerozeznání od autentických záznamů.[60]Návrh zákona by vycházel z předchozí legislativy, která minulý rok schválila Senát a vyžaduje DHS provádět každoroční studii deepfakes.
6. Předpisy státu a měst
a) Zákonodárci státu Washington předkládají návrh zákona o regulaci AI, S.B. 5116
V návaznosti na významný washingtonský zákon o rozpoznávání obličeje (S.B. 6280) přijatý minulý rok[61] státní zákonodárci a obhájci občanských práv navrhli nová pravidla zakazující diskriminaci vyplývající z automatizovaného rozhodování veřejných orgánů. .[62]Návrh zákona, který je sponzorován senátorem Bobem Hasegawou (D-Beacon Hill), by zavedl nová nařízení pro vládní ministerstva, která používají „systémy automatizovaného rozhodování“, kategorii, která zahrnuje jakýkoli algoritmus, který analyzuje data k vytváření nebo podpoře vládní rozhodnutí.[63]Pokud by byla uzákoněna, veřejným agenturám ve státě Washington by bylo zakázáno používat automatizované rozhodovací systémy, které diskriminují různé skupiny nebo činí konečná rozhodnutí, která mají dopad na ústavní nebo zákonná práva obyvatel Washingtonu. Návrh zákona také zakazuje vládním agenturám pomocí profilování s umělou inteligencí ve veřejných prostorách. Než bude agentura moci používat automatizovaný rozhodovací systém, budou vyžadovány veřejně dostupné zprávy o odpovědnosti zajišťující, že technologie není diskriminační.
b) Návrh zákona Rady města New York, který zakazuje zaměstnavatelům používat automatizované náborové nástroje bez ročního auditu k určení diskriminačního dopadu
Dne 10. listopadu 2021 schválila Rada města New York zákon zakazující najímání AI systémy, které neprocházejí každoročními audity prověřujícími rasovou nebo genderovou diskriminaci.[64]Návrh by vyžadoval, aby vývojáři takových nástrojů AI zveřejnili více informací o fungování jejich nástroje, a kandidátům by poskytl možnost vybrat si alternativu. Legislativa by uložila zaměstnavatelům nebo pracovním agenturám pokuty až do výše 1 500 USD za porušení.
C.Intellectual Property
1.Thaler v. Hirshfeld
Duševní vlastnictví historicky nabízelo nejistou ochranu děl AI. Požadavky na autorství a vynálezy jsou neustálým kamenem úrazu pro AI vytvořené díla a vynálezy. Například ve Spojených státech patentové právo odmítlo představu nehumánního vynálezce.[65]Federal Circuit důsledně zastává tento přístup.[66]V letošním roce učinil projekt Artificial Inventor Project několik pozoruhodných. Za prvé, tým vytvořil DABUS, „Zařízení pro autonomní bootstrapping Unified Sentience“ – systém umělé inteligence, který vytvořil několik vynálezů.[67]Projekt poté spolupracoval s právníky, aby předložil testovací případy ve Spojených státech , Austrálie, EU a Spojené království.[68]Tyto ambiciózní případy sklidily smíšené výsledky a pravděpodobně se budou dále lišit, jak se bude vynález AI množit.
Ve Spojených státech byl DABUS uveden jako „jediný vynálezce“ ve dvou patentových přihláškách.[69]V reakci na to vydal USPTO Oznámení k podání chybějících částí neprovizorní přihlášky, protože „údajový list aplikace nebo vynálezce přísaha nebo prohlášení neidentifikují každého vynálezce nebo jeho právní jméno“ a zdůraznili, že zákon vyžaduje, aby vynález „musela provádět fyzická osoba.“[70] Přihlašovatelé patentu požádali o přezkum ve východním okrese Virginie , která souhlasila s USPTO.[71]Projekt Artificial Inventor Project čelil srovnatelným neúspěchům v Evropě. Evropský patentový úřad (“EPO”) zamítl podobné patentové přihlášky s tím, že právní rámec evropského patentového systému vede k závěru, že právo vyžaduje lidské vynálezce.[72]Odvolací právní senát podobně rozhodl, že podle Evropské patentové úmluvy patenty vyžadují lidské vynálezy.[73]DABUS si nevedl lépe u patentových soudů Spojeného království, které rozhodly, že patentový zákon vyžaduje, aby byl vynálezcem osoba.[74]Naopak, jihoafrický patentový úřad udělil první patent pro vynálezce umělé inteligence.[75]Vůdce právního týmu vysvětlil rozdílný výsledek: ve Spojeném království byla patentová přihláška „považována za staženou“, protože nebyla přijata dodržovat související s podáním patentových formulářů; nicméně „Jižní Afrika provádí kontrolu formalit a vydala ji, jak je požadováno, na základě označení v mezinárodní přihlášce (Patent Cooperation Treaty [PCT]), kterou dříve přijala WIPO.“[76]O týdny později Australský federální soud rovněž rozhodl, že vynález AI není překážkou patentovatelnosti.[77]Je však třeba poznamenat, že australský patentový systém nepoužívá systém podstatných patentových zkoušek.
Zatímco vývoj v Jižní Africe a Austrálii nabízí povzbuzení vynálezcům umělé inteligence, neexistuje žádný příslib pro harmonizaci. Místo toho je pravděpodobnější patchworkový přístup. Spojené státy a Evropa si pravděpodobně zachovají názor, že umělá inteligence je nástroj vynálezců, ale není vynálezce.
2.Google LLC v. Oracle America, Inc.
Dne 5. dubna 2021 rozhodl Nejvyšší soud USA ve prospěch společnosti Google v mnohamiliardové žalobě na autorská práva podané společností Oracle, přičemž rozhodl, že společnost Google neporušil autorská práva společnosti Oracle podle doktríny fair use, když použil materiál z rozhraní API společnosti Oracle k vybudování své platformy pro chytré telefony Android.[78]Soud zejména nerozhodl o tom, zda by rozhraní API společnosti Oracle deklarující kód mohla být chráněna autorským právem, ale rozhodl, že za předpokladu, kvůli argumentu byl materiál chráněn autorským právem, „zde sporné kopírování nicméně představovalo spravedlivé použití.“[79] Konkrétně soud uvedl, že „když Google reimplementoval uživatelské rozhraní, vzal pouze to, co bylo potřeba, aby umožnil uživatelům vložit svůj nashromážděný talent pro práci v novém a transformativním programu bylo zkopírování rozhraní Sun Java API ze strany společnosti Google spravedlivým využitím tohoto materiálu ze zákona.“[80]Soud se zaměřil na transformativní použití Sun Java API ze strany Googlu a odlišil deklarační kód od jiné typy počítačového kódu při zjištění, že všechny čtyři hlavní faktory uvedené v ustanovení o fair use v autorském zákoně váží ve prospěch fair use.[81]
Ačkoli se zdá, že se rozsudek týká tohoto konkrétního případu, pravděpodobně bude mít dopad na umělou inteligenci a tvůrce platforem.[82]Uplatnění principu fair use Soudním dvorem by mohlo společnostem nabídnout cestu k obhajobě kopírování označení organizací bez Soudní dvůr zejména uvedl, že komerční využití nemusí nutně naklonit misku vah proti principu „fair use“, zejména pokud je použití zkopírovaného materiálu transformativní. To by mohlo pomoci společnostem, které chtějí využívat obsah k trénování svých algoritmů s nižšími náklady, přičemž potenciální ohledy na ochranu soukromí (jako v rámci BIPA). Mezitím může být pro společnosti také obtížnější řídit a dohlížet na konkurenční programy, které používají jejich kód API pro kompatibilitu s jejich platformami.
D.Healthcare
1.Akční plán FDA pro zdravotnická zařízení AI
V lednu 2021 představil americký Úřad pro kontrolu potravin a léčiv (FDA) svůj první pětidílný akční plán zaměřený na software založený na umělé inteligenci/strojovém učení (AI/ML) jako zdravotnické zařízení (SaMD). Akční plán je víceúrovňový přístup k posílení dohledu úřadu FDA nad SaMD na bázi AI/ML, vyvinutý v reakci na zainteresované strany zpětná vazba obdržená z diskusního dokumentu z dubna 2019 „Navrhovaný regulační rámec pro úpravy softwaru umělé inteligence/strojového učení jako zdravotnického prostředku.“[83] Prohlášená vize FDA je, že „s vhodně přizpůsobeným regulačním dohledem na základě celkového životního cyklu produktu “ SaMD založené na AI/ML “poskytne bezpečnou a efektivní softwarovou funkčnost, která zlepší kvalitu péče, kterou pacienti dostávají.”[84]
Jak bylo navrženo v akčním plánu FDA z ledna 2021, v říjnu 2021 FDA uspořádala veřejný seminář o tom, jak sdílení informací o zařízení podporuje transparentnost pro všechny uživatele zdravotnických prostředků s podporou AI/ML.[85]Uvedený účel workshop byl dvojí: (1) „identifikovat jedinečné úvahy při dosahování transparentnosti pro uživatele zdravotnických prostředků s podporou AI/ML a způsoby, jak by transparentnost mohla zvýšit bezpečnost a účinnost těchto zařízení“; a (2) „shromáždit informace od různých zúčastněných stran o typech informací, které by výrobci pomohly zahrnout do označování zdravotnických prostředků s povolenou AI/ML a informací určených veřejnosti, jakož i dalších potenciálních mechanismů pro sdílení informací [86]
Workshop měl tři hlavní moduly týkající se (1) významu a role transparentnosti; (2) jak podporovat transparentnost; a (3) zasedání pro otevřené veřejné komentáře.[87]Konkrétní panely se zabývaly tématy, jako jsou dojmy pacientů a pohledy lékařů na transparentnost umělé inteligence, role FDA při prosazování transparentnosti a prosazování transparentnosti z pohledu vývojáře.[88]Po workshopu FDA si do 15. listopadu 2021 vyžádala veřejné připomínky týkající se workshopu, které budou v budoucnu brány v úvahu.[89]
2.FDA uvádí seznam AI a zdravotnických prostředků s podporou strojového učení
Dne 22. září 2021 FDA sdílel svůj předběžný seznam SaMD založených na AI/ML, které jsou legálně uváděny na trh v USA. prostřednictvím schválení 510(k), povolení De Novo nebo schválení před prodejem (PMA).[90] Agentura vytvořila tento seznam, aby zvýšila transparentnost a přístup k informacím o SaMD založených na AI/ML a fungovala „jako zdroj pro veřejnost o těchto zařízeních a práci FDA ve vesmíru.“[91]Snaha jde ruku v ruce s rostoucím zájmem o vývoj takových produktů, které přispějí k široké škále klinických oblastí, a rostoucím počtem společností, které chtějí začlenit technologii AI/ML. do lékařských zařízení. FDA poznamenal, že jeden z „největších potenciálních výhod ML spočívá v jeho schopnosti vytvářet nové a důležité poznatky z obrovského množství dat generovaných během poskytování zdravotní péče každý den.“[92]
E.Autonomous Vehicles („AV“)
1.U.S. Federal Developments
V červnu 2021 zástupce Bob Latta (R-OH-5) znovu zavedl zákon Safely Ensuring Lives Future Deployment and Research Act („SELF DRIVE Act“) (H.R. 3711), který by vytvořit federální rámec na pomoc agenturám a průmyslovým odvětvím při zavádění AV po celé zemi a zřídit poradní sbor pro vysoce automatizovaná vozidla v rámci Národního úřadu pro bezpečnost silničního provozu („NHTSA“). Zástupce Latta již dříve předložil návrh zákona 23. září 2020 a v předchozích relacích.[93]
V červnu 2021 také Ministerstvo dopravy (dále jen „DOT“) vydalo svou „Jarní regulační agendu“ a navrhlo, aby NHTSA zavedla přísné testovací standardy pro AV a také národní databázi incidentů pro dokumentaci nehod zahrnujících AV.[94 ] Ministerstvo dopravy uvedlo, že bude příležitost pro veřejné připomínky k návrhům.
Dne 29. června 2021 vydala NHTSA Stálý všeobecný příkaz, který požaduje, aby výrobci a provozovatelé vozidel s pokročilými asistenčními systémy (ADAS) nebo systémy automatického řízení (ADS) hlásili nehody.[95]ADAS je stále běžnější funkcí v nová vozidla, u nichž je vozidlo schopno ovládat určité aspekty řízení a rychlosti. Vozidla vybavená ADS jsou tím, čemu se hovorově říká „samořídící vozidla“, a v současné době nejsou na trhu. Nařízení vyžaduje, aby společnosti musely hlásit nehody v jeden den, kdy jsme se dozvěděli o nehodě, pokud nehoda zahrnovala „zranění ošetřené v nemocnici, smrtelné zranění, odtažení vozidla, aktivaci airbagu nebo zranitelného účastníka silničního provozu, jako je chodec nebo cyklista.“[96] aktualizovaná zpráva je také k dispozici 10 dní poté, co se společnost dozvěděla o havárii.[97]Nařízení také vyžaduje, aby společnosti měsíčně hlásily všechny ostatní havárie týkající se vozidla vybaveného ADS, které zahrnují zranění nebo škodu na majetku.[98]Všechny zprávy předávané NHTSA musí být měsíčně aktualizovány o nové nebo dodatečné informace.[99]
NHTSA si také vyžádala veřejné komentáře v reakci na své předběžné oznámení o navrhovaných pravidlech („ANPRM“), „Rámec pro bezpečnost automatizovaného systému řízení“, do prvního čtvrtletí roku 2021.[100]ANPRM uznalo, že předchozí AV- NHTSA související regulační oznámení „se zaměřila více na konstrukci vozidel, která mohou být vybavena ADS – ne nutně na výkon samotného ADS.“[101]Za tímto účelem hledala NHTSA informace o tom, jak přistupovat k hodnocení výkonu ADS prostřednictvím bezpečnostního rámce a konkrétně to, zda by měl být nahrazen, zrušen nebo upraven jakýkoli zkušební postup pro jakoukoli Federální bezpečnostní normu pro motorová vozidla („FMVSS“) z jiných důvodů než z důvodů týkajících se pouze ADS.NHTSA poznamenala, že „[a ]ačkoli zřízení FMVSS pro ADS může být předčasné, je vhodné začít uvažovat o tom, jak může NHTSA správně využít svůj regulační orgán k podpoře zaměření na bezpečnost, protože technologie ADS se neustále vyvíjí,“ zdůrazňuje, že její přístup se zaměří na flexibilní „přístupy a metriky orientované na výkon“ nad charakteristikami návrhu specifických pro pravidla nebo jinými technickými požadavky.[102]
2. Legislativa pro automatizovaná vozidla v Iowě
V roce 2019 schválili zákonodárci Iowy zákon, který umožňuje vozidlům bez řidiče jezdit na veřejných silnicích v Iowě bez řidiče, pokud vozidlo splňuje určité podmínky, včetně toho vozidlo musí být schopno dosáhnout minimálního rizika, pokud selže systém automatického řízení. Rovněž vyžaduje, aby systém vozidla vyhovoval dopravním zákonům státu Iowa a výrobce musí potvrdit, že výrobce dodržuje všechny příslušné federální bezpečnostní normy pro motorová vozidla.[ 103]V srpnu 2021 Iowa Transportation Commission schválila pravidla pro automatizovaná vozidla. Tyto předpisy zahrnují požadavky, že „výrobce nebo subjekt nesmí v Iowě bez platného povolení testovat vozidla bez řidiče“ a ukládají omezení na to, kdo může mít nárok na povolení k vozidlu bez řidiče.[104]Dává také pravomoc oddělení omezit provoz vozidla „na základě konkrétní funkční klasifikace dálnice, povětrnostních podmínek, dnů v týdnu, denní doby a dalších prvků provozního návrhu, zatímco systém automatického řízení je zapojen.“[105]
F.Financial Services
Uprostřed rostoucího zavádění umělé inteligence v prostoru finančních služeb přinesl rok také obnovený tlak na regulaci takového technologického pokroku. Federální agentury vedly poplatek za vydání mnoha nových předpisů a náhledů další přijdou v roce 2022.
Federální korporace pro pojištění vkladů (FDIC), Rada guvernérů Federálního rezervního systému a Úřad měnové měny se spojily, aby vydaly nové pravidlo pro podávání zpráv o kybernetické bezpečnosti.[106]Pravidlo platí pro veškeré bankovnictví. Organizace[107] řízené agenturou a nutí bankovní organizace, aby do 36 hodin informovaly své primární federální regulační orgány o jakémkoli dostatečně závažném „incidentu počítačové bezpečnosti.“[108]Pravidlo vstoupí v platnost 1. dubna 2022 a všechny regulované subjekty se musí řídit do 1. května 2022.[109]
Kromě nově vydaných předpisů řada agentur signalizovala svou touhu regulovat technologický pokrok ve finančních službách již na začátku roku 2022. Pět agentur společně uspořádalo od 31. března otevřené období pro připomínkování „Využití umělé inteligence finančními institucemi“, 2021, do 1. července 2021, abychom „porozuměli názorům respondentů na používání AI finančními institucemi při poskytování služeb zákazníkům.“[110] Kevin Greenfield, zástupce kontrolora pro politiku operačních rizik u OCC, poznamenal, že RFI by konkrétně osvětlila problém umělé inteligence, která potenciálně porušuje zákony na ochranu spotřebitele, mimo jiné tím, že nejednotně ovlivňuje chráněnou třídu.[111]Tento příval aktivity regulátorů naznačuje aktivní rok 2022, který by mohl obsahovat několik pozoruhodných nových předpisů upravujících používání vyspělé technologie různými formami subjektů finančních služeb.
A.Evropská unie
1.Návrh legislativy EC pro celoevropskou regulaci umělé inteligence
Dne 21. dubna 2021 představila Evropská komise (dále jen „EK“) své velmi očekávané komplexní návrh nařízení o umělé inteligenci (také označovaný jako „zákon o umělé inteligenci“)[112]Jak je zdůrazněno v našem upozornění pro klienty „Vydán návrh EU o nařízení o umělé inteligenci“ a v naší „právní aktualizaci o umělé inteligenci a automatizovaných systémech 3Q20“ , návrh přichází po řadě publikací a politických snah v oblasti umělé inteligence s cílem postavit EU do popředí jak v oblasti regulace umělé inovací, tak v oblasti inovací. Navrhovaný zákon o umělé inteligenci plní slib prezidenta EK předložit právní předpisy pro koordinovaný evropský přístup k lidským a etickým důsledkům umělé inteligence[113] a byly by použitelné a závazné ve všech 27 členských státech EU.
V zájmu „dosažení dvojího cíle, kterým je podpora zavádění umělé inteligence a řešení rizik spojených s určitým používáním takové technologie“[114], EK obecně volí přístup založený na riziku spíše než plošný zákaz technologií. .Zákon o umělé inteligenci však také obsahuje přímé zákazy určitých „praktik AI“ a některá velmi rozsáhlá ustanovení zaměřená na „vysoce rizikové systémy AI“, která trochu připomínají regulační přístup podle obecného nařízení EU o ochraně osobních údajů ( „GDPR“); tj. širokým extrateritoriálním dosahem a vysokými sankcemi, a pravděpodobně vyvolá polemiku a debatu v nadcházejícím legislativním procesu.
Jak píše EK ve své důvodové zprávě k zákonu o umělé inteligenci, navrhovaný rámec pokrývá následující konkrétní cíle:
I když není jisté, kdy a v jaké formě vstoupí zákon o umělé inteligenci v platnost, EK tímto ambiciózním novým návrhem udala tón pro nadcházející politické debaty. Některá ustanovení a povinnosti sice nelze přenést do konečného znění. legislativy, stojí za zmínku, že Evropský parlament již vyzval EK, aby ve svém regulačním rámci upřednostnila etické principy.[115]Proto očekáváme, že navrhovaná pravidla nebudou výrazněji rozmělněna a mohla by být dokonce ještě zpřísněna. nebo využívající systémy umělé inteligence, ať už se sídlem v EU nebo v zahraničí, by měly bedlivě sledovat další vývoj s ohledem na zákon o umělé inteligenci, a zejména rozsah zakázaných „nepřijatelných“ a „vysoce rizikových“ případů použití, které , jak je navrženo, by se mohlo potenciálně vztahovat na velmi širokou škálu produktů a aplikací.
Jsme připraveni pomoci klientům s orientací v potenciálních problémech vyvolaných navrhovanými nařízeními EU, protože nadále pečlivě sledujeme vývoj v tomto ohledu a také reakce veřejnosti. Můžeme a pomůžeme poradit všem klientům, kteří chtějí mít možnost vyjádřit se. v průběhu.
2. Návrh zprávy o umělé inteligenci Evropského parlamentu
Dne 2. listopadu 2021 zveřejnil zvláštní výbor EU svůj návrh zprávy o umělé inteligenci v digitálním věku pro Evropský parlament, která zdůrazňuje výhody používání umělé inteligence jako je boj proti změně klimatu a pandemiím a také různé etické a právní výzvy.[116]Podle návrhu zprávy by EU neměla regulovat umělou inteligenci jako technologii; místo toho by typ, intenzita a načasování regulačního zásahu měly záviset výhradně na typu rizika spojeného s konkrétním používáním systému umělé inteligence. používání AI a obavy z vojenského výzkumu a technologického rozvoje zbraňových systémů bez lidského dohledu.
3. Rada EU navrhuje nařízení o soukromí a elektronických komunikacích
Dne 10. února 2021 poskytla Rada Evropské unie (dále jen „Rada EU“), instituce zastupující vlády členských států EU, mandát k vyjednávání s ohledem na revizi směrnice o soukromí a elektronických komunikacích a zveřejnil aktualizovaný návrh nového nařízení o soukromí a elektronických komunikacích. Na rozdíl od současné směrnice o soukromí a elektronických komunikacích by nové nařízení o soukromí a elektronických komunikacích nemuselo být implementováno do vnitrostátního práva, ale přímo by se uplatňovalo ve všech členských státech EU bez transpozice.
Směrnice o soukromí a elektronických komunikacích obsahuje pravidla týkající se soukromí a důvěrnosti v souvislosti s používáním služeb elektronických komunikací. Aktualizace těchto pravidel je však považována za zásadní vzhledem k rozsáhlému a rychlému technologickému pokroku, k němuž došlo od jejího přijetí. v roce 2002. O novém nařízení o soukromí a elektronických komunikacích, které by zrušilo a nahradilo směrnici o soukromí a elektronických komunikacích, se diskutuje již několik let.
Podle návrhu Rady EU se nařízení o soukromí a elektronických komunikacích bude vztahovat také na data mezi stroji přenášená prostřednictvím veřejné sítě, což by mohlo vést k omezení používání dat společnostmi vyvíjejícími produkty založené na umělé inteligenci a další technologie založené na datech. Obecně platí, že veškerá data elektronických komunikací budou považována za důvěrná, s výjimkou případů, kdy je zpracování nebo jiné použití výslovně povoleno nařízením o soukromí a elektronických komunikacích. zpracování, které probíhá mimo EU a/nebo poskytovatelům služeb usazeným mimo EU, pokud se koncoví uživatelé služeb elektronických komunikací, jejichž údaje jsou zpracovávány, nacházejí v EU.
Na rozdíl od GDPR by se však nařízení o soukromí a elektronických komunikacích vztahovalo na veškerý obsah komunikace přenášený pomocí veřejně dostupných služeb a sítí elektronických komunikací, a nikoli pouze na osobní údaje. Kromě toho metadata (jako je místo a čas přijetí komunikace) také spadají pod oblast působnosti nařízení o soukromí a elektronických komunikacích.
Očekává se, že předloha návrhu projde během vyjednávání s Evropským parlamentem dalšími změnami. Proto se teprve uvidí, zda budou zohledněny konkrétní potřeby vysoce inovativních technologií založených na datech – vytvořením jasných a jednoznačných jiné právní důvody než souhlas uživatele se zpracováním obsahu komunikace a metadat za účelem vývoje, zlepšování a nabízení produktů a aplikací založených na umělé inteligenci. Pokud jednání mezi Radou EU a Evropským parlamentem proběhnou bez dalších průtahů, nové nařízení o soukromí a elektronických komunikacích by mohla vstoupit v platnost nejdříve v roce 2023.
4.EDPB& Výzva EIOÚ k zákazu používání umělé inteligence pro rozpoznávání obličeje ve veřejně přístupných prostorách
Dne 21. června 2021 zveřejnili Evropský výbor pro ochranu údajů („EDPB“) a Evropský inspektor ochrany údajů („EDPS“) společné stanovisko vyzývající k obecnému zákazu „jakéhokoli použití umělé inteligence k automatizovanému rozpoznávání lidských rysů ve veřejně přístupných prostorách, jako je rozpoznávání tváří, chůze, otisků prstů, DNA, hlasu, stisku kláves a dalších biometrických nebo behaviorálních signálů, v jakémkoli kontextu. “[117]
Ve svém stanovisku EDPB a EDPS uvítali přístup založený na rizicích, o který se opírá navrhované nařízení EK o AI, a zdůraznili, že má důležité důsledky pro ochranu údajů. Stanovisko rovněž bere na vědomí úlohu EIOÚ – určeného nařízením EK o AI jako kompetentní orgán a orgán dozoru nad trhem pro dohled nad institucemi EU – by mělo být dále upřesněno.[118]Stanovisko také doporučilo „zákaz systémů umělé inteligence využívajících biometrii ke kategorizaci jednotlivců do skupin na základě etnického původu, pohlaví, politická nebo sexuální orientace nebo jiné důvody, na jejichž základě je zakázána diskriminace podle článku 21 Listiny základních práv.“
EDPB a EDPS dále poznamenali, že „se domnívají, že použití umělé inteligence k vyvozování emocí fyzické osoby je vysoce nežádoucí a mělo by být zakázáno, s výjimkou velmi specifických případů, jako jsou některé zdravotní účely, kdy pacient Rozpoznávání emocí je důležité a že použití umělé inteligence pro jakýkoli typ sociálního hodnocení by mělo být zakázáno.“
A.UK spouští národní strategii pro umělou inteligenci
Dne 22. září 2021 zveřejnila vláda Spojeného království svou „Národní strategii pro umělou inteligenci“ (dále jen „strategie“)[119]. Podle parlamentního zástupce Chris Philip MP, stát na ministerstvu pro digitál, kulturu, média a sport, cílem strategie je nastínit „základy růstu na příštích deset let“, které Spojenému království pomohou využít „potenciálu umělé inteligence“ a umožnit jí utvářet „způsob, jakým jej svět řídí“[120]. Strategie má tři pilíře: (1) investice do dlouhodobých potřeb ekosystémů umělé inteligence; (2) zajištění umělé inteligence prospěšné všem odvětvím a regionům; a (3) efektivní řízení AI.
Za tímto účelem chce Spojené království přilákat globální talenty k vývoji technologií umělé inteligence tím, že bude pokračovat v podpoře stávajících intervencí souvisejících s akademickou sférou a rozšíří cesty, kterými mohou talentovaní výzkumníci a jednotlivci v oblasti umělé inteligence ve Spojeném království pracovat (např. zavádění nových tras VISA). Spojené království se také snaží o přijetí nového přístupu k výzkumu, vývoji a inovacím v AI, například spuštěním Národního programu pro výzkum a inovace AI (R&I), a také mezinárodně spolupracuje na společných výzvách ve výzkumu a vývoji (například implementací americké deklarace Spojeného království o spolupráci ve výzkumu a vývoji AI).
Strategie také zdůrazňuje, že efektivní a proinovační řízení umělé inteligence mimo jiné znamená, že Spojené království má jasný, přiměřený a účinný rámec pro regulaci umělé inteligence, který podporuje inovace a zároveň řeší skutečná rizika a škody. předpisy pro umělou inteligenci jsou uspořádány sektor po sektoru, od hospodářské soutěže po ochranu údajů. Strategie však uznává, že tento přístup může vést k problémům, včetně nekonzistentních přístupů napříč sektory a překrývání mezi regulačními mandáty. K vyřešení tohoto problému nastiňuje třetí pilíř klíčové nadcházející iniciativy zlepšit řízení umělé inteligence: Úřad pro umělou inteligenci zveřejní počátkem roku 2022 bílou knihu, která nastíní postoj vlády k potenciálním rizikům a škodám, které systémy umělé inteligence představují. Vláda také přijme další opatření, včetně pilotního provozu centra pro standardy umělé inteligence za účelem koordinace Spojeného království zapojení do globálního zavádění pravidel umělé inteligence a spolupráce s institutem Alana Turinga na poskytování aktualizovaných pokynů k etickým a bezpečnostním otázkám týkajícím se umělé inteligence.
Vláda Spojeného království zveřejnila rámec etiky, transparentnosti a odpovědnosti pro automatizované rozhodování
Dne 13. května 2021 zveřejnila vláda Spojeného království rámec, který stanoví, jak mohou orgány veřejného sektoru nasadit technologii automatizovaného rozhodování eticky a udržitelně („Rámec“)[121] Rámec rozděluje automatizované rozhodování do dvou kategorií: (1) výhradně automatizované rozhodování – rozhodnutí, která jsou „plně automatizovaná bez lidského úsudku“ ; a (2) automatizované asistované rozhodování – kdy „automatizované nebo algoritmické systémy pomáhají lidskému úsudku a rozhodování.“ Rámec se vztahuje na oba typy a stanoví sedmikrokový proces, který je třeba při používání automatizovaného rozhodování dodržet: (1) test vyhnout se jakýmkoli nezamýšleným výsledkům nebo následkům; (2) poskytovat spravedlivé služby pro všechny uživatele a občany; (3) být jasné, kdo je odpovědný; (4) nakládat s údaji bezpečně a chránit zájmy občanů; (5) pomáhat uživatelům a občanům pochopit, jak je to ovlivňuje; (6) zajistit soulad se zákonem, včetně zákonů o ochraně údajů, zákona o rovnosti z roku 2010 a povinnosti rovného zacházení ve veřejném sektoru; a (7) zajistit, aby algoritmy nebo systémy byly nepřetržitě sledovány a zmírňovány proti nezamýšleným následkům.
C.UK Government Publishing Standard for Algorithmic Transparency
Algoritmická transparentnost znamená otevřenost ohledně toho, jak algoritmické nástroje podporují rozhodování. Centrální digitální a datový úřad Úřadu vlády (dále jen „CDDO“) vyvinul algoritmický standard transparentnosti pro vládní ministerstva a orgány veřejného sektoru, který byl zveřejněn 29. listopadu 2021[122] (dále jen „Standard“). z prvních zemí na světě, které vytvořily národní standard pro algoritmickou transparentnost. Standard je ve zkušební fázi, po které CDDO standard přezkoumá na základě shromážděné zpětné vazby a v roce 2022 požádá o formální schválení Data Standards Authority.
D.ICO nabízí přehled o své politice týkající se používání živého rozpoznávání obličeje ve Spojeném království
Dne 18. června 2021 zveřejnil Úřad komisaře pro informace („ICO“) stanovisko komisaře k používání živého rozpoznávání obličeje (“LFR”) ve Spojeném království (dále jen “Posudek”).[123]Rozpoznávání obličeje je proces, kterým lze osobu identifikovat nebo jinak rozpoznat z digitálního snímku obličeje. LFR je druh rozpoznávání obličeje technologie, která často zahrnuje automatický sběr biometrických údajů. Komisař dříve v roce 2019 zveřejnil stanovisko k používání LFR v kontextu vymáhání práva, v němž dospěl k závěru, že zákon na ochranu údajů stanoví „vysoké standardy“ pro to, aby používání LFR bylo zákonné. ve veřejných prostranstvích. Stanovisko staví na této práci a zaměřuje se na používání LFR ve veřejných prostorech – definovaných jako jakýkoli fyzický prostor mimo domácí prostředí, ať už ve veřejném nebo soukromém vlastnictví – mimo orgány činné v trestním řízení. Stanovisko objasňuje, že v první řadě , správci, kteří chtějí používat LFR, musí dodržovat obecné nařízení o ochraně osobních údajů Spojeného království („GDPR Spojeného království“) a zákon o ochraně osobních údajů z roku 2018.
Pokud jde o vymáhání, ICO dne 29. listopadu 2021 oznámilo svůj záměr uložit společnosti Clearview AI Inc potenciální pokutu ve výši pouhých 17 milionů GBP za údajné shromažďování snímků značného počtu lidí ze Spojeného království bez jejich vědomí. porušení zákonů Spojeného království na ochranu osobních údajů. ICO také vydalo předběžné oznámení společnosti, aby zastavila další zpracování osobních údajů lidí ve Spojeném království a vymazala je. Předběžný názor ICO je, že Clearview AI zřejmě nedodržela Zákony Spojeného království na ochranu údajů několika způsoby, včetně toho, že nemají zákonný důvod pro shromažďování informací a nesplňují vyšší standardy ochrany údajů vyžadované pro biometrická data podle britského GDPR. Clearview AI Inc bude mít nyní příležitost vyjádřit se k údajných porušení, po kterých se očekává, že ICO učiní konečné rozhodnutí. Toto opatření přijaté ICO zdůrazňuje, že je důležité zajistit, aby společnosti byly v souladu se zákony Spojeného království na ochranu údajů před zpracováním a nasazením biometrických údajů.
E.UK Financial Regulator slibuje, že podpoří používání umělé inteligence při dohledu
Britský úřad pro obezřetnostní regulaci (“PRA”) hodlá podle svého obchodního plánu pro 2021/22.[124]Zaměření na umělou inteligenci je součástí cíle PRA dodržet závazky stanovené v její odpovědi na zprávu o budoucnosti financí (zveřejněnou v roce 2019), aby dále rozvíjela svou strategii RegTech. Zpráva o budoucnosti financí doporučila, aby supervizoři využili pokračujícího vývoje v oblasti datové vědy a výkonu zpracování dat, včetně umělé inteligence a strojového učení, které automatizují sběr a zpracování dat.[125]
F.Consultation on the Future Regulation of Medical Devices in the UK
Dne 16. září 2021, Medicines & Agentura pro regulaci zdravotních produktů („MHRA“) zveřejnila „Konzultaci o budoucí regulaci zdravotnických prostředků ve Spojeném království“, která probíhala do 25. listopadu 2021 („Konzultace“).[126] Konzultace vyzvala veřejnost, aby poskytla své názory na možné změny regulačního rámce pro zdravotnické prostředky ve Spojeném království s cílem vyvinout budoucí režim pro zdravotnické prostředky, který umožní (i) lepší bezpečnost pacientů a veřejnosti; (ii) větší transparentnost regulačního rozhodování a informací o zdravotnických prostředcích; iii) úzkého souladu s mezinárodními osvědčenými postupy a iv) pružnější, citlivější a přiměřenější regulace zdravotnických prostředků.
Konzultace obsahovala navrhované změny pro Software jako zdravotnický prostředek („SaMD“) včetně AI jako zdravotnické zařízení („AIaMD“) s tím, že současná nařízení o zdravotnických pomůckách obsahují několik ustanovení specificky zaměřených na regulaci SaMD nebo AIaMD. Návrhy MHRA proto zahrnují úpravu předpisů o zdravotnických prostředcích ve Spojeném království s cílem jak chránit pacienty, tak podporovat odpovědné inovace v oblasti digitálního zdraví. Některé z možných změn, které MHRA předložila v rámci konzultace, zahrnují (mimo jiné) definování „softwaru“, vyjasnění nebo přidání požadavky na prodej SaMD elektronickými prostředky, změnou klasifikace SaMD, aby bylo zajištěno, že kontrola uplatňovaná na tyto zdravotnické prostředky bude více odpovídat úrovni jejich rizika a bude více harmonizována s mezinárodní praxí. framework zařízení vstoupí v platnost v červenci 2023.
Agentura MHRA také samostatně zveřejnila rozsáhlý pracovní program o softwaru a umělé inteligenci jako zdravotnickém prostředku, který má přinést odvážnou změnu, která poskytne regulační rámec poskytující vysoký stupeň ochrany pacientům a veřejnosti, ale také zajistit, aby Spojené království bylo domovem odpovědných inovací softwaru zdravotnických prostředků.[127]Jakákoli legislativní změna navržená v pracovním programu bude vycházet z širších reforem regulace zdravotnických prostředků, které přinesla konzultace.
__________________________
[1]Steven Overly & Melissa Heikkilä: „Čína chce ovládnout AI. USA a Evropa se navzájem potřebují, aby to zkrotily.“ Politico (2. března 2021), dostupné na https://www.politico.com/news/2021/03/02/china-us-europe-ai- předpis-472120.
[2]Id.
[3]Id.
[4]Další podrobnosti naleznete v naší výroční zprávě za čtvrté čtvrtletí a v roce 2020 o umělé inteligenci a automatizovaných systémech.
[5]Bílý dům, tisková zpráva (archivováno), Bílý dům spouští úřad National Artificial Intelligence Initiative Office (12. ledna 2021), dostupný na https://trumpwhitehouse.archives.gov/briefings-statements/ White-house-spouští-národní-umělá-iniciativa-kancelář/.
[6]Id.
[7]Bílý dům, Memorandum o obnovení důvěry ve vládu prostřednictvím vědecké integrity a tvorby politik založených na důkazech (27. ledna 2021), dostupné na https://www.whitehouse.gov/briefing-room/presidential- actions/2021/01/27/memorandum-on-restoring-důvěra-ve-vládě-prostřednictvím-vědecké-integrity-and-evidence-based-policymaking/.
[8]Dopis od zástupkyně ředitele Jane Lubchenco a zástupce ředitele Alondry Nelsonové, OSTP všem federálním agenturám (29. března 2021), dostupný na https://int.nyt.com/data/documenttools/si-task- vynutit-nominace-průvodní-dopis-a-výzva-pro-nominace-ostp/ecb33203eb5b175b/full.pdf.
[9]Bílý dům, výkonný příkaz k Radě prezidentských poradců pro vědu a technologii (27. ledna 2021), k dispozici na https://www.whitehouse.gov/briefing-room/presidential-actions/ 2021/01/27/výkon-nařízení-předsedů-rady-poradců-pro-vědu-a-techniku/.
[10]Dan Reilly, „White House A.I. ředitel říká, že USA by měly modelovat evropský přístup k regulaci,“ Fortune (10. listopadu 2021), dostupné na https://fortune.com/2021/11/10/white-house-a-i-director-regulation/.
[11]S. 1260, 117. kong. (2021).
[12]Id., §§4201-4207.
[13]Id., §4202.
[14]Id., §4204. Další podrobnosti o zprávě NSCAI a exekutivním nařízení pro rok 2020 naleznete v naší výroční zprávě za čtvrté čtvrtletí a v roce 2020 o umělé inteligenci a automatizovaných systémech.
[15]Bílý dům, „Připojte se k úsilí vytvořit listinu práv pro automatizovanou společnost“ (10. listopadu 2021), k dispozici na https://www.whitehouse.gov/ostp/news-updates/ 2021/11/10/připoj se-k-úsilí-vytvořit-vyúčtování-práv-pro-automatizovanou-společnost/.
[16]Dave Nyczepir, „Šéf technologické politiky Bílého domu říká, že listina práv AI potřebuje „zuby“, FedScoop (10. listopadu 2021), dostupné na https://www.fedscoop.com/ai-bill -právo-zuby/.
[17]Id.
[18]Office of Science and Technology Policy, Notice of Request for Information (RFI) o využití biometrických technologií veřejným a soukromým sektorem (8. října 2021), dostupné na https://www.federalregister.gov/ dokumenty/2021/10/08/2021-21975/oznámení-o-žádosti-o-informace-rfi-o použití-biometrických-technologií ve veřejném a soukromém sektoru.
[19]USA Government Accountability Office, Artificial Intelligence: An Accountability Framework for Federal Agencies and other Entities, Highlights of GAO-21-519SP, available at https://www.gao.gov/assets/gao-21-519sp-highlights.pdf.
[20]Klíčové monitorovací postupy identifikované GAO jsou zvláště důležité pro organizace a společnosti, které chtějí implementovat programy řízení a dodržování předpisů pro systémy založené na umělé inteligenci a vyvinout metriky pro hodnocení výkonu systému. Zpráva GAO uvádí, že monitorování je kritickým nástrojem z několika důvodů: za prvé je nutné neustále analyzovat výkon modelu umělé inteligence a dokumentovat zjištění, aby bylo možné určit, zda výsledky odpovídají očekávání, a za druhé je monitorování klíčové tam, kde je systém buď se zvětšují nebo rozšiřují, nebo tam, kde se příslušné zákony, programové cíle a provozní prostředí mění v průběhu času.
[21]Návrh speciální publikace NIST 1270, Návrh na identifikaci a řízení zkreslení v umělé inteligenci (červen 2021), k dispozici na https://nvlpubs.nist.gov/nistpubs/SpecialPublications/NIST.SP.1270-draft .pdf?_sm_au_=iHVbf0FFbP1SMrKRFcVTvKQkcK8MG.
[22]Národní institut vědy a technologie, přijaté komentáře k návrhu na identifikaci a řízení zkreslení v umělé inteligenci (SP 1270), dostupné na https://www.nist.gov/artificial-intelligence/comments-received -proposal-identifying-and-managing-bias-artificial.
[23]H.R. 5515, 115. kongres (2017-18).
[24]Národní bezpečnostní komise pro umělou inteligenci, předchozí zprávy, dostupné na https://www.nscai.gov/previous-reports/.
[25]NSCAI, The Final Report (1. března 2021), k dispozici na https://www.nscai.gov/wp-content/uploads/2021/03/Full-Report-Digital-1.pdf.
[26]Oddělení Defence Innovation Unit, Responsible AI Guidelines: Operationalizing DoD’s Ethical Principles for AI (14. listopadu 2021), dostupné na https://www.diu.mil/responsible-ai-guidelines.
[27]Zabezpečení dodavatelského řetězce informačních a komunikačních technologií a služeb, Ministerstvo obchodu USA, 86 Fed. Reg. 4923 (19. ledna 2021) (dále jen „Prozatímní konečné pravidlo“).
[28]Další informace naleznete v naší právní aktualizaci týkající se umělé inteligence a automatizovaných systémů (1Q21).
[29]S. 1776, 117. kong. (2021).
[30]S. 1705, 117. kong. (2021).
[31]Portman, Heinrich oznamují návrhy dvoustranných zákonů o umělé inteligenci, které jsou součástí zákona o autorizaci národní obrany za fiskální rok 2022, Úřad senátora Roba Portmana (15. prosince 2021), dostupné na https://www.portman.senate.gov /zpravodajství/tiskové-zprávy/portman-heinrich-announce-bipartisan-umělá-inteligence-bills-included.
[32]FTC, Business Blog, Elisa Jillson, Zaměření na pravdu, spravedlnost a spravedlnost při používání AI vaší společností (19. dubna 2021), dostupné na https://www.ftc.gov/news-events /blogs/business-blog/2021/04/aiming-truth-fairness-equity-your-companys-use-ai.
[33]FTC, Ochrana soukromí spotřebitelů v době krize, poznámky úřadující předsedkyně Rebeccy Kelly Slaughter, Future of Privacy Forum (10. února 2021), dostupné na https://www.ftc.gov/system /files/documents/public_statements/1587283/fpf_opening_remarks_210_.pdf.
[34]FTC, Using Artificial Intelligence and Algorithms (8. dubna 2020), dostupné na https://www.ftc.gov/news-events/blogs/business-blog/2020/04/using-artificial- inteligenční algoritmy.
[35]Předsedkyně FTC, Lina M. Khanová oznamuje nové jmenování na vedoucích pozicích agentur (19. listopadu 2021), dostupné na https://www.ftc.gov/news-events/press-releases/2021 /11/ftc-chair-lina-m-khan-announces-new-appointments-agency.
[36]FTC, Resolution Directing Use of the Compusive Process Pokud jde o zneužívání duševního vlastnictví (2. září 2021), dostupné na https://www.law360.com/articles/1422050/attachments/0.Tato usnesení byla prošel demokratickými komisaři při hlasování 3-2 stran. Komisaři GOP vydali nesouhlasné prohlášení, v němž tvrdili, že paušální oprávnění odstraňují dohled komise, aniž by dělali nic pro zefektivnění vyšetřování.
[37]Ben Brody, úředník FTC, varuje před zabavením algoritmů „odšťavněných špatně získanými daty“ (27. července 2021), dostupné na https://www.protocol.com/bulletins/ftc-seize-algorithms- špatně nabytý?_sm_au_=iHV5LNM5WjmJt5JpFcVTvKQkcK8MG.
[38]FTC se již dříve spoléhala na § 13(b) při prosazování disgorgementu prostřednictvím soudního příkazu, zejména pokud jde o porušení ochrany spotřebitele. Nejvyšší soud však shledal, že ustanovení o soudním příkazu opravňuje FTC pouze k tomu, aby požadovala soudní příkaz k zastavení nezákonné činnosti, a nedávalo jí pravomoc žádat soud o uložení peněžních sankcí. Podobný návrh zákona, který byl představen v týdnu od rozhodnutí Nejvyššího soudu, které podpořilo 25 státních zástupců a prezident Joe Biden, prošlo v létě Sněmovnou reprezentantů v téměř stranickém hlasování, ale dosud neprošlo Senátem. Republikáni se postavili proti této iniciativě kvůli obavám o splatnost proces a 10letá promlčecí lhůta návrhu zákona. Nový návrh zákona na druhou stranu obsahuje tříletou promlčecí lhůtu a znění, které požaduje, aby komise prokázala, že společnost obviněná z porušení zákona tak učinila úmyslně.
[39]S. _ 117. kong. (2022-2023) https://www.law360.com/cybersecurity-privacy/articles/1449355/gop-sen-floats-bill-to-restore-ftc-s-restitution-powers?nl_pk=4e5e4fee-ca5f-4d2e -90db-5680f7e17547&utm_source=newsletter&utm_medium=email&utm_campaign=cybersecurity-privacy
[40]Harry Brignull, PhD, který vytvořil termín „temné vzory“, vyvinul taxonomii, která může zahrnovat: trikové otázky; vplížit se do košíku (při online nákupu se do košíku vkládají položky na poslední chvíli bez zapojení uživatele); roach motel (služby lze snadno zadat, ale je obtížné je zrušit); nadměrné zveřejnění soukromí (uživatelé jsou podvedeni, aby sdíleli nebo zveřejnili více informací, než bylo zamýšleno); prevence porovnávání cen (webové stránky ztěžují porovnávání cen od jiných poskytovatelů); nesprávné nasměrování; skryté náklady; nalákat a změnit; potvrzování zahanbení (uživatelé jsou z něčeho vinni nebo možnost odmítnutí je formulována tak, aby uživatele zahanbila, např. „Ne, nechci šetřit peníze“); skryté reklamy; vynucená kontinuita (bezplatná zkušební verze se nečekaně změní v placené předplatné); a spam přátel (seznam kontaktů uživatelů se používá k odesílání nežádoucích zpráv od uživatele). Viz Harry Brignull, Typy tmavého vzoru, Tmavé vzory, dostupné na https://www.darkpatterns.org/types-of-dark-pattern.
[41]Bringing Dark Patterns to Light: An FTC Workshop, Federal Trade Commission, 29. dubna 2021, dostupné na https://www.ftc.gov/news-events/events-calendar/bringing-dark-patterns -light-ftc-workshop.
[42]Jon Hill, nejnovější zákon CFPB na velké technologie může být datovým zákonem ze 70. let, Law360 (16. listopadu 2021), dostupný na https://www.law360.com/technology/articles/1439641/cfpb- s-newest-hook-on-big-tech-may-be-1970-data-law?nl_pk=0d08c9f5-462a-4ad6-9d20-292663da6d5e&utm_source=newsletter&utm_medium=email_campaign.
[43]CFPB, CFPB podniká kroky k zastavení falešné identifikace pracovníky prověřujícími pozadí (4. listopadu 2021), dostupné na https://www.consumerfinance.gov/about-us/newsroom/cfpb-takes-action- to-stop-false-identification-by-background-screeners/?_sm_au_=iHVFR9tfrf49TNNMFcVTvKQkcK8MG.
[44]EEOC, EEOC zahajuje iniciativu pro umělou inteligenci a algoritmickou spravedlnost (28. října 2021), k dispozici na https://www.eeoc.gov/newsroom/eeoc-launches-initiative-artificial-intelligence-and -algoritmická-férovost?_sm_au_=iHV5LNM5WjmJt5JpFcVTvKQkcK8MG.
[45]FTC, In the Matter of Everalbum, Inc. and Paravision, Commission File No. 1923172 (11. ledna 2021), dostupné na https://www.ftc.gov/enforcement/cases-proceedings/ 1923172/everalbum-inc-hmot.
[46]FTC, Prohlášení komisaře Rohita Chopra, In the Matter of Everalbum and Paravision, Commission File No. 1923172 (8. ledna 2021), dostupné na https://www.ftc.gov/system/files /documents/public_statements/1585858/updated_final_chopra_statement_on_everalbum_for_circulation.pdf.
[47] Viz např. Vance v. Amazon, 2:20-cv-01084-JLR (W.D. Wash. 7. října 2021); Vernita Miracle-Pond a kol. v. Shutterfly Inc., č. 2019-CH-07050, (Ill. Cir. Ct. of Cook County); Carpenter v. McDonald’s Corp., č. 2021-CH-02014 (Ill. Cir. Ct. 28. května 2021); Rivera v. Google, Inc., č. 1:16-cv-02714 (N.D. Ill. 30. srpna 2021); Pena v. Microsoft Corp., č. 2021-CH-02338 (Ill. Cir. Ct. 12. května 2021); B.H. v. Amazon.com Inc., č. 2021-CH-02330 (Ill. Cir. Ct. 12. května 2021), Pruden v. Lemonade, Inc., č. 1:21-cv-07070 (S.D.N.Y. 20. srpna , 2021).
[48]S. _, 117. kong. (2021); viz také Tisková zpráva, Senators Markey, Merkley Lead Collagues on Legislatíva zakazující vládní používání rozpoznávání obličeje, jiné biometrické technologie (15. června 2021), k dispozici na https://www.markey.senate.gov/news/press-releases /senátoři-markey-merkley-vedou-kolegy-na-legislativě-zakázat-vlády-používání-rozpoznávání-obličeje-jiné-biometrické-technologie.
[49]Další podrobnosti naleznete v našich předchozích upozorněních: Výroční přehled umělé inteligence a automatizovaných systémů za čtvrté čtvrtletí a rok 2020.
[50]H.B. 2031, Reg. Zasedání (2020–2021).
[51]Další podrobnosti najdete v naší výroční zprávě za čtvrté čtvrtletí a v roce 2020 o umělé inteligenci a automatizovaných systémech.
[52]S. 1896, 117. kong. (2021); viz také Tisková zpráva, senátor Markey, Rep. Matsui Zavedení právních předpisů pro boj proti škodlivým algoritmům a vytvoření nového režimu online transparentnosti (27. května 2021), dostupné na https://www.markey.senate.gov/news/press-releases/ senátor-markey-rep-matsui-zavést-legislativa-k-bojovat-škodlivé-algoritmy-a-vytvořit-nový-online-transparentní-režim.
[53]H.R. 3723, 117. kong. (2021).
[54]Elise Hansen, House Clears Bill To Study Crypto And Consumer Protection, Law360 (23. června 2021), dostupné na https://www.law360.com/articles/1396110/house-clears-bill-to -studujte-krypto-a-ochranu-spotřebitele.
[55]S. 2134, 117. kong. (2021); viz také Tisková zpráva, Kancelář americké senátorky Kirsten Gillibrand, Tisková zpráva, Gillibrand zavádí novou a vylepšenou agenturu Consumer Watchdog, která dává Američanům kontrolu nad jejich daty (17. června 2021), k dispozici na https://www.gillibrand.senate.gov /news/press/release/gillibrand-introduces-new-and-improved-consumer-watchdog-agency-to-give-americans-control-over- their-data.
[56]Podle navrhované legislativy jsou „osobní údaje“ definovány jako „elektronické údaje, které samostatně nebo v kombinaci s jinými údaji – (A) identifikují, vztahují se k nim, popisují, mohou být spojovány nebo by mohly být přiměřeně spojen, přímo nebo nepřímo, s konkrétní osobou, domácností nebo zařízením; nebo (B) lze použít k určení, že jednotlivec nebo domácnost je součástí chráněné třídy.“ Zákon o ochraně dat z roku 2021, S. 2134, 117th Cong. § 2(16) (2021).
[57]Id., § 2(3) (2021).
[58]Id., § 2(11)-(13) (2021).
[59]H.R. 5921 (2021), dostupné na https://www.congress.gov/bill/117th-congress/house-bill/5921/cosponsors?s=1&r=90&overview=closed; S.B. 2024 (2021), k dispozici na https://www.congress.gov/bill/117th-congress/senate-bill/2024/text.
[60]USA Senátní výbor pro vnitřní bezpečnost & Vládní záležitosti, tech lídři podporují Portmanův zákon Bipartisan Deepfake Task Force Act k vytvoření Task Force v DHS pro boj proti Deepfakes (30. července 2021), dostupný na https://www.hsgac.senate.gov/media/minority-media/tech- vedoucí-podpora-portmanů-bipartisan-deepfake-task-force-act-to-create-task-force-at-dhs-to-combat-deepfakes.
[61]Další podrobnosti najdete v naší výroční zprávě za čtvrté čtvrtletí a 2020 o umělé inteligenci a automatizovaných systémech.
[62]S.B. 5116, Reg. Zasedání (2021–22).
[63]Poslanci Monica Nickelsburg, stát Washington se snaží zakázat vládě používat diskriminační technologii umělé inteligence, GeewWire (13. února 2021), k dispozici na https://www.geekwire.com/2021/washington-state-lawmakers -seek-ban-government-using-ai-tech-diskriminates/.
[64]N.Y.C., č. 1894-2020A (11. listopadu 2021), dostupné na https://legistar.council.nyc.gov/LegislationDetail.aspx?ID=4344524&GUID=B051915D-A9AC- -81F8-6596032FA3F9.
[65]Viz Thaler v. Hirshfeld, č. 120CV903LMBTCB, 2021 WL 3934803, na *8 (E.D. Va. 2. září 2021) (s poznámkou „převažující důkazy, že Kongres zamýšlel omezit definici „vynálezce“ na fyzické osoby.”).
[66]Viz např. Univ. of Utah v. Max-Planck-Gesellschaft, 734 F.3d 1315, 1323 (Fed. Cir. 2013); Beech Aircraft Corp. v. EDO Corp., 990 F.2d 1237, 1248 (Fed. Cir. 1993).
[67]Projekt Artificial Inventor Project ambiciózně popisuje DABUS jako pokročilý systém umělé inteligence. DABUS je „kreativní nervový systém“, který je „chaoticky stimulován k vytváření potenciálních nápadů, protože jedna nebo více sítí vyjadřují názor na kandidátské koncepty“ a "může být považováno za "senzitivní" v tom, že jakýkoli koncept založený na řetězcích spouští řadu vzpomínek (tj. ovlivňujících řetězců), které někdy končí kritickými vzpomínkami, čímž spouští příliv umělých molekul." Ryan Abbott, umělý vynálezce za tímto projektem , k dispozici na https://artificialinventor.com/dabus/.
[68]Ryan Abbott, The Artificial Inventor Project, dostupný na https://artificialinventor.com/frequently-asked-questions/.
[69]Thaler v. Hirshfeld, 2021 WL 3934803, v *2.
[70]Id. v *2.
[71]Id. v 8.
[72]Evropský patentový úřad, EPO, 28. ledna 2020 zveřejnil důvody pro své rozhodnutí zamítnout dvě patentové přihlášky, v nichž byl stroj označen jako vynálezce, dostupné na https://www.epo.org/news-events/ news/2020/20200128.html.
[73]Dani Kass, odvolací výbor EPO potvrzuje, že vynálezci mohou být pouze lidé, zákon 360, 21. prosince 2021.
[74]Thomas Kirby, britský soud zamítl DABUS – AI stroj nemůže být vynálezcem, Lexology, 14. prosince 2021.
[75]První světový patent udělený za vynález vytvořený umělou inteligencí by mohl mít seismické dopady na právo duševního vlastnictví, University of Surrey, 28. července 2021.
[76]Gene Quinn, DABUS získává svůj první patent v Jižní Africe pod kontrolou formalit, IP Watchdog, 29. července 2021, k dispozici na https://www.ipwatchdog.com/2021/07/29/dabus-gets -první-patent-jiho-africká-zkouška-formalit/id=136116/.
[77]Thaler vs. Patentový komisař [2021] FCA 879.
[78]Google LLC v. Oracle Am., Inc., č. 18-956, 2021 WL 1240906, (USA, 5. dubna 2021).
[79]Id., v *3.
[80]Id. v *20.
[81]Viz id.
[82]Bill Donahue, Pravidla Nejvyššího soudu pro Google In Oracle Copyright Fight, Law360 (5. dubna 2021), dostupné na https://www.law360.com/ip/articles/1336521.
[83]Viz U.S. Food & Drug Admin., software založený na umělé inteligenci/strojovém učení (AI-ML) jako lékařský prostředek (SaMD) Action Plan 1-2 (2021), https://www.fda.gov/media/145022/download [dále Akční plán FDA AI]; U.S. Food & Drug Admin., FDA vydává akční plán pro umělou inteligenci/strojové učení (12. ledna 2021), https://www.fda.gov/news-events/press-announcements/fda-releases-artificial-intelligencemachine-learning-action -plán.Viz také U.S. Food & Drug Admin., Navrhovaný regulační rámec pro úpravy softwaru založeného na umělé inteligenci/strojovém učení (AI/ML) jako zdravotnické zařízení (SaMD) Diskusní dokument a žádost o zpětnou vazbu (2019), https://www.fda.gov/ média/122535/stáhnout.
[84]Akční plán FDA pro umělou inteligenci, viz poznámka 1, na 1.
[85]USA Jídlo & Drug Admin., Virtuální veřejný workshop – Transparentnost zdravotnických prostředků s podporou umělé inteligence/strojového učení (poslední aktualizace 26. listopadu 2021) https://www.fda.gov/medical-devices/workshops-conferences-medical-devices/ virtuální-veřejná-dílna-průhlednost-umělá-inteligence-lékařské-lékařské-přístroje-umožněné-strojové-učení.
[86]Id.
[87]Id.
[88]Id.
[89]Id.
[90]USA Jídlo & Zdravotnická zařízení s podporou správy léků, umělé inteligence a strojového učení (AI/ML) (poslední aktualizace 22. září 2021), https://www.fda.gov/medical-devices/software-medical-device-samd/ zdravotnická zařízení s umělou inteligencí a strojovým učením.
[91]Id.
[92]Id.
[93]Jak jsme řešili v předchozích právních aktualizacích, sněmovna dříve v září 2017 hlasovým hlasováním schválila zákon SELF DRIVE (H.R. 3388), ale jeho doprovodný zákon (Americká vize pro bezpečnější dopravu prostřednictvím pokroku revolučních technologií ( „AV START“) zákon (S. 1885)) se v Senátu zastavil. Další podrobnosti najdete v našem čtvrtletním a výročním přehledu umělé inteligence a automatizovaných systémů za rok 2020.
[94]U.S. Dep't of Transp., Tisková zpráva, Ministerstvo dopravy USA zveřejnilo jarní regulační agendu (11. června 2021), dostupné na https://www.transportation.gov/briefing-room/us-department-transportation-releases-spring -regulační agenda.
[95]U.S. Dep't of Transp., NHTSA objednává hlášení nehod pro vozidla vybavená pokročilými asistenčními systémy pro řidiče a systémy automatizovaného řízení, které je k dispozici na https://www.nhtsa.gov/press-releases/nhtsa-orders-crash-reporting-vehicles- vybavené-pokročilé-asistenční-systémy pro řidiče
[96]Id.
[97]Id.
[98]Id.
[99]Id.
[100]49 CFR 571, dostupné na https://www.nhtsa.gov/sites/nhtsa.gov/files/documents/ads_safety_principles_anprm_website_version.pdf
[101]Id., v 6.
[102]Id., v 7-8.
[103]SF 302, Reg. Zasedání (2019–2020).
[104]ARC 5621C, Oznámení o zamýšlené akci, dostupné na https://rules.iowa.gov/Notice/Details/5621C.
[105]Id.
[106]Carly Page, americké banky musí brzy hlásit významné kybernetické incidenty do 36 hodin (19. listopadu 2021), dostupné na https://techcrunch.com/2021/11/19/us-banks-report -cybersecurity-incidents/?guccounter=1.
[107]„Bankovní organizace“ je termín definovaný v pravidle a vztahuje se na mírně odlišnou kombinaci subjektů s ohledem na každou agenturu.
[108]86 Fed. Reg. 66424.
[109]Id. na čísle 66438.
[110]86 Fed. Reg. 16837.
[111]Al Barbarino, Bank Regulators Eye Aktualizované pokyny k boji proti předsudkům v AI (21. října 2021), dostupné na https://www.law360.com/cybersecurity-privacy/articles/1433299/.
[112]EC, Návrh nařízení Evropského parlamentu a Rady, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci a mění některé legislativní akty Unie (zákon o umělé inteligenci), KOM(2021) 206 (21. dubna 2021) , k dispozici na https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-european-approach-artificial-intelligence.
[113]Ursula von der Leyen, Unie, která usiluje o víc: Moje agenda pro Evropu, k dispozici na https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next -commission_en.pdf.
[114]Výše, poznámka 39, str. 1.
[115] Evropský parlament, usnesení ze dne 20. října 2020 s doporučeními Komisi o rámci etických aspektů umělé inteligence, robotiky a souvisejících technologií (2020/2012 (INL)) (20. října 2020), k dispozici na https://www.europarl.europa.eu/doceo/document/TA-9-2020-0275_EN.pdf. Další podrobnosti naleznete v naší „právní aktualizaci 3Q20 umělé inteligence a automatizovaných systémů“.
[116]Návrh zprávy o AI v digitálním věku pro Evropský parlament (2. listopadu 2021), dostupný na https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/AIDA/ PR/2021/11-09/1224166EN.pdf
[117]Společné stanovisko 5/2021 k návrhu nařízení Evropského parlamentu a Rady, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci, dostupné na https://edpb.europa.eu/system/files/2021 -06/edpb-edps_joint_opinion_ai_regulation_en.pdf.
[118]EDPS, tisková zpráva, EDPB & Výzva EIOÚ k zákazu používání umělé inteligence pro automatické rozpoznávání lidských vlastností ve veřejně přístupných prostorech a některá další použití umělé inteligence, která mohou vést k nespravedlivé diskriminaci (21. června 2021), k dispozici na https://edps.europa.eu/ press-publications/press-news/press-relases/2021/edpb-edps-call-ban-use-ai-automated-recognition_en?_sm_au_=iHVWn7njFDrbjJK3FcVTvKQkcK8MG.
[119]Vláda Spojeného království, Národní strategie umělé inteligence (22. září 2021), k dispozici na https://www.gov.uk/government/publications/national-ai-strategy.
[120]Vláda Spojeného království, nový desetiletý plán učinit z Velké Británie globální supervelmoc v oblasti umělé inteligence (22. září 2021), dostupný na https://www.gov.uk/government/news/new-ten-year- plan-to-make-britania-global-ai-superpower.
[121] Rámec vlády, etiky, transparentnosti a odpovědnosti Spojeného království pro automatizované rozhodování (13. května 2021), dostupný na https://www.gov.uk/government/publications/ethics-transparency-and-accountability- rámec-pro-automatizované-rozhodování.
[122] Vláda Spojeného království, vláda Spojeného království publikuje průkopnický standard pro transparentnost algoritmů (29. listopadu 2021), který je k dispozici na https://www.gov.uk/government/news/uk-government-publishes-pioneering-standard- pro-algoritmickou-transparentnost-2.
[123]Vláda Spojeného království, Úřad komisaře pro informace, Používání technologie živého rozpoznávání obličeje na veřejných místech (18. června 2021), dostupné na https://ico.org.uk/media/for-organisations/documents/ 2619985/iko-názor-použití-lfr-na-veřejných-místech-20210618.pdf.
[124]Vláda Spojeného království, Obchodní plán Prudential Regulation Authority 2021/22 (24. května 2021), dostupné na https://www.bankofengland.co.uk/prudential-regulation/publication/2021/may/ pra-business-plan-2021-22.
[125]Vláda Spojeného království, Future of Finance, Bank of England (červen 2019), dostupné na https://www.bankofengland.co.uk/-/media/boe/files/report/2019/future -of-finance-report.pdf?la=cs&hash=59CEFAEF01C71AA551E7182262E933A699E952FC.
[126]Vláda Spojeného království, Konzultace o budoucí regulaci zdravotnických prostředků ve Spojeném království (16. září 2021), dostupné na https://www.gov.uk/government/consultations/consultation-on -budoucí-regulace-lékařských-pomůcek-ve-spojeném království.
[127]Vláda Spojeného království, software a umělá inteligence jako program změny zdravotnického zařízení (16. září 2021), k dispozici na https://www.gov.uk/government/publications/software-and-ai- jako program výměny zdravotnického prostředku.
Tuto aktualizaci klienta připravili následující právníci Gibson Dunn: H. Mark Lyon, Frances Waldmann, Emily Lamm, Tony Bedel, Kevin Kim, Brendan Krimsky, Prachi Mistry, Samantha Abrams-Widdicombe, Leon Freyermuth, Iman Charania a Kanchana Harendran.
Právníci společnosti Gibson Dunn jsou k dispozici, aby vám pomohli s řešením jakýchkoli otázek, které byste mohli mít ohledně tohoto vývoje. Obraťte se prosím na právníka společnosti Gibson Dunn, se kterým obvykle spolupracujete, na kteréhokoli člena skupiny pro umělou inteligenci a automatizované systémy společnosti nebo na následující autory:
H. Mark Lyon – Palo Alto (+1 650-849-5307, mlyon@gibsondunn.com)Frances A. Waldmann – Los Angeles (+1 213-229-7914,fwaldmann@gibsondunn.com)
Neváhejte také kontaktovat kteréhokoli z následujících členů cvičné skupiny:
Umělá inteligence a automatizované systémy Skupina:H. Mark Lyon – předseda, Palo Alto (+1 650-849-5307, mlyon@gibsondunn.com)J. Alan Bannister – New York (+1 212-351-2310, abannister@gibsondunn.com)Patrick Doris – Londýn (+44 (0)20 7071 4276, pdoris@gibsondunn.com)Kai Gesing – Mnichov (+49 89 189 3 180, kgesing@gibsondunn.com)Ari Lanin – Los Angeles (+1 310-552-8581, alanin@gibsondunn.com)Robson Lee – Singapur (+65 6507 3684, rlee@gibsondunn.com)Carrie M. LeRoy – Palo Alto (+1 650-849-5337, cleroy@gibsondunn.com)Alexander H. Southwell – New York (+1 212-351-3981, asouthwell@gibsondunn.com)Christopher T. Timura – Washington, D.C. (+1 202 -887-3690, ctimura@gibsondunn.com)Eric D. Vandevelde – Los Angeles (+1 213-229-7186, evandevelde@gibsondunn.com)Michael Walther – Mnichov (+49 89 189 33 180, m. m. )
© 2022 Gibson, Dunn & Crucher LLP
Inzerce právníka:Přiložené materiály byly připraveny pouze pro obecné informační účely a nejsou určeny jako právní poradenství.