• технология
  • Електрическо оборудване
  • Материална индустрия
  • Дигитален живот
  • Политика за поверителност
  • О име
Location: Home / технология / Годишен правен преглед на изкуствения интелект и автоматизираните системи за 2021 г. - Gibson Dunn

Годишен правен преглед на изкуствения интелект и автоматизираните системи за 2021 г. - Gibson Dunn

techserving |
2344

20 януари 2022 г

Щракнете за PDF

2021 г. беше натоварена година за предложения за политика и законотворчество, свързани с изкуствения интелект („ИИ“) и автоматизираните технологии. ОИСР идентифицира 700 политически инициативи за ИИ в 60 държави и много национални правни рамки се оформят. С новата Изкуствена Законът за разузнаването, който се очаква да бъде финализиран през 2022 г., е вероятно високорисковите AI системи да бъдат изрично и изчерпателно регулирани в ЕС. Въпреки че има различни законодателни предложения за AI, представени в Конгреса, Съединените щати не са приели цялостен подход към регулирането на ИИ, както е предложено от Европейската комисия, вместо това да се съсредоточи върху инвестициите в отбраната и инфраструктурата, за да се използва растежът на ИИ.

Въпреки това — отразявайки скорошните развития в законите за поверителност на данните — има някои условни признаци на сближаване в създаването на политики в САЩ и Европа, като се набляга на основан на риска подход към регулирането и нарастващ фокус върху етиката и „надеждния“ AI, както и правоприлагането пътища за потребителите. В САЩ администрацията на президента Байдън обяви разработването на „закон за правата на ИИ“. Освен това Федералната търговска комисия на САЩ („FTC“) сигнализира за особено усърдие в регулирането на потребителските продукти и услуги, включващи автоматизирани технологии и големи обеми данни и изглежда готов да засили дейността както по създаване на правила, така и по правоприлагане през следващата година. Освен това новата Калифорнийска агенция за защита на поверителността вероятно ще бъде натоварена с издаването на разпоредби, управляващи ИИ до 2023 г., което може да се очаква да има широкообхватно въздействие .Накрая започват да се появяват принципи на управление и технически стандарти за осигуряване на надежден AI и ML, въпреки че остава да се види до каква степен глобалните регулатори ще постигнат консенсус по ключови показатели отвъд националните граници.

А.С. Национална политика

1.Национална стратегия за изкуствен интелект

Почти три години след като президентът Тръмп издаде изпълнителна заповед „Поддържане на американското лидерство в областта на изкуствения интелект“ за стартиране на „Американската инициатива за изкуствен интелект“ и се стреми да ускоряване на развитието и регулирането на ИИ с цел осигуряване на мястото на Съединените щати като световен лидер в технологиите за ИИ, видяхме значително увеличение на свързаните с ИИ законодателни и политически мерки в САЩ, свързвайки старата и новата администрация. Както беше Вярно е, че преди година федералното правителство на САЩ беше активно в координирането на междуведомственото лидерство и насърчаване на продължаващите изследвания и разработки на AI технологии за правителствена употреба. За тази цел редица ключови законодателни и изпълнителни действия бяха насочени към увеличаване на растеж и развитие на такива технологии за федерална агенция, национална сигурност и военни приложения. законодателите също продължиха диалога със своите колеги от ЕС, като обещаха да работят заедно по време на изслушване в парламента на ЕС на 1 март.[1]Rep. Робин Кели (D-Ill.) свидетелства на изслушване пред Специалната комисия на ЕС по ИИ, отбелязвайки, че „нации, които не споделят нашия ангажимент към демократичните ценности, се надпреварват да бъдат лидери в ИИ и да определят правилата за свят,” [2]Тя призова Европа да възприеме „тесен и гъвкав” подход към регулирането, докато работи със САЩ.[3]

a) Закон за националната инициатива за ИИ от 2020 г. (част от Закона за разрешение за национална отбрана от 2021 г. („NDAA“)) и Национална служба за инициатива за ИИ

Съгласно Закона за националната инициатива за ИИ от 2020 г., който беше приет на 1 януари 2021 г. като част от Закона за разрешение за национална отбрана от 2021 г. („NDAA“), [4] OSTP официално създаде Националната служба за инициативи за изкуствен интелект („Службата“) на 12 януари. Службата – една от няколко нови федерални служби, упълномощени от NDAA, ще отговарят за надзора и прилагането на национална стратегия за ИИ и ще действат като централен център за координация и сътрудничество между федерални агенции и външни заинтересовани страни в правителството, индустрията и академичните среди в изследванията и политиката за ИИ.[5] ]Законът също така създаде Национална работна група за научни изследвания в областта на изкуствения интелект („Специалната група“), свикваща група от технически експерти от академичните среди, правителството и индустрията за оценка и предоставяне на препоръки относно осъществимостта и целесъобразността на създаването на национален изследователски ресурс за изкуствен интелект ( „NAIRR“).[6] Работната група ще разработи координирана пътна карта и план за изпълнение за установяване и поддържане на NAIRR, национален изследователски облак, който да предостави на изследователите достъп до изчислителни ресурси, висококачествени набори от данни, образователни инструменти и потребителска поддръжка за улесняване на възможностите за изследване и развитие на ИИ. Работната група ще представи два доклада на Конгреса, за да представи своите констатации, заключения и препоръки – междинен доклад през май 2022 г. и окончателен доклад през ноември 2022 г.

На 27 януари 2021 г. президентът Байдън подписа меморандум, озаглавен „Възстановяване на доверието в правителството чрез наука и почтеност и създаване на политики, основани на доказателства“, като постави началото на широк преглед на федералните политики за почтеност в научните среди и насочи агенциите да укрепят своите усилия за подпомагане на вземането на решения, основани на доказателства[7], което се очаква да „генерира важни прозрения и най-добри практики, включително прозрачност и отчетност....”[8]Президентът също така подписа изпълнителна заповед за официално възстановяване на Президентския съвет на съветниците по наука и технологии , [9] и обяви създаването на Националния консултативен комитет за ИИ, който има за задача да предоставя препоръки по различни теми, свързани с ИИ, включително текущото състояние на икономическата конкурентоспособност и лидерство на САЩ, научноизследователска и развойна дейност и търговско приложение.[10]

b) Закон за иновациите и конкуренцията (S. 1260)

На 8 юни 2021 г. Сенатът на САЩ гласува 68-32 за одобряване на Закона за иновациите и конкуренцията на САЩ (S. 1260), предназначен да засили способността на страната да се конкурира с китайската технология, като инвестира повече от 200 милиарда долара в научни и технологични иновации на САЩ през следващите пет години, изброявайки изкуствения интелект, машинното обучение и автономността като „ключови области на фокусиране на технологиите“. [11] 80 милиарда долара са предназначени за изследвания в областта на изкуствения интелект, роботиката и биотехнологиите. Наред с различни други програми и дейности, законопроектът създава дирекция за технологии и иновации в Националната научна фондация („NSF“) и подкрепя научните изследвания, развойните линии, създава безвъзмездни средства и цели насърчаване на споразумения между частни компании и изследователски университети за насърчаване на технологични пробиви.

Законът също така включва разпоредби, обозначени като „Напредък на американския Закон за изкуствения интелект“ [12], предназначен да „насърчава програмите и инициативите на агенциите, свързани с изкуствения интелект, които повишават конкурентоспособността на Съединените щати“, като същевременно гарантира, че внедряването на ИИ „съгласува [s ] с ценностите на Съединените щати, включително защитата на неприкосновеността на личния живот, гражданските права и гражданските свободи. и политики за използване на AI в правителството, като се вземат предвид докладът на NSCAI, изпълнителната заповед от 3 декември 2020 г. „Насърчаване на използването на надежден изкуствен интелект във федералното правителство“ и приносът на различни междуведомствени съвети и експерти.[14] ]

c) Алгоритмично управление

Също така видяхме нови инициативи, които се оформят на федерално ниво, фокусирани върху алгоритмичното управление, кулминирайки в съобщението на Службата за политика в областта на науката и технологиите на Белия дом („OSTP“) през ноември 10, 2021 г., че ще стартира поредица от сесии за слушане и събития през следващата седмица, за да ангажира американската общественост в процеса на разработване на Закон за правата за автоматизирано общество.[15]Според директора на OSTP Ерик, законопроектът ще трябва „зъби“ под формата на правоприлагане на обществени поръчки.[16]В паралелно действие директорът на Националната служба за инициативи за ИИ Лин Паркър направи коментари, показващи, че Съединените щати трябва да имат визия за регулирането на ИИ, подобна на общата на ЕС Регламент за защита на данните („GDPR“).[17]Освен това през октомври 2021 г. Службата за политика в областта на науката и технологиите („OSTP“) на Белия дом публикува RFI с искане за обратна връзка за това как биометричните технологии са се представили в организациите и как те засягат хората емоционално и умствено.[18]

През юни 2021 г. Службата за отчетност на правителството на САЩ („GAO“) публикува доклад, в който се идентифицират ключови практики, за да се гарантира отчетността и отговорното използване на AI от федералните агенции и други субекти, участващи в проектирането, разработването, внедряването и непрекъснатото наблюдение на AI системи.[19]Докладът идентифицира четири ключови области на фокус: (1) организация и алгоритмично управление; (2) производителност на системата; (3) документиране и анализиране на данните, използвани за разработване и работа на AI система; и (4) непрекъснат мониторинг и оценка на системата, за да се гарантира надеждност и уместност във времето.[20]

Накрая, Националният институт за стандарти и технологии („NIST“), натоварен от администрацията на Тръмп да разработи стандарти и мерки за AI, публикува своя доклад за това как да се измери и повиши доверието на потребителите и да се идентифицират и управляват пристрастия, в AI технология.[21]NIST получи шестдесет и пет коментара върху документа и авторите планират да синтезират и използват отговорите на обществеността, за да разработят следващата версия на доклада и да помогнат за оформянето на дневния ред на няколко съвместни виртуални събития, които NIST ще проведе в следващите месеци.[22]

2.Национална сигурност

a) Окончателен доклад на NSCAI

Законът за разрешение за национална отбрана от 2019 г. създаде 15-членна комисия за национална сигурност по изкуствен интелект („NSCAI“), и нареди на NSCAI „да прегледа и да консултира конкурентоспособността на Съединените щати в областта на изкуствения интелект, машинното обучение и други свързани технологии, включително въпроси, свързани с националната сигурност, отбраната, публично-частните партньорства и инвестициите.“ [23] Над през последните две години NSCAI издаде множество доклади, включително междинни доклади през ноември 2019 г. и октомври 2020 г., два допълнителни тримесечни меморандума и серия от специални доклади в отговор на пандемията от COVID-19.[24]

На 1 март 2021 г. NSCAI представи окончателния си доклад до Конгреса и до президента. В началото докладът отправя спешен призив за действие, като предупреждава, че правителството на САЩ в момента не е достатъчно организирано или разполага с достатъчно ресурси, за да се конкурира успешно с други нации по отношение на нововъзникващите технологии, нито са готови да се защитават срещу заплахи, активирани с изкуствен интелект или бързо да приемат приложения с изкуствен интелект за целите на националната сигурност. На този фон докладът очертава стратегия за привеждане на Съединените щати в „готовност за изкуствен интелект“ до 2025 г. [25] и идентифицира конкретни стъпки за подобряване на обществената прозрачност и защита на неприкосновеността на личния живот, гражданските свободи и гражданските права, когато правителството внедрява AI системи. NSCAI конкретно одобрява използването на инструменти за подобряване на прозрачността и обяснимостта: AI рискове и оценки на въздействието; одити и тестване на AI системи; и механизми за осигуряване на надлежен процес и обезщетение на лица, засегнати неблагоприятно от системите на ИИ, използвани в правителството. Докладът също така препоръчва установяване на политики за управление и надзор за развитието на ИИ, които трябва да включват „изисквания за одит и докладване“, система за преглед за „висок риск ” AI системи и процес на обжалване за засегнатите. Тези препоръки може да имат значителни последици за потенциалния надзор и регулиране на AI в частния сектор. Докладът също така очертава спешни действия, които правителството трябва да предприеме, за да насърчи иновациите в AI за подобряване на националната конкурентоспособност, сигурност талант и защита на критичните предимства на САЩ, включително права върху интелектуалната собственост.

b) Отделът за иновации в отбраната (DIU) на Министерството на отбраната публикува своите „Насоки за отговорен AI“

На 14 ноември 2021 г. отделът за иновации в отбраната („DIU“) на Министерството на отбраната публикува „Насоки за отговорен AI“ които предоставят стъпка по стъпка насоки за разработчиците на трети страни, които да използват при изграждането на AI за военна употреба. Тези насоки включват процедури за идентифициране кой може да използва технологията, кой може да бъде наранен от нея, какви могат да бъдат тези вреди и как биха могли трябва да се избягва - както преди системата да бъде изградена, така и след като бъде пусната в действие.[26]

c)Закон за възможностите и прозрачността на изкуствения интелект („AICT“)

На 19 май 2021 г. сенаторите Роб Портман (R-OH) и Мартин Хайнрих (D-NM) представиха двупартийния Artificial Закон за разузнавателните способности и прозрачност („AICT“). [27] AICT ще осигури повишена прозрачност за правителствените AI системи и се основава основно на препоръки, обнародвани от Комисията за национална сигурност относно AI („NSCAI“) през април 2021 г. [28 ]AICT беше придружен от Закона за изкуствения интелект за военните (AIM). [29] Законът за AICT ще създаде пилотен фонд за разработка на ИИ и прототипи в рамките на Министерството на отбраната, насочен към разработване на технологии с активиран ИИ за оперативните нужди на армията, и ще разработи план за осигуряване на ресурси за Министерството на отбраната, за да даде възможност за разработване, тестване, внедряване и актуализиране на приложения, базирани на изкуствен интелект.[30] И двата законопроекта бяха приети като част от Закона за разрешение за национална отбрана за фискалната 2022 г.[31]

B. Защита на потребителите, поверителност и усилвател; Алгоритмична честност

1.FTC се фокусира върху алгоритмичната прозрачност и справедливост

На 19 април 2021 г. FTC издаде насоки, подчертаващи намерението си да наложи принципите на прозрачност и справедливост по отношение на алгоритмичните решения -оказване на влияние върху потребителите. Публикацията в блога „Стремеж към истина, справедливост и равнопоставеност при използването на AI от вашата компания“ обяви намерението на Федералната търговска комисия да предприеме принудителни действия, свързани с „предубедени алгоритми“ съгласно раздел 5 от Закона за Федералната търговска комисия, Панаирът Законът за отчитане на кредити и Законът за равните възможности за кредитиране.[32]За отбелязване е, че изявлението изрично отбелязва, че „продажбата или използването на – например – расово предубедени алгоритми“ попада в обхвата на забраната на нечестни или измамни бизнес практики. Публикацията в блога предоставя конкретни насоки за „използване на AI вярно, честно и безпристрастно“, като посочва, че очаква компаниите да „правят повече полза, отколкото вреда“, като проверяват своите данни за обучение и, ако е необходимо, „ограничават [да] къде или как [те ] използвайте модела;” тестване на техните алгоритми за неправилно отклонение преди и по време на внедряването; използване на рамки за прозрачност и независими стандарти; и да бъдете прозрачни с потребителите и да търсите подходящо съгласие за използване на потребителски данни. Ръководството също така предупреждава компаниите да не правят изявления пред потребителите, които „прекомерно обещават“ или представят погрешно възможностите на даден продукт, отбелязвайки, че пристрастните резултати могат да се считат за измамни и да доведат до действия на FTC за прилагане .

Това изявление за намерение дойде след забележки от бившия изпълняващ длъжността председател на Федералната търговска комисия Ребека Кели Слотър на 10 февруари във форума за бъдещето на поверителността, като прегледа приоритетите за правоприлагане при администрацията на Байдън и конкретно обвърза ролята на Федералната търговска комисия за справяне със системния расизъм със цифрово разделение, изострено от COVID-19, AI и алгоритмично вземане на решения, технология за лицево разпознаване и използване на данни за местоположение от мобилни приложения.[33]Също така следва неофициалните насоки на FTC от миналата година, очертаващи принципи и най-добри практики относно прозрачността, обяснимостта , пристрастия и стабилни модели на данни.[34]

Тези регулаторни приоритети продължават да набират скорост под ръководството на новия председател на FTC Лина Хан, която през ноември 2021 г. обяви няколко нови попълнения в Службата за планиране на политиката на FTC, включително трима „Съветници по изкуствен интелект“, Мередит Уитакър, Амбак Как и Сара Майерс Уест — всички бивши в AI Now Institute на Нюйоркския университет и експерти по различни теми, свързани с ИИ, включително алгоритмична отчетност и политическа икономия на ИИ.[35]

FTC също така предприе стъпки за укрепване на правомощията си за правоприлагане, като прие поредица от мерки, за да позволи по-бързи разследвания на потенциални нарушения, включително проблеми, свързани с пристрастия в алгоритмите и биометричните данни.[36]Освен това, на 27 юли 2021 г. Главният технолог на FTC Ери Майер коментира, че агенцията предвижда да изисква от компаниите, които се занимават с незаконно използване на данни, „не само да изхвърлят данни и пари“, но и „алгоритми, които са били подготвени от неправомерно получени данни“. [37] Sen. Майк Лий, R-Юта, впоследствие представи законопроект на 15 декември 2021 г., който ще даде на FTC правомощието да търси реституция във федералния окръжен съд, след като Върховният съд на САЩ постанови през април, че правомощието на агенцията да иска разпореждания от федерален съдия не включва възможността да се иска възстановяване или отнемане на неправомерно придобити печалби.[38]Предложеният Закон за защита на потребителите и надлежен процес би изменил раздел 13(b) от Закона за Федералната търговска комисия, за да даде на Федералната търговска комисия изричното правомощие да поиска от федерален съдия да му позволи да възстанови пари от измамници и нарушители на антитръстовите правила.[39]

FTC също така идентифицира „тъмните модели“ като нарастваща загриженост и фокусна точка за правоприлагане. Тъмните модели могат да се дефинират свободно като техники за манипулиране на потребителя да предприеме нежелано действие, като се използват нови употреби на технологии (включително AI), особено дизайн на потребителското изживяване (UX) – например бот за обслужване на клиенти, нежелана гаранция или пробен абонамент, който се превръща в платен.[40]Във виртуален семинар на FTC за изследване на тъмни модели, изпълняващият длъжността директор на Бюрото за защита на потребителите, Даниел Кауфман предположи, че компаниите могат да очакват агресивно прилагане на Федералната търговска комисия в тази област и че Федералната търговска комисия ще използва раздел 5 от Закона за Федералната търговска комисия и Закона за възстановяване на доверието на онлайн купувачите, за да упражнява правомощията си чрез въвеждане на нови правила, декларации за политики или насоки за прилагане. [41]

Препоръчваме на компаниите, разработващи или внедряващи автоматизирано вземане на решения, да възприемат подход „етика при проектирането“ и да преразгледат и засилят политиките за вътрешно управление, старание и спазване. Компаниите също трябва да бъдат в крак с новостите относно способността на FTC да търси реституция и парични наказания и налагане на задължения за изтриване на алгоритми, модели или данни.

2.Бюро за финансова защита на потребителите

CFPB, сега ръководен от бившия комисар на Федералната търговска комисия Рохит Чопра, предложи да използва Закона за справедливо кредитно отчитане (FCRA), за да упражнява юрисдикция над големи технологични компании и техните [42] FCRA традиционно регулира дейностите на кредитните бюра, компаниите за проверка на миналото и услугите за проверка на наематели, но Чопра направи няколко изявления, че основните данни, използвани от технологичните гиганти, може да задействат задължения съгласно FCRA. определя агенцията за докладване на потребители доста широко, за да включва компании, събиращи, оценяващи и продаващи данни на трети страни, които използват данните при вземане на решения за допустимост на потребителите. CFPB може да поиска да направи запитване до големи технологични компании, за да научи дали данните са всъщност се продава на трети страни и как може да се използва по-надолу по веригата.

През ноември CFPB издаде консултативно становище, потвърждаващо, че компаниите за докладване на потребители, включително компаниите за проверка на наематели и заетост, нарушават закона, ако участват в невнимателни процедури за съпоставяне на имена.[43]CFPB е особено обезпокоен от алгоритмите компании за скрининг на фона, които присвояват фалшива самоличност на кандидати за работа и жилище поради доклади за скрининг на фона, изпълнени с грешки, които могат да окажат непропорционално въздействие върху цветнокожите общности. Консултативното становище потвърждава отново задълженията и изискванията на компаниите за докладване на потребители да използват разумни процедури, за да осигурят максимална възможна точност.

3.САЩ Комисия за равни възможности за заетост

Комисията за равни възможности за заетост на САЩ планира да прегледа как инструментите и технологиите за изкуствен интелект се прилагат при решенията за наемане на работа.[44]Инициативата на EEOC ще проучи по-внимателно как технологията фундаментално променя начина, по който заетостта се вземат решения. Той има за цел да насочи кандидатите, служителите, работодателите и доставчиците на технологии, за да гарантира, че тези технологии се използват справедливо, в съответствие с федералните закони за равни възможности за заетост.

4. Разпознаване на лица и биометрични технологии

a) Прилагане

През януари 2021 г. FTC обяви споразумението си с Everalbum, Inc. във връзка с неговото „Ever App,“ приложение за съхранение на снимки и видео, което използва технология за лицево разпознаване за автоматично сортиране и „маркиране“ на снимки на потребители.[45]FTC твърди, че Everalbum е направил погрешни изявления пред потребителите относно използването на технология за лицево разпознаване и запазването на снимки и видеоклипове на потребители, които са деактивирали акаунтите си в нарушение на раздел 5(a) от Закона за Федералната търговска комисия. Съгласно споразумението за уреждане, Everalbum трябва да изтрие модели и алгоритми, които е разработил, използвайки качени от потребителите снимки и видеоклипове, и да получи изрично съгласие от своите потребители, преди да кандидатства технология за лицево разпознаване, което подчертава появата на изтриването като потенциална мярка за прилагане. Изискване за изтриване на данни, модели и алгоритми, разработени чрез използване на данни, събрани без изрично съгласие, може да представлява значително задължение за коригиране с по-широки последици за разработчиците на AI.

Сигнализирайки за потенциала за увеличаване на регулирането и прилагането в тази област, комисарят на FTC Рохит Чопра издаде придружаващо изявление, описващо споразумението като „корекция на курса“, коментирайки, че технологията за лицево разпознаване е „фундаментално погрешна и засилва вредните пристрастия“, като същевременно подчертава, значението на „усилията за налагане на мораториуми или по друг начин силно ограничаване на използването им“. Въпреки това, комисарят също предупреди срещу „широка федерална преференция“ по отношение на защитата на данните и отбеляза, че правомощията за регулиране на правата върху данните трябва да останат на държавно ниво.[46]Ние ще наблюдава внимателно всички по-нататъшни действия по прилагане от страна на Федералната търговска комисия (и други регулаторни органи), както и списъка с висящи съдебни дела, твърдящи незаконно събиране на биометрични данни, използвани от автоматизирани технологии в съответствие с нарастващ брой държавни закони за поверителност - като биометричния на Илинойс Закон за поверителност на информацията („BIPA“)[47] – и препоръчваме на компаниите, разработващи или използващи технологии за лицево разпознаване, да потърсят конкретен правен съвет по отношение на изискванията за съгласие относно биометричните данни, както и да разработят стабилни процеси за проверка на AI и оценка на риска за трети страни AI приложения.

b) Законодателство

Технологията за лицево разпознаване също привлече подновено вниманието на федералните и щатските законодатели през 2021 г. На 15 юни 2021 г. група сенатори от Демократическата партия въведе отново Закона за мораториума върху разпознаването на лица и биометричните технологии, който ще забрани на агенциите да използват технология за лицево разпознаване и други биометрични технологии - включително гласово разпознаване, разпознаване на порти и разпознаване на други неизменни физически характеристики - от федерални субекти и ще блокира федералните фондове за биометрични системи за наблюдение.[48]Подобен законопроект беше въведен в и двете камари в предишния Конгрес, но не излезе от комисията.[49]Законодателството, което е одобрено от ACLU и множество други организации за граждански права, също така предоставя частно право на иск за лица, чиито биометрични данни се използват в нарушение на Закона (приложен от главните прокурори на щата) и се стреми да ограничи използването на биометрични технологии от местните субекти, като обвърже получаването на федерално безвъзмездно финансиране с локализирани забрани за биометрични технологии. Всички биометрични данни, събрани в нарушение на разпоредбите на законопроекта, също ще бъдат забранени от използване в съдебни производства.

2021 г. Годишно правно издание за изкуствен интелект и автоматизирани системи Преглед - Gibson Dunn

На щатско ниво Вирджиния прие забрана за използването на технология за лицево разпознаване от правоприлагащите органи (H.B. 2031 г.). Законодателството, което спечели широка двупартийна подкрепа, забранява на всички местни правоприлагащи агенции и полицейски управления в кампуса да купуват или използват технология за лицево разпознаване, освен ако не е изрично разрешено от законодателния орган на щата.[50]Законът влезе в сила на 1 юли 2021 г. Вирджиния се присъединява към Калифорния, както и към много градове в САЩ, в ограничаването на използването на технология за лицево разпознаване от правоприлагащите органи [51]

5. Алгоритмична отчетност

a) Закон за алгоритмично правосъдие и прозрачност на онлайн платформата от 2021 г. (S. 1896)

На 27 май 2021 г. сенатор Едуард Дж. Марки (D -Mass.) и конгресменът Дорис Мацуи (CA-06) представиха Закона за алгоритмичното правосъдие и прозрачността на онлайн платформите от 2021 г., за да забранят вредните алгоритми, да увеличат прозрачността на практиките за разширяване на съдържанието и модериране на уебсайтовете и да възложат междуправителствено разследване на дискриминационни алгоритми процеси в националната икономика.[52]Законът ще забрани алгоритмични процеси в онлайн платформи, които дискриминират въз основа на раса, възраст, пол, способности и други защитени характеристики. Освен това той ще установи стандарт за безопасност и ефективност за алгоритмите и изискват онлайн платформите да описват алгоритмичните процеси на обикновен език на потребителите и да поддържат подробни записи на тези процеси за преглед от FTC.

b)Закон за технологиите за безопасност на потребителите или AI за Закон за безопасността на потребителските продукти (H.R. 3723)

На 22 юни 2021 г. Камарата гласува 325-103 за одобряване на Закона за технологиите за безопасност на потребителите или AI за Закона за безопасност на потребителските продукти (H.R. 3723), който изисква Комисията за безопасност на потребителските продукти да създаде пилотна програма, която използва AI за изследване на въпроси, свързани с безопасността на потребителите, като тенденции за наранявания, опасности от продукти, изтеглени продукти или продукти, които не трябва да се внасят в САЩ.[53]Това е вторият път, когато Законът за технологиите за безопасност на потребителите се приема от Камарата. Миналата година, след изчистването на Камарата, законопроектът не напредна в Сената, след като беше отнесен до Комисията по търговия, наука и транспорт.[54] ]

c)Закон за защита на данните от 2021 г. (S. 2134)

През юни 2021 г. сенатор Кирстен Гилибранд (D-NY) представи Закона за защита на данните от 2021 г., който ще създаде независима федерална агенция за защита на данните и поверителността на потребителите.[55]Основният фокус на агенцията ще бъде да защитава поверителността на лицата, свързана със събирането, използването и обработката на лични данни.[56]Законопроектът определя „автоматизираната система за вземане на решения“ като „изчислителна процес, включително такъв, получен от машинно обучение, статистика или друга обработка на данни или техники за изкуствен интелект, който взема решение или улеснява вземането на решения от човека.“ [57] Освен това използването на „обработка на автоматизирана система за вземане на решения“ е „висок риск“ практика за данни“, изискваща оценка на въздействието след внедряване и оценка на риска при разработването и дизайна на системата, включително подробно описание на практиката, включително дизайн, методология, данни за обучение и цел, както и всякакви различни въздействия и вреди на поверителността.[58] ]

d) Filter Bubble Transparency Act

На 9 ноември 2021 г. двупартийна група от депутати от Камарата на представителите представи законодателство, което ще даде на хората по-голям контрол върху алгоритмите, които оформят тяхното онлайн изживяване.[59]Ако бъде прието , Законът за прозрачност на балончетата на филтъра ще изисква компании като Meta да предлагат версия на своите платформи, която работи на алгоритъм „прозрачен за въвеждане“, който не използва потребителски данни, за да генерира препоръки – с други думи, предоставя на потребителите опция за откажете се от емисии с алгоритмично съдържание въз основа на лични данни. Този закон за Камарата на представителите е съпътстващ законопроект към законодателството на Сената, въведен през юни 2021 г.

e)Deepfake Task Force Act

На 29 юли сенаторите Гари Питърс (D-Mich.) и Роб Портман (R-Ohio) въведоха двупартийно законодателство, което ще създаде работна група в рамките на Министерството на Вътрешна сигурност (DHS), натоварена със задачата да изготви план за намаляване на разпространението и въздействието на дълбоки фалшификати, цифрово манипулирани изображения и видео, почти неразличими от автентични кадри.[60]Законопроектът ще се основава на предишно законодателство, което беше прието от Сената миналата година, изискващо DHS да провежда годишно проучване на deepfakes.

6. Щатски и градски разпоредби

a) Законодателите на щата Вашингтон представят законопроект за регулиране на ИИ, S.B. 5116

По петите на знаковия законопроект за лицево разпознаване на Вашингтон (S.B. 6280), приет миналата година, [61] държавни законодатели и защитници на гражданските права предложиха нови правила за забрана на дискриминацията, произтичаща от автоматизирано вземане на решения от публични агенции [62] Законопроектът, който е спонсориран от сенатор Боб Хасегава (D-Beacon Hill), ще установи нови разпоредби за правителствените отдели, които използват „системи за автоматизирано вземане на решения“, категория, която включва всеки алгоритъм, който анализира данни, за да направи или поддържа правителствени решения.[63]Ако бъде приет, на публичните агенции в щата Вашингтон ще бъде забранено да използват системи за автоматизирани решения, които дискриминират различни групи или вземат окончателни решения, които засягат конституционните или законовите права на жител на Вашингтон. Законопроектът също така забранява на правителствените агенции да използване на активирано AI профилиране в обществени пространства. Обществено достъпни отчети за отчетност, гарантиращи, че технологията не е дискриминационна, ще бъдат необходими, преди дадена агенция да може да използва автоматизирана система за вземане на решения.

b) Приет е законопроект на Градския съвет на Ню Йорк, който забранява на работодателите да използват автоматизирани инструменти за наемане без годишен одит за определяне на дискриминационното въздействие

На 10 ноември 2021 г. Градският съвет на Ню Йорк прие законопроект, забраняващ наемането на AI системи, които не преминават годишни одити, проверяващи за дискриминация, основана на раса или пол.[64]Законопроектът ще изисква от разработчиците на такива инструменти за изкуствен интелект да разкриват повече информация за работата на своя инструмент и ще предоставя на кандидатите възможност да изберат алтернатива процес за преразглеждане на тяхното заявление. Законодателството ще налага глоби на работодатели или агенции за заетост до $1500 за нарушение.

C.Интелектуална собственост

1.Талер срещу Хиршфелд

Исторически интелектуалната собственост е предлагала несигурна защита на произведения с изкуствен интелект. Изискванията за авторство и изобретателство са постоянни спънки за създадените от изкуствен интелект произведения и изобретения. Например в Съединените щати патентното право отхвърли идеята за нечовешки изобретател.[65]Федералната окръг последователно поддържа този подход.[66]Тази година проектът за изкуствен изобретател направи няколко забележителни предизвикателства пред парадигмата. Първо, екипът създаде DABUS, „Устройството за автономно стартиране на Unified Sentience“ – AI система, която е създала няколко изобретения.[67] След това проектът си партнира с адвокати, за да подадат тестови случаи в Съединените щати , Австралия, ЕС и Обединеното кралство.[68]Тези амбициозни случаи пожънаха смесени резултати, които вероятно ще се разминават още повече с нарастването на изобретателството на ИИ.

В Съединените щати DABUS беше посочен като „единствен изобретател“ в две патентни заявки.[69]В отговор USPTO издаде Известие за подаване на липсващи части от непредварителна заявка, тъй като „листът с данни за приложението или изобретателят клетва или декларация не идентифицира всеки изобретател или неговото или нейното юридическо име” и подчертава, че законът изисква изобретателството „трябва да бъде извършено от физическо лице.” [70] Кандидатите за патент поискаха преглед в Източния окръг на Вирджиния , който се съгласи с USPTO.[71]Проектът Artificial Inventor се сблъска със сравними неуспехи в Европа. Европейското патентно ведомство („ЕПВ“) отхвърли подобни патентни заявки, считайки, че правната рамка на европейската патентна система води до заключението, че законът изисква човешко изобретателство.[72]Правният апелативен съвет по подобен начин постановява, че съгласно Европейската патентна конвенция патентите изискват човешко изобретателство.[73]DABUS не се справя по-добре в патентните съдилища на Обединеното кралство, които постановяват, че Законът за патентите изисква изобретателят да бъде човек.[74]Обратно, патентното ведомство на Южна Африка издаде първия патент на изобретател с изкуствен интелект.[75]Лидер на правния екип обясни различния резултат: в Обединеното кралство заявката за патент беше „сметната за оттеглена“ поради неуспех спазване, свързано с подаването на патентни формуляри; въпреки това „Южна Африка извършва проверка на формалностите и я издава, както се изисква, въз основа на обозначението в международната заявка (Договор за коопериране на патенти [PCT]), която преди това беше приета от СОИС.” [76] Седмици по-късно , Федералният съд на Австралия също постанови, че изобретателството на ИИ не е пречка за патентоспособността.[77]Но си струва да се отбележи, че патентната система на Австралия не използва система за съществено патентно изследване.

Въпреки че развитието в Южна Африка и Австралия насърчава изобретателите на AI, няма обещание за хармонизация. Вместо това е по-вероятен смесеният подход. Съединените щати и Европа вероятно ще поддържат мнението, че AI е инструмент на изобретателите, но не изобретател.

2.Google LLC срещу Oracle America, Inc.

На 5 април 2021 г. Върховният съд на САЩ се произнесе в полза на Google по многомилиардно дело за авторски права, заведено от Oracle, постановявайки, че Google не е нарушил авторските права на Oracle съгласно доктрината за честна употреба, когато е използвал материал от API на Oracle, за да изгради своята платформа за смартфони с Android. [78] Трябва да се отбележи, че Съдът не се произнесе дали деклариращият код на API на Oracle може да бъде защитен с авторски права, но прие, че като се приеме за заради аргумента, че материалът е защитен с авторски права, „въпросното копиране тук все пак представлява честна употреба.“ [79] По-конкретно, Съдът посочва, че „когато Google внедрява отново потребителски интерфейс, като взема само това, което е необходимо, за да позволи на потребителите да вложат своите натрупани таланти за работа в нова и трансформираща програма, копирането от Google на Sun Java API беше честна употреба на този материал като въпрос на закон.“ [80] Съдът се съсредоточи върху трансформиращата употреба на Google на Sun Java API и разграничи деклариращия код от други типове компютърен код, за да установи, че и четирите водещи фактора, посочени в разпоредбата за честна употреба на Закона за авторското право, претеглят в полза на честната употреба.[81]

Въпреки че решението изглежда се обръща към този конкретен случай, то вероятно ще има последици за AI и създателите на платформи.[82]Прилагането на Съда за честна употреба може да предложи възможност на компаниите да спорят за копирането на организационни етикети без лиценз. По-специално, Съдът заяви, че комерсиалната употреба не накланя непременно везните срещу честната употреба, особено когато използването на копирания материал е трансформиращо. Това може да помогне на компаниите, които искат да използват съдържание, за да обучават своите алгоритми на по-ниска цена, оставяйки настрана потенциални съображения за поверителност (като при BIPA). Междувременно компаниите може също да намерят по-голямо предизвикателство да управляват и наблюдават конкурентни програми, които използват своя API код за съвместимост с техните платформи.

D. Здравеопазване

1.План за действие на FDA за медицински устройства с изкуствен интелект

През януари 2021 г. Администрацията по храните и лекарствата на САЩ (FDA) представи първия си план за действие от пет части фокусиран върху базиран на изкуствен интелект/машинно обучение (AI/ML) софтуер като медицинско устройство (SaMD). Планът за действие е многостранен подход за напредване на надзора на FDA върху базирания на AI/ML SaMD, разработен в отговор на заинтересованите страни обратна връзка, получена от документа за дискусия от април 2019 г. „Предложена регулаторна рамка за модификации на софтуер, базиран на изкуствен интелект/машинно обучение като медицинско устройство.“ [83] Заявената визия на FDA е, че „с подходящо съобразен общ регулаторен надзор, базиран на жизнения цикъл на продукта ” Базиран на AI/ML SaMD „ще достави безопасна и ефективна софтуерна функционалност, която подобрява качеството на грижите, които пациентите получават.”[84]

Както беше предложено в плана за действие на FDA от януари 2021 г., през октомври 2021 г. FDA проведе публичен семинар за това как споделянето на информация за дадено устройство поддържа прозрачност за всички потребители на медицински устройства с активиран AI/ML.[85]Посочената цел на семинарът беше двоен: (1) за „идентифициране на уникални съображения за постигане на прозрачност за потребителите на медицински устройства с активиран AI/ML и начини, по които прозрачността може да подобри безопасността и ефективността на тези устройства;“ и (2) „събере информация от различни заинтересовани страни относно видовете информация, която би била полезна за производителя да включи в етикетирането на и публичната информация за медицински устройства с активиран AI/ML, както и други потенциални механизми за споделяне на информация .”[86]

Семинарът имаше три основни модула за (1) значението и ролята на прозрачността; (2) как да се насърчава прозрачността; и (3) сесия за открити публични коментари.[87]Специфични панели обхванаха теми като впечатления на пациенти и гледни точки на лекарите относно прозрачността на ИИ, ролята на FDA в насърчаването на прозрачността и насърчаването на прозрачността от гледна точка на разработчика.[88]След семинара, FDA поиска публични коментари относно семинара до 15 ноември 2021 г., които да бъдат взети под внимание занапред.[89]

2.FDA пуска списък с медицински устройства с изкуствен интелект и машинно обучение

На 22 септември 2021 г. FDA сподели своя предварителен списък с базирани на AI/ML SaMDs, които се продават законно в САЩ. чрез 510(k) разрешение, De Novo разрешение или Premarket (PMA) одобрение.[90]Агенцията разработи този списък, за да увеличи прозрачността и достъпа до информация за SaMDs, базирани на AI/ML, и да действа „като ресурс за обществеността по отношение на тези устройства и работата на FDA в космоса.“ [91] Усилията идват заедно с нарастващия интерес към разработването на такива продукти, които да допринесат за голямо разнообразие от клинични сфери, и нарастващия брой компании, които искат да включат AI/ML технология в медицински устройства. FDA отбеляза, че една от „най-големите потенциални ползи от машинното обучение се състои в способността му да създава нови и важни прозрения от огромното количество данни, генерирани по време на предоставянето на здравни грижи всеки ден.“ [92]

E.Автономни превозни средства („AV“)

1.САЩ. Федерално развитие

През юни 2021 г., представителят Боб Лата (R-OH-5) отново въведе Закона за бъдещо внедряване и изследване на безопасното осигуряване на живота („Закон за САМОУПРАВЛЕНИЕТО“) (H.R. 3711), който би създаване на федерална рамка за подпомагане на агенциите и индустриите за внедряване на AV в цялата страна и създаване на високоавтоматизиран консултативен съвет за превозни средства в рамките на Националната администрация за безопасност на движението по пътищата („NHTSA“). Представителят Latta преди това представи законопроекта на 23 септември 2020 г. и в предишни сесии.[93]

Също през юни 2021 г. Министерството на транспорта („DOT“) публикува своя „Пролетен регулаторен дневен ред“ и предложи NHTSA да установи строги стандарти за тестване на AV, както и национална база данни за инциденти за документиране на катастрофи, включващи AV.[94] ] DOT посочи, че ще има възможности за публичен коментар на предложенията.

На 29 юни 2021 г. NHTSA издаде постоянна обща заповед, изискваща от производителите и операторите на превозни средства с усъвършенствани системи за подпомагане на водача (ADAS) или автоматизирани системи за шофиране (ADS) да докладват за катастрофи.[95]ADAS е все по-разпространена функция в нови превозни средства, при които превозното средство може да контролира определени аспекти на кормилното управление и скоростта. Превозните средства, оборудвани с ADS, са това, което по-разговорно се нарича „самоуправляващи се превозни средства“ и в момента не са на пазара. Заповедта изисква компаниите да докладват за катастрофи в един ден от узнаването на катастрофата, ако катастрофата включва „нараняване, лекувано в болница, смъртен случай, изтегляне на превозно средство, задействане на въздушна възглавница или уязвим участник в движението, като пешеходец или велосипедист.“ [96] Актуализиран доклад също се дължи 10 дни след като компанията е научила за катастрофата.[97]Заповедта също така изисква компаниите да докладват всеки месец за всички други катастрофи, включващи превозно средство, оборудвано с ADS, които включват нараняване или материални щети.[98]Всички докладите, изпратени до NHTSA, трябва да се актуализират ежемесечно с нова или допълнителна информация.[99]

NHTSA също така поиска публични коментари в отговор на своето Предварително известие за предложено създаване на правила („ANPRM“), „Рамка за безопасност на автоматизираната система за шофиране“, до първото тримесечие на 2021 г. [100]ANPRM призна, че предишните AV- на NHTSA свързаните регулаторни бележки „се фокусираха повече върху дизайна на превозните средства, които могат да бъдат оборудвани с ADS – не непременно върху ефективността на самата ADS.“ [101] За тази цел NHTSA потърси информация за това как да подходи към оценка на ефективността на ADS чрез рамка за безопасност и по-специално дали всяка тестова процедура за който и да е Федерален стандарт за безопасност на моторните превозни средства („FMVSS“) трябва да бъде заменена, отменена или модифицирана по причини, различни от съображения, отнасящи се само до ADS.NHTSA отбеляза, че „[a ]Въпреки че създаването на FMVSS за ADS може да е преждевременно, е уместно да започнем да обмисляме как NHTSA може правилно да използва своя регулаторен орган, за да насърчи фокусирането върху безопасността, тъй като ADS технологията продължава да се развива“, като подчертава, че нейният подход ще се фокусира върху гъвкавостта „ориентирани към производителността подходи и показатели“ спрямо специфични за правилата характеристики на дизайна или други технически изисквания.[102]

2.Законодателството на Айова за автоматизираните превозни средства

През 2019 г. законодателният орган на Айова одобри закон, позволяващ на превозни средства без водач да се движат по обществените магистрали на Айова без шофьор, ако превозното средство отговаря на определени условия, включително това превозното средство трябва да е в състояние да постигне минимален риск, ако автоматизираната система за шофиране не функционира. Също така се изисква системата на превозното средство да отговаря на законите за движение на Айова и производителят трябва да удостовери, че производителят отговаря на всички приложими федерални стандарти за безопасност на моторните превозни средства.[ 103]През август 2021 г. Транспортната комисия на Айова одобри правила за автоматизираните превозни средства. Тези разпоредби включват изисквания, че „производител или юридическо лице няма да тества превозни средства с възможност за управление без водач в Айова без валидно разрешително“ и налага ограничения върху това кой може да отговаря на условията за разрешително за превозно средство, което може да работи без водач.[104]То също така предоставя правомощия на отдела да ограничава работата на превозното средство „въз основа на конкретна функционална класификация на магистрала, метеорологични условия, дни от седмицата, часове от деня и други елементи на оперативния дизайн, докато автоматизираната система за шофиране е включена.“ [105]

F.Финансови услуги

На фона на нарастващото възприемане на AI в пространството на финансовите услуги, годината донесе и подновен тласък за регулиране на подобен технологичен напредък. Федералните агенции ръководеха таксата, издавайки множество нови разпоредби и предварителен преглед още предстои през 2022 г.

Федералната корпорация за гарантиране на депозитите (FDIC), Съветът на управителите на системата на Федералния резерв и Службата на контролера на валутата се обединиха, за да издадат ново правило за отчитане на киберсигурността.[106]Правилото се прилага за всички банкови Организации [107], управлявани от агенцията, и задължава банковите организации да уведомяват своите първични федерални регулатори в рамките на 36 часа за всеки достатъчно сериозен „инцидент с компютърната сигурност“. [108] Правилото влиза в сила на 1 април 2022 г. и всички регулирани субекти трябва да го спазват до 1 май 2022 г.[109]

В допълнение към новоиздадените разпоредби, множество агенции сигнализираха желанието си да регулират технологичния напредък във финансовите услуги още в началото на 2022 г. Пет агенции съвместно проведоха отворен период за коментари относно „Използването на изкуствен интелект от финансовите институции“ от 31 март 2021 г., до 1 юли 2021 г., за да „разберат възгледите на респондентите относно използването на AI от финансовите институции при предоставянето на услуги на клиентите.“ [110] Кевин Грийнфийлд, заместник контрольор по политиката за операционен риск в OCC, отбеляза, че RFI конкретно ще хвърли светлина върху въпроса за AI, потенциално нарушаващ законите за защита на потребителите, като въздейства върху защитен клас, наред с други проблеми. усъвършенствани технологии от различни форми на финансови услуги.

A.Европейски съюз

1.Проект на законодателство на ЕО за регулиране на ИИ в целия ЕС

На 21 април 2021 г. Европейската комисия („ЕК“) представи своя дългоочакван изчерпателен проект на Регламент за изкуствения интелект (наричан още „Закон за изкуствения интелект“).[112]Както е подчертано в нашето предупреждение за клиента „Пуснато е предложението на ЕС относно регламента за изкуствения интелект“ и в нашата „Правна актуализация за изкуствения интелект и автоматизираните системи за 3Q20“ , проектът идва на фона на различни публикации и политически усилия в областта на ИИ с цел да постави ЕС в челните редици както на регулирането на ИИ, така и на иновациите. Предложеният Закон за изкуствения интелект изпълнява обещанието на президента на ЕК да постави напредничаво законодателство за координиран европейски подход относно човешките и етични последици от ИИ[113] и ще бъде приложимо и обвързващо във всички 27 държави-членки на ЕС.

За да „постигне двойната цел за насърчаване на възприемането на ИИ и за справяне с рисковете, свързани с определени употреби на такава технология“ [114], ЕК обикновено избира подход, основан на риска, а не пълна забрана на технологиите .Въпреки това, Законът за изкуствения интелект също съдържа директни забрани на някои „практики на ИИ“ и някои много широкообхватни разпоредби, насочени към „системи с ИИ с висок риск“, които донякъде напомнят на регулаторния подход съгласно Общия регламент за защита на данните на ЕС ( „GDPR“); т.е. широк извънтериториален обхват и тежки санкции, и вероятно ще породи противоречия и дебати в предстоящата законодателна процедура.

Както ЕК пише в своя обяснителен меморандум към Закона за изкуствения интелект, предложената рамка покрива следните конкретни цели:

Въпреки че не е сигурно кога и под каква форма Законът за изкуствения интелект ще влезе в сила, ЕК даде тона на предстоящите политически дебати с това амбициозно ново предложение. Въпреки че някои разпоредби и задължения може да не бъдат пренесени в окончателния законодателство, заслужава да се отбележи, че Европейският парламент вече призова ЕК да даде приоритет на етичните принципи в своята регулаторна рамка.[115]Следователно очакваме, че предложените правила няма да бъдат значително разредени и дори биха могли да бъдат допълнително затегнати. или използващи AI системи, независимо дали са базирани в ЕС или в чужбина, трябва да следят отблизо по-нататъшното развитие по отношение на Закона за изкуствения интелект, и по-специално обхвата на забранените „неприемливи“ и „високорискови“ случаи на употреба, които , така както е изготвен, може потенциално да се прилага за много широк набор от продукти и приложения.

Ние сме готови да помогнем на клиентите да се справят с потенциалните проблеми, повдигнати от предложените регламенти на ЕС, като продължаваме да следим отблизо развитието в това отношение, както и обществената реакция. Ние можем и ще помогнем да консултираме всички клиенти, които желаят да имат глас в процеса.

2.Проектодоклад за ИИ на Европейския парламент

На 2 ноември 2021 г. специалната комисия на ЕС публикува своя проектодоклад за ИИ в цифровата ера за Европейския парламент, който подчертава ползите от използването на ИИ като борба с изменението на климата и пандемии, както и различни етични и правни предизвикателства.[116]Според проектодоклада ЕС не трябва да регулира ИИ като технология; вместо това видът, интензивността и времето на регулаторната намеса трябва да зависят единствено от вида риск, свързан с конкретна употреба на система с ИИ. Проектодокладът подчертава също предизвикателството за постигане на консенсус в рамките на световната общност относно минималните стандарти за отговорните използване на изкуствен интелект и опасения относно военни изследвания и технологични разработки в оръжейните системи без човешки надзор.

3.Съветът на ЕС предлага регламент за неприкосновеността на личния живот и електронните комуникации

На 10 февруари 2021 г. Съветът на Европейския съюз („Съветът на ЕС“), институцията, представляваща правителствата на държавите-членки на ЕС, предостави мандат за преговори по отношение на преразглеждането на Директивата за правото на неприкосновеност на личния живот и електронни комуникации и публикува актуализирано предложение за нов Регламент за правото на неприкосновеност на личния живот и електронни комуникации. Противно на настоящата Директива за правото на неприкосновеност на личния живот и електронни комуникации, новият Регламент за правото на неприкосновеност на личния живот и електронни комуникации не би трябвало да бъде въведен в националното законодателство, а ще се прилага директно във всички държави-членки на ЕС без транспониране.

Директивата за неприкосновеността на личния живот и електронните комуникации съдържа правила, свързани с неприкосновеността на личния живот и поверителността във връзка с използването на електронни комуникационни услуги. Актуализирането на тези правила обаче се счита за критично, като се има предвид широкообхватният и бърз технологичен напредък, настъпил след приемането им през 2002 г. Новият Регламент за ePrivacy, който ще отмени и замени Директивата за ePrivacy, се обсъжда от няколко години.

Съгласно предложението на Съвета на ЕС Регламентът за ePrivacy ще обхваща и данни от машина към машина, предавани чрез обществена мрежа, което може да създаде ограничения върху използването на данни от компании, разработващи базирани на AI продукти и други технологии, управлявани от данни .Като общо правило, всички електронни комуникационни данни ще се считат за поверителни, освен когато обработването или друго използване е изрично разрешено от Регламента за ePrivacy. Подобно на Европейския общ регламент за защита на данните („GDPR“), Регламентът за ePrivacy ще се прилага и за обработване, което се извършва извън ЕС и/или към доставчици на услуги, установени извън ЕС, при условие че крайните потребители на електронните съобщителни услуги, чиито данни се обработват, се намират в ЕС.

Въпреки това, за разлика от GDPR, Регламентът за ePrivacy ще обхване цялото комуникационно съдържание, предавано чрез обществено достъпни електронни съобщителни услуги и мрежи, а не само лични данни. Освен това метаданните (като местоположение и час на получаване на комуникацията) също попадат в обхвата на Регламента за ePrivacy.

Очаква се, че проектопредложението ще претърпи допълнителни промени по време на преговорите с Европейския парламент. Ето защо остава да се види дали ще бъдат взети под внимание конкретните нужди на изключително иновативни технологии, управлявани от данни – чрез създаване на ясни и недвусмислени правни основания, различни от съгласието на потребителя за обработка на комуникационно съдържание и метаданни с цел разработване, подобряване и предлагане на продукти и приложения, базирани на изкуствен интелект. Ако преговорите между Съвета на ЕС и Европейския парламент продължат без допълнителни забавяния, новият Регламент за ePrivacy може да влезе в сила най-рано през 2023 г.

4.EDPB & ЕНОЗД призовава за забрана на използването на AI за разпознаване на лица в обществено достъпни пространства

На 21 юни 2021 г. Европейският съвет за защита на данните („EDPB“) и Европейският надзорен орган по защита на данните („EDPS“) публикуваха съвместно становище, призоваващо за обща забрана на „всяка употреба на AI за автоматизирано разпознаване на човешки черти в обществено достъпни пространства, като разпознаване на лица, походка, пръстови отпечатъци, ДНК, глас, натискания на клавиши и други биометрични или поведенчески сигнали във всякакъв контекст. ”[117]

В своето становище ЕКЗД и ЕНОЗД приветстваха подхода, основан на риска, който е в основата на предложения от ЕК Регламент за ИИ, и подчертаха, че той има важни последици за защитата на данните. Становището също така отбелязва ролята на ЕНОЗД, посочена в Регламента на ЕК за ИИ като компетентния орган и органа за надзор на пазара за надзора на институциите на ЕС — следва да бъдат допълнително изяснени.[118]По-специално, Становището също така препоръчва „забрана за системи с изкуствен интелект, използващи биометрични данни, за да категоризират лицата в групи въз основа на етническа принадлежност, пол, политическа или сексуална ориентация или други основания, на които дискриминацията е забранена съгласно член 21 от Хартата на основните права.“

Освен това ЕКЗД и ЕНОЗД отбелязват, че „считат, че използването на AI за извеждане на емоции на физическо лице е силно нежелателно и трябва да бъде забранено, с изключение на много специфични случаи, като някои здравни цели, когато пациентът разпознаването на емоциите е важно и че използването на AI за всякакъв вид социално оценяване трябва да бъде забранено.

A.UK стартира национална стратегия за ИИ

На 22 септември 2021 г. правителството на Обединеното кралство публикува своята „Национална стратегия за ИИ“ („Стратегията“) [119]. Според парламентарния заместник-секретар на Член на Министерството на цифровите технологии, културата, медиите и спорта, депутат Крис Филип, целта на стратегията е да очертае „основите за растеж през следващите десет години“, за да помогне на Обединеното кралство да се възползва от „потенциала на изкуствения интелект“ и да позволяват му да оформи „начина, по който светът го управлява“[120]. Стратегията има три стълба: (1) инвестиране в дългосрочните нужди на екосистемите на ИИ; (2) гарантиране, че ИИ е от полза за всички сектори и региони; и (3) ефективно управление на ИИ.

За тази цел Обединеното кралство има за цел да привлече глобални таланти за разработване на AI технологии, като продължи да подкрепя съществуващи интервенции, свързани с академичните среди, както и разширяване на маршрутите, по които талантливи изследователи на AI и отделни лица могат да работят в Обединеното кралство (например чрез въвеждане на нови VISA маршрути). Обединеното кралство също така се стреми да възприеме нов подход към научните изследвания, развитието и иновациите в AI, например чрез стартиране на Национална програма за AI изследвания и иновации (R&I) и също така да си сътрудничи в международен план по споделени предизвикателства в научноизследователска и развойна дейност (например чрез прилагане на Декларацията на САЩ и Обединеното кралство за сътрудничество в областта на изследванията и развитието на ИИ.

Стратегията също така подчертава, че ефективното управление на ИИ, насочено към иновациите, означава, че, наред с други неща, Обединеното кралство има ясна, пропорционална и ефективна рамка за регулиране на ИИ, която подкрепя иновациите, като същевременно адресира действителните рискове и вреди. В момента Обединеното кралство регулациите за ИИ са подредени сектор по сектор, вариращи от конкуренция до защита на данните. Стратегията обаче признава, че този подход може да доведе до проблеми, включително непоследователни подходи в различните сектори и припокриване между регулаторните мандати. За да се справи с това, третият стълб очертава ключови предстоящи инициативи за подобряване на управлението на ИИ: Службата за ИИ ще публикува Бяла книга в началото на 2022 г., която ще очертае позицията на правителството относно потенциалните рискове и вреди, причинени от системите с ИИ. Правителството също така ще предприеме други действия, включително пилотиране на Център за стандарти за ИИ за координиране на Обединеното кралство ангажираност в установяването на правила за ИИ в световен мащаб и сътрудничество с Института Алън Тюринг за предоставяне на актуализирани насоки относно етичните въпроси и проблемите на безопасността, свързани с ИИ.

Правителството на Обединеното кралство публикува рамка за етика, прозрачност и отчетност за автоматизирано вземане на решения

На 13 май 2021 г. правителството на Обединеното кралство публикува рамка, определяща как органите от публичния сектор могат да разположат технология за автоматизирано вземане на решения етично и устойчиво („Рамката“). [121] Рамката разделя автоматизираното вземане на решения в две категории: (1) единствено автоматизирано вземане на решения – решения, които са „напълно автоматизирани без човешка преценка“; и (2) автоматизирано подпомагано вземане на решения – когато „автоматизирани или алгоритмични системи подпомагат човешката преценка и вземане на решения.“ Рамката се прилага и за двата вида и определя процес от седем стъпки, който да се следва при използване на автоматизирано вземане на решения: (1) тест за избягване на всякакви непредвидени резултати или последствия; (2) предоставя справедливи услуги за всички потребители и граждани; (3) да е ясно кой е отговорен; (4) обработва безопасно данните и защитава интересите на гражданите; (5) помогне на потребителите и гражданите да разберат как това им влияе; (6) гарантира спазването на закона, включително законите за защита на данните, Закона за равенството от 2010 г. и Задължението за равенство в публичния сектор; и (7) гарантира, че алгоритмите или системите се наблюдават непрекъснато и смекчават нежеланите последствия.

Правителството на C.UK публикува стандарт за алгоритмична прозрачност

Алгоритмичната прозрачност се отнася до откритост за това как алгоритмичните инструменти поддържат решения. Централната цифрова служба и служба за данни на кабинета („CDDO“) разработи алгоритмичен стандарт за прозрачност за правителствени отдели и органи от публичния сектор, който беше публикуван на 29 ноември 2021 г. [122] („Стандартът“). Това прави Обединеното кралство един от първите държави в света, които създават национален стандарт за алгоритмична прозрачност. Стандартът е в пилотна фаза, след което CDDO ще прегледа стандарта въз основа на събраната обратна връзка и ще потърси официално одобрение от Органа за стандарти за данни през 2022 г.

D.ICO предлага вникване в своята политика относно използването на лицево разпознаване на живо в Обединеното кралство

На 18 юни 2021 г. Службата на комисаря по информацията („ICO“) публикува становище на комисаря относно използването на лицево разпознаване на живо („LFR“) в Обединеното кралство („Мнението“).[123]Лицевото разпознаване е процесът, чрез който човек може да бъде идентифициран или разпознат по друг начин от цифрово лицево изображение. LFR е вид лицево разпознаване технология, която често включва автоматично събиране на биометрични данни. Комисарят по-рано публикува становище през 2019 г. относно използването на LFR в контекста на правоприлагането, като заключава, че законът за защита на данните определя „високи стандарти“ за това, че използването на LFR е законно, когато се използва в обществени пространства. Становището се основава на тази работа, като се фокусира върху използването на LFR в обществени пространства – определени като всяко физическо пространство извън домашна обстановка, независимо дали е публична или частна собственост – извън правоприлагащите органи. Становището изяснява, че на първо място , администраторите, които искат да използват LFR, трябва да спазват Общия регламент за защита на данните на Обединеното кралство („GDPR на Обединеното кралство“) и Закона за защита на данните от 2018 г.

По отношение на правоприлагането, ICO обяви на 29 ноември 2021 г. намерението си да наложи потенциална глоба от над £17 милиона на Clearview AI Inc за предполагаемо събиране на изображения на значителен брой хора от Обединеното кралство без тяхно знание, в нарушение на законите за защита на данните на Обединеното кралство. ICO също издаде временно известие до компанията да спре по-нататъшното обработване на личните данни на хора в Обединеното кралство и да ги изтрие. Предварителното мнение на ICO е, че Clearview AI изглежда не е успял да се съобрази с Законите за защита на данните на Обединеното кралство по няколко начина, включително като няма законна причина за събиране на информацията и неспазване на по-високите стандарти за защита на данните, изисквани за биометрични данни съгласно GDPR на Обединеното кралство. Clearview AI Inc сега ще има възможност да направи изявления по отношение на предполагаемите нарушения, след което се очаква ICO да вземе окончателно решение. Това действие, предприето от ICO, подчертава колко е важно да се гарантира, че компаниите спазват законите за защита на данните на Обединеното кралство преди обработката и внедряването на биометрични данни.

Финансовият регулатор на Обединеното кралство обещава да засили използването на AI в надзора

Органът за пруденциално регулиране на Обединеното кралство („PRA“) възнамерява да използва по-широко AI, съгласно неговия бизнес план за 2021/22. Докладът за бъдещето на финансите препоръча на надзорните органи да се възползват от текущите разработки в областта на науката за данните и мощността за обработка, включително AI и машинно обучение, които автоматизират събирането и обработката на данни.[125]

F.Консултация относно бъдещото регулиране на медицинските изделия в Обединеното кралство

На 16 септември 2021 г. Лекарствата & Агенцията за регулиране на здравни продукти („MHRA“) публикува „Консултация относно бъдещото регулиране на медицинските изделия в Обединеното кралство“, която продължи до 25 ноември 2021 г. („Консултацията“).[126] Консултацията покани членовете на обществеността да предоставят своите мнения относно възможните промени в регулаторната рамка за медицинските изделия в Обединеното кралство с цел разработване на бъдещ режим за медицинските изделия, който позволява (i) подобряване на безопасността на пациентите и обществеността; (ii) по-голяма прозрачност на вземането на регулаторни решения и информацията за медицинските изделия; (iii) тясно съответствие с най-добрите международни практики и (iv) по-гъвкаво, отзивчиво и пропорционално регулиране на медицинските изделия.

Консултацията излага предложените промени за софтуера като медицинско устройство („SaMD“), включително AI като медицинско устройство („AIaMD“), като отбелязва, че настоящите разпоредби за медицински устройства съдържат малко разпоредби, специално насочени към регулиране на SaMD или AIaMD. Ето защо предложенията на MHRA включват изменение на разпоредбите за медицински устройства в Обединеното кралство, за да се защитят както пациентите, така и да се подпомогнат отговорните иновации в цифровото здравеопазване. Някои от възможните промени, предложени от MHRA в консултацията, включват (наред с други) дефиниране на „софтуер“, изясняване или добавяне към изискванията за продажба на SaMD чрез електронни средства, промяна на класификацията на SaMD, за да се гарантира, че проверката, прилагана към тези медицински изделия, е по-съизмерима с тяхното ниво на риск и е по-тясно хармонизирана с международната практика. MHRA възнамерява всички изменения на британските медицински рамката на устройството ще влезе в сила през юли 2023 г.

MHRA също публикува отделно обширна работна програма относно софтуера и изкуствения интелект като медицинско устройство, за да осигури смела промяна, за да осигури регулаторна рамка, която осигурява висока степен на защита за пациентите и обществеността, но също така за да се гарантира, че Обединеното кралство е дом на отговорни иновации за софтуер за медицински устройства.[127]Всяка законодателна промяна, предложена от работната програма, ще се основава на по-широки реформи в регулирането на медицинските устройства, предизвикани от консултацията.

______________________

[1]Steven Overly & Мелиса Хейкила, „Китай иска да доминира ИИ. САЩ и Европа се нуждаят един от друг, за да го укротят.“, Politico (2 март 2021 г.), достъпен на https://www.politico.com/news/2021/03/02/china-us-europe-ai- регулация-472120.

[2]Ид.

[3]Ид.

[4]За повече подробности вижте нашето четвърто тримесечие и годишен преглед за 2020 г. на изкуствения интелект и автоматизираните системи.

[5]Белият дом, съобщение за пресата (архивирано), Белият дом стартира Националния офис за инициатива за изкуствен интелект (12 януари 2021 г.), достъпно на https://trumpwhitehouse.archives.gov/briefings-statements/ бялата-къща-открива-национален-офис-инициатива-изкуствен-интелект/.

[6]Ид.

[7]Белият дом, Меморандум за възстановяване на доверието в правителството чрез научна почтеност и създаване на политика, основана на доказателства (27 януари 2021 г.), достъпен на https://www.whitehouse.gov/briefing-room/presidential- действия/2021/01/27/меморандум-за-възстановяване-на-доверието-в-правителството-чрез-изработване на политика, основана на-научен интегритет и-доказателства/.

[8]Писмо от заместник-директора Джейн Лубченко и заместник-директора Алондра Нелсън, OSTP до всички федерални агенции (29 март 2021 г.), достъпно на https://int.nyt.com/data/documenttools/si-task- сила-номинация-мотивационно-писмо-и-покана-за-номинации-ostp/ecb33203eb5b175b/full.pdf.

[9]Белият дом, Изпълнителна заповед за президентския съвет на съветниците по наука и технологии (27 януари 2021 г.), достъпна на https://www.whitehouse.gov/briefing-room/presidential-actions/ 2021/01/27/изпълнителна-заповед-на-президентския-съвет-съветник-по-наука-и-технологии/.

[10]Дан Райли, „White House A.I. директор казва, че САЩ трябва да моделират подхода на Европа към регулирането“, Fortune (10 ноември 2021 г.), достъпен на https://fortune.com/2021/11/10/white-house-a-i-director-regulation/.

[11]С. 1260, 117-ти конг. (2021 г.).

[12]Id., §§4201-4207.

[13]Id., §4202.

[14]Id., §4204. За повече подробности относно доклада на NSCAI и изпълнителната заповед за 2020 г., моля, вижте нашето четвърто тримесечие и годишен преглед за 2020 г. на изкуствения интелект и автоматизираните системи.

[15]Белият дом, „Присъединете се към усилията за създаване на законопроект за правата за автоматизирано общество“ (10 ноември 2021 г.), достъпно на https://www.whitehouse.gov/ostp/news-updates/ 2021/11/10/присъединете се към усилията-за-създаване-на-закон-за-правата-за-автоматизирано-общество/.

[16]Дейв Ничепир, „Ръководителят на технологичната политика на Белия дом казва, че законопроектът за правата на ИИ се нуждае от „зъби“,“ FedScoop (10 ноември 2021 г.), достъпно на https://www.fedscoop.com/ai-bill -на-правата-зъби/.

[17]Ид.

[18]Служба за научна и технологична политика, Известие за искане на информация (RFI) относно използването на биометрични технологии в публичния и частния сектор (8 октомври 2021 г.), достъпно на https://www.federalregister.gov/ документи/2021/10/08/2021-21975/известие за искане-за-информация-rfi-за-употреби-на-биометричните-технологии в публичния и частния сектор.

[19]САЩ Служба за отчетност на правителството, Изкуствен интелект: Рамка за отчетност за федералните агенции и други субекти, акценти на GAO-21-519SP, достъпни на https://www.gao.gov/assets/gao-21-519sp-highlights.pdf.

[20]Ключовите практики за мониторинг, идентифицирани от GAO, са особено подходящи за организации и компании, които се стремят да внедрят програми за управление и съответствие за базирани на AI системи и да разработят показатели за оценка на ефективността на системата. Докладът на GAO отбелязва, че мониторингът е критичен инструмент поради няколко причини: първо, необходимо е непрекъснато да се анализира ефективността на AI модел и да се документират констатациите, за да се определи дали резултатите са според очакванията, и второ, мониторингът е ключов, когато системата е или се мащабира или разширява, или когато приложимите закони, програмните цели и оперативната среда се променят с течение на времето.

[21]Проект на специална публикация 1270 на NIST, предложение за идентифициране и управление на пристрастия в изкуствения интелект (юни 2021 г.), наличен на https://nvlpubs.nist.gov/nistpubs/SpecialPublications/NIST.SP.1270-draft .pdf?_sm_au_=iHVbf0FFbP1SMrKRFcVTvKQkcK8MG.

[22]Национален институт за наука и технологии, Получени коментари относно предложение за идентифициране и управление на отклонения в изкуствения интелект (SP 1270), достъпно на https://www.nist.gov/artificial-intelligence/comments-received -изкуствено-идентифициране-и-управление-на-предложение.

[23]H.R. 5515, 115-ти конгрес (2017-18).

[24]Комисията за национална сигурност по изкуствен интелект, предишни доклади, достъпни на https://www.nscai.gov/previous-reports/.

[25]NSCAI, Окончателният доклад (1 март 2021 г.), достъпен на https://www.nscai.gov/wp-content/uploads/2021/03/Full-Report-Digital-1.pdf.

[26] Отдел за иновации в отбраната, Насоки за отговорен ИИ: Операционализиране на етичните принципи на Министерството на отбраната за ИИ (14 ноември 2021 г.), достъпно на https://www.diu.mil/responsible-ai-guidelines.

[27]Осигуряване на информационните и комуникационните технологии и веригата за доставки на услуги, Министерство на търговията на САЩ, 86 Fed. Рег. 4923 (19 януари 2021 г.) (наричано по-долу „Временно окончателно правило“).

[28]За повече информация, моля, вижте нашата правна актуализация за изкуствен интелект и автоматизирани системи (1Q21).

[29]С. 1776 г., 117-ти конг. (2021 г.).

[30]С. 1705 г., 117-ти конг. (2021 г.).

[31]Портман, Хайнрих обявяват двупартийни законопроекти за изкуствен интелект, включени в Закона за разрешение за национална отбрана за финансовата 2022 г., кабинет на сенатор Роб Портман (15 декември 2021 г.), достъпен на https://www.portman.senate.gov /newsroom/press-releases/portman-heinrich-announce-bipartisan-artificial-intelligence-bills-included.

[32]FTC, Бизнес блог, Елиза Джилсън, Стремеж към истина, справедливост и равнопоставеност при използването на AI във вашата компания (19 април 2021 г.), достъпно на https://www.ftc.gov/news-events /blogs/business-blog/2021/04/aiming-truth-fairness-equity-your-companys-use-ai.

[33]FTC, Защита на поверителността на потребителите по време на криза, Забележки на действащата председателка Ребека Кели Слотер, Форум за бъдещето на поверителността (10 февруари 2021 г.), достъпен на https://www.ftc.gov/system /files/documents/public_statements/1587283/fpf_opening_remarks_210_.pdf.

[34]FTC, Използване на изкуствен интелект и алгоритми (8 април 2020 г.), достъпно на https://www.ftc.gov/news-events/blogs/business-blog/2020/04/using-artificial- интелигентни алгоритми.

[35]FTC, председателят на FTC Лина М. Хан обявява нови назначения на ръководни позиции в агенцията (19 ноември 2021 г.), достъпно на https://www.ftc.gov/news-events/press-releases/2021 /11/ftc-chair-lina-m-khan-anounces-new-appointments-agency.

[36]FTC, Резолюция, нареждаща използването на задължителен процес относно злоупотреба с интелектуална собственост (2 септември 2021 г.), достъпна на https://www.law360.com/articles/1422050/attachments/0. Тези резолюции бяха приет от комисарите на Демократическата партия с гласуване по партийна линия 3-2. Комисарите на Републиканската партия излязоха с несъгласие, твърдейки, че общите разрешения премахват надзора на комисиите, като същевременно не правят нищо, за да направят разследванията по-ефективни.

[37]Бен Броуди, служител на FTC, предупреждава за изземване на алгоритми, „подготвени от неправомерно получени данни“ (27 юли 2021 г.), достъпно на https://www.protocol.com/bulletins/ftc-seize-algorithms- спечелен по нечестен път?_sm_au_=iHV5LNM5WjmJt5JpFcVTvKQkcK8MG.

[38] Федералната търговска комисия преди това се е позовавала на раздел 13(b), за да преследва освобождаване чрез съдебна забрана, най-вече относно нарушения на защитата на потребителите. Върховният съд установи обаче, че разпоредбата за възбрана упълномощава Федералната търговска комисия само да иска съдебна заповед за спиране на незаконната дейност и не й дава правомощието да поиска от съда да наложи парични санкции. Подобен законопроект, който беше представен през седмицата на решението на Върховния съд и беше одобрено от 25 главни прокурори на щата и президента Джо Байдън, премина през Камарата през лятото в почти партийно гласуване, но все още не е преместено през Сената. Републиканците се противопоставиха на тази инициатива поради опасения относно дължимите процес и 10-годишния давностен срок на законопроекта. Новият законопроект, от друга страна, включва тригодишен давностен срок и формулировка, която изисква комисията да докаже, че компанията, обвинена в нарушаване на закона, е направила това умишлено.

[39]С. _ 117-ти Конг. (2022-2023) https://www.law360.com/cybersecurity-privacy/articles/1449355/gop-sen-floats-bill-to-restore-ftc-s-restitution-powers?nl_pk=4e5e4fee-ca5f-4d2e -90db-5680f7e17547&utm_source=бюлетин&utm_medium=имейл&utm_campaign=cybersecurity-privacy

[40] Хари Бригнул, докторът, който измисли термина „тъмни модели“, е разработил таксономия, която може да включва: трикови въпроси; промъкнете се в кошницата (при онлайн покупка артикулите в последния момент се добавят към кошницата, без участието на потребителя); roach motel (услугите се влизат лесно, но трудно се отменят); свръхразкриване на поверителността (потребителите са подлъгани да споделят или да направят публично достояние повече информация от предвиденото); предотвратяване на сравняване на цените (уебсайтовете затрудняват сравняването на цени от други доставчици); погрешно насочване; скрити разходи; стръв и превключвател; потвърждаване на засрамване (потребителите са виновни за нещо или е формулирана опция за отказ, за ​​да засрамят потребителите, напр. „Не, не искам да спестявам пари“); маскирани реклами; принудителна непрекъснатост (безплатният пробен период неочаквано се превръща в платен абонамент); и спам от приятели (списъкът с потребителски контакти се използва за изпращане на нежелани съобщения от потребителя). Вижте Harry Brignull, Видове тъмен модел, Тъмни шаблони, на разположение на https://www.darkpatterns.org/types-of-dark-pattern.

[41]Извеждане на светло на тъмните модели: Семинар на FTC, Федерална търговска комисия, 29 април 2021 г., достъпно на https://www.ftc.gov/news-events/events-calendar/bringing-dark-patterns -light-ftc-работилница.

[42] Джон Хил, най-новата кука на CFPB за големите технологии може да бъде Законът за данните от 1970 г., Law360 (16 ноември 2021 г.), достъпен на https://www.law360.com/technology/articles/1439641/cfpb- s-newest-hook-on-big-tech-may-be-1970s-data-law?nl_pk=0d08c9f5-462a-4ad6-9d20-292663da6d5e&utm_source=newsletter&utm_medium=email&utm_campaign=technology.

[43]CFPB, CFPB предприема действия за спиране на фалшивата идентификация от специалисти за проверка на фона (4 ноември 2021 г.), достъпно на https://www.consumerfinance.gov/about-us/newsroom/cfpb-takes-action- to-stop-false-identification-by-background-screeners/?_sm_au_=iHVFR9tfrf49TNNMFcVTvKQkcK8MG.

[44]EEOC, EEOC стартира инициатива за изкуствен интелект и справедливост на алгоритмите (28 октомври 2021 г.), достъпна на https://www.eeoc.gov/newsroom/eeoc-launches-initiative-artificial-intelligence-and -algorithmic-fairness?_sm_au_=iHV5LNM5WjmJt5JpFcVTvKQkcK8MG.

[45]FTC, По въпроса за Everalbum, Inc. и Paravision, досие на Комисията № 1923172 (11 януари 2021 г.), достъпно на https://www.ftc.gov/enforcement/cases-proceedings/ 1923172/everalbum-inc-matter.

[46]FTC, Изявление на комисар Рохит Чопра, По въпроса за Everalbum и Paravision, досие на Комисията № 1923172 (8 януари 2021 г.), достъпно на https://www.ftc.gov/system/files /documents/public_statements/1585858/updated_final_chopra_statement_on_everalbum_for_circulation.pdf.

[47] Вижте например Vance v. Amazon, 2:20-cv-01084-JLR (W.D. Wash. 7 октомври 2021 г.); Vernita Miracle-Pond и др. срещу Shutterfly Inc., № 2019-CH-07050, (Ill. Cir. Cent. of Cook County); Carpenter срещу McDonald’s Corp., № 2021-CH-02014 (Ill. Cir. Ct. 28 май 2021 г.); Rivera срещу Google, Inc., № 1:16-cv-02714 (N.D. Ill. 30 август 2021 г.); Pena срещу Microsoft Corp., № 2021-CH-02338 (Ill. Cir. Ct. 12 май 2021 г.); Б.Х. срещу Amazon.com Inc., № 2021-CH-02330 (Ill. Cir. Ct. 12 май 2021 г.), Pruden срещу Lemonade, Inc., № 1:21-cv-07070 (S.D.N.Y. 20 август , 2021).

[48]С. _, 117-и Конг. (2021); вижте също Съобщение за пресата, сенатори Марки, водещи колеги Меркли относно законодателството за забрана на правителственото използване на лицево разпознаване, други биометрични технологии (15 юни 2021 г.), достъпно на https://www.markey.senate.gov/news/press-releases /senators-markey-merkley-lead-colleagues-on-legislation-to-ban-government-use-of-facial-recognition-other-biometric-technology.

[49]За повече подробности, моля, вижте нашите предишни предупреждения: Четвърто тримесечие и годишен преглед за 2020 г. на изкуствения интелект и автоматизираните системи.

[50]H.B. 2031, рег. Сесия (2020-2021).

[51]За повече подробности вижте нашето четвърто тримесечие и годишен преглед за 2020 г. на изкуствения интелект и автоматизираните системи.

[52]С. 1896 г., 117-ти конг. (2021); вижте също Съобщение за пресата, сенатор Марки, представител Matsui Въвеждане на законодателство за борба с вредните алгоритми и създаване на нов режим на онлайн прозрачност (27 май 2021 г.), достъпно на https://www.markey.senate.gov/news/press-releases/ senator-markey-rep-matsui-introduce-legislation-to-combat-harmful-algorithms-and-create-new-online-transparency-regime.

[53]H.R. 3723, 117-ти конг. (2021 г.).

[54]Elise Hansen, House Clears Bill to Study Crypto and Consumer Protection, Law360 (23 юни 2021 г.), наличен на https://www.law360.com/articles/1396110/house-clears-bill-to -проучване-крипто-и-защита-на-потребителите.

[55]С. 2134, 117-ти конг. (2021); вижте също Съобщение за пресата, Кабинетът на американския сенатор Кирстен Гилибранд, Съобщение за пресата, Gillibrand въвежда нова и подобрена агенция за наблюдение на потребителите, за да даде на американците контрол върху техните данни (17 юни 2021 г.), достъпно на https://www.gillibrand.senate.gov /news/press/release/gillibrand-introduces-new-and-improved-consumer-watchdog-agency-to-give-americans-control-over-their-data.

[56]Съгласно предложеното законодателство „лични данни“ се определят като „електронни данни, които самостоятелно или в комбинация с други данни—(A) идентифицират, отнасят се, описват, могат да бъдат свързани с или биха могли разумно да са свързани, пряко или косвено, с конкретно лице, домакинство или устройство; или (B) може да се използва, за да се определи, че дадено лице или домакинство е част от защитен клас.“ Закон за защита на данните от 2021 г., S. 2134, 117th Cong. § 2, параграф 16 (2021 г.).

[57]Id., § 2(3) (2021 г.).

[58]Id., § 2(11)-(13) (2021 г.).

[59]H.R. 5921 (2021), достъпен на https://www.congress.gov/bill/117th-congress/house-bill/5921/cosponsors?s=1&r=90&overview=closed; С.Б. 2024 (2021), достъпен на https://www.congress.gov/bill/117th-congress/senate-bill/2024/text.

[60]САЩ Сенатската комисия по вътрешна сигурност и усилвател; Правителствени въпроси, технически лидери подкрепят двупартийния акт на Portman за Deepfake Task Force Act за създаване на работна група към DHS за борба с Deepfake (30 юли 2021 г.), достъпен на https://www.hsgac.senate.gov/media/minority-media/tech- лидери-подкрепа-портманс-двупартийна-дълбока-фалшива-оперативна-група-действие за създаване-на-оперативна-група-в-dhs-за-борба с дълбоки фалшиви.

[61]За повече подробности вижте нашето четвърто тримесечие и годишен преглед за 2020 г. на изкуствения интелект и автоматизираните системи.

[62]С.Б. 5116, рег. Сесия (2021-22).

[63]Моника Никелсбърг, законодателите на щата Вашингтон се стремят да забранят на правителството да използва дискриминационни AI технологии, GeewWire (13 февруари 2021 г.), достъпно на https://www.geekwire.com/2021/washington-state-lawmakers -seek-ban-government-using-ai-tech-discriminates/.

[64]N.Y.C., № 1894-2020A (11 ноември 2021 г.), наличен на https://legistar.council.nyc.gov/LegislationDetail.aspx?ID=4344524&GUID=B051915D-A9AC-451E -81F8-6596032FA3F9.

[65]Вижте Thaler срещу Hirshfeld, № 120CV903LMBTCB, 2021 WL 3934803, на *8 (E.D. Va. 2 септември 2021 г.) (отбелязвайки „огромни доказателства, че Конгресът е възнамерявал да ограничи определението за „изобретател“ до физически лица”).

[66]Вижте напр. Univ. на Юта срещу Max-Planck-Gesellschaft, 734 F.3d 1315, 1323 (Fed. Cir. 2013); Beech Aircraft Corp. срещу EDO Corp., 990 F.2d 1237, 1248 (Fed. Cir. 1993).

[67]Проектът Artificial Inventor амбициозно описва DABUS като усъвършенствана AI система. DABUS е „творческа невронна система“, която е „хаотично стимулирана да генерира потенциални идеи, тъй като една или повече мрежи изразяват мнение относно кандидат-концепции“ и „може да се счита за „съзнателен“, тъй като всяка верижно базирана концепция стартира поредица от спомени (т.е. засяга вериги), които понякога завършват с критични спомени, като по този начин стартират вълна от изкуствени молекули.“ Райън Абът, Изкуственият изобретател зад този проект , достъпен на https://artificialinventor.com/dabus/.

[68]Райън Абът, Проектът за изкуствен изобретател, достъпен на https://artificialinventor.com/frequently-asked-questions/.

[69] Thaler v. Hirshfeld, 2021 WL 3934803, на *2.

[70]Ид. при *2.

[71]Ид. на *8.

[72]Европейското патентно ведомство, EPO, публикува основания за решението си да отхвърли две патентни заявки, посочващи машина като изобретател, 28 януари 2020 г., достъпно на https://www.epo.org/news-events/ новини/2020/20200128.html.

[73]Дани Кас, Апелативният съвет на EPO потвърждава, че само хора могат да бъдат изобретатели, Law360, 21 декември 2021 г.

[74]Томас Кърби, съдът на Обединеното кралство отхвърли DABUS – AI машина не може да бъде изобретател, Lexology, 14 декември 2021 г.

[75]Първият в света патент, присъден за изобретение, направено от AI, може да има сеизмични последици върху закона за интелектуалната собственост, Университет на Съри, 28 юли 2021 г.

[76] Джийн Куин, DABUS получава първия си патент в Южна Африка при проверка на формалностите, IP Watchdog, 29 юли 2021 г., достъпно на https://www.ipwatchdog.com/2021/07/29/dabus-gets -първи-патент-южна-африка-формалности-експертиза/id=136116/.

[77] Thaler срещу комисар по патентите [2021] FCA 879.

[78]Google LLC срещу Oracle Am., Inc., № 18-956, 2021 WL 1240906, (САЩ 5 април 2021 г.).

[79]Ид., в *3.

[80]Ид. на *20.

[81]Вижте id.

[82]Бил Донахю, Правила на Върховния съд за Google в борбата за авторско право на Oracle, Law360 (5 април 2021 г.), достъпно на https://www.law360.com/ip/articles/1336521.

[83]Вижте храните в САЩ & Администрация на лекарствата, План за действие 1-2 (2021 г.), базиран на софтуер за изкуствен интелект/машинно обучение (AI-ML) като медицинско устройство (SaMD), https://www.fda.gov/media/145022/изтегляне [по-нататък План за действие на FDA AI]; US Food & Drug Admin., FDA издава план за действие за изкуствен интелект/машинно обучение (12 януари 2021 г.), https://www.fda.gov/news-events/press-announcements/fda-releases-artificial-intelligencemachine-learning-action -план. Вижте също U.S. Food & Drug Admin., Предложена регулаторна рамка за модификации на софтуер, базиран на изкуствен интелект/машинно обучение (AI/ML) като медицинско устройство (SaMD) Дискусионен документ и искане за обратна връзка (2019), https://www.fda.gov/ media/122535/изтегляне.

[84] План за действие на FDA AI, бележка 1 по-горе, в 1.

[85]САЩ Храна и усилвател Администратор на лекарствата, Виртуален публичен семинар – Прозрачност на медицинските устройства с изкуствен интелект/машинно обучение (последна актуализация на 26 ноември 2021 г.) https://www.fda.gov/medical-devices/workshops-conferences-medical-devices/ виртуална-обществена-работилница-прозрачност-изкуствен-интелект-машинно-обучение-активирано-медицински-устройства.

[86]Ид.

[87]Ид.

[88]Ид.

[89]Ид.

[90]САЩ Храна и усилвател Медицински устройства с активирана администрация за лекарства, изкуствен интелект и машинно обучение (AI/ML) (последна актуализация на 22 септември 2021 г.), https://www.fda.gov/medical-devices/software-medical-device-samd/ медицински-устройства с активиран-изкуствен-интелект-и-машинно-обучение aiml.

[91]Ид.

[92]Ид.

[93]Както споменахме в предишни правни актуализации, Камарата на представителите преди това прие Закона за САМОСТОЯТЕЛНОТО УПРАВЛЕНИЕ (H.R. 3388) чрез гласуване през септември 2017 г., но съпътстващият го законопроект (Американската визия за по-безопасен транспорт чрез напредък на революционните технологии ( „AV START“) Закон (S. 1885)) спря в Сената. За повече подробности вижте нашето четвърто тримесечие и годишен преглед за 2020 г. на изкуствения интелект и автоматизираните системи.

[94]САЩ Dep't of Transp., Съобщение за пресата, Министерството на транспорта на САЩ публикува Пролетна регулаторна програма (11 юни 2021 г.), достъпна на https://www.transportation.gov/briefing-room/us-department-transportation-releases-spring -нормативно-дневен ред.

[95]САЩ Dep't of Transp., NHTSA разпорежда докладване за катастрофи за превозни средства, оборудвани с усъвършенствани системи за подпомагане на водача и автоматизирани системи за шофиране, достъпно на https://www.nhtsa.gov/press-releases/nhtsa-orders-crash-reporting-vehicles- оборудвани-усъвършенствани-системи-за-помощ на водача

[96]Ид.

[97]Ид.

[98]Ид.

[99]Ид.

[100]49 CFR 571, наличен на https://www.nhtsa.gov/sites/nhtsa.gov/files/documents/ads_safety_principles_anprm_website_version.pdf

[101]Id., at 6.

[102] Id., at 7-8.

[103]SF 302, Рег. Сесия (2019-2020 г.).

[104]ARC 5621C, Известие за планирано действие, достъпно на https://rules.iowa.gov/Notice/Details/5621C.

[105]Ид.

[106] Карли Пейдж, американските банки трябва скоро да докладват за значителни инциденти с киберсигурността в рамките на 36 часа, (19 ноември 2021 г.), достъпно на https://techcrunch.com/2021/11/19/us-banks-report -cybersecurity-incidents/?guccounter=1.

[107]„Банкови организации“ е дефиниран термин в правилото и се прилага за малко по-различна комбинация от субекти по отношение на всяка агенция.

[108]86 Фед. Рег. 66424.

[109]Ид. на 66438.

[110]86 Фед. Рег. 16837.

[111]Ал Барбарино, Актуализирани насоки за борба с пристрастията в AI на банковите регулатори (21 октомври 2021 г.), достъпно на https://www.law360.com/cybersecurity-privacy/articles/1433299/.

[112]ЕО, Предложение за регламент на Европейския парламент и на Съвета за установяване на хармонизирани правила относно изкуствения интелект и изменение на определени законодателни актове на Съюза (Закон за изкуствения интелект), COM(2021) 206 (21 април 2021 г.) , достъпен на https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-european-approach-artificial-intelligence.

[113] Урсула фон дер Лайен, Съюз, който се стреми към повече: Моята програма за Европа, достъпна на https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next -commission_bg.pdf.

[114] По-горе, бележка 39, стр. 1.

[115] Европейски парламент, Резолюция от 20 октомври 2020 г. с препоръки към Комисията относно рамка на етичните аспекти на изкуствения интелект, роботиката и свързаните с тях технологии (2020/2012 (INL)) (20 октомври 2020 г.), налична на https://www.europarl.europa.eu/doceo/document/TA-9-2020-0275_EN.pdf. За повече подробности вижте нашата „Правна актуализация за изкуствен интелект и автоматизирани системи за 3Q20“.

[116] Проектодоклад относно ИИ в дигиталната ера за Европейския парламент (2 ноември 2021 г.), достъпен на https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/AIDA/ PR/2021/11-09/1224166EN.pdf

[117] Съвместно становище 5/2021 относно предложението за регламент на Европейския парламент и на Съвета за установяване на хармонизирани правила относно изкуствения интелект, достъпно на https://edpb.europa.eu/system/files/2021 -06/edpb-edps_joint_opinion_ai_regulation_en.pdf.

[118] EDPS, съобщение за пресата, EDPB & Призив на ЕНОЗД за забрана на използването на AI за автоматизирано разпознаване на човешки черти в обществено достъпни пространства и някои други употреби на AI, които могат да доведат до несправедлива дискриминация (21 юни 2021 г.), достъпно на https://edps.europa.eu/ press-publications/press-news/press-releases/2021/edpb-edps-call-ban-use-ai-automated-recognition_en?_sm_au_=iHVWn7njFDrbjJK3FcVTvKQkcK8MG.

[119] Правителство на Обединеното кралство, Национална стратегия за изкуствен интелект (22 септември 2021 г.), достъпна на https://www.gov.uk/government/publications/national-ai-strategy.

[120]Правителство на Обединеното кралство, Нов десетгодишен план за превръщането на Обединеното кралство в глобална суперсила на ИИ (22 септември 2021 г.), достъпен на https://www.gov.uk/government/news/new-ten-year- план за превръщане-на-британия-глобална-AI-суперсила.

[121] Правителство на Обединеното кралство, Рамка за етика, прозрачност и отчетност за автоматизирано вземане на решения (13 май 2021 г.), достъпна на https://www.gov.uk/government/publications/ethics-transparency-and-accountability- рамка-за-автоматизирано-вземане на решения.

[122] Правителството на Обединеното кралство, правителството на Обединеното кралство публикува пионерски стандарт за алгоритмична прозрачност (29 ноември 2021 г.), достъпен на https://www.gov.uk/government/news/uk-government-publishes-pioneering-standard- за-алгоритмична-прозрачност–2.

[123] Правителство на Обединеното кралство, Служба на комисаря по информацията, Използването на технология за лицево разпознаване на живо на обществени места (18 юни 2021 г.), достъпно на https://ico.org.uk/media/for-organisations/documents/ 2619985/ico-opinion-the-use-of-lfr-in-public-places-20210618.pdf.

[124]Правителството на Обединеното кралство, Бизнес план за 2021/22 г. на Пруденциалния регулаторен орган (24 май 2021 г.), достъпен на https://www.bankofengland.co.uk/prudential-regulation/publication/2021/may/ пра-бизнес-план-2021-22.

[125] Правителството на Обединеното кралство, Бъдещето на финансите, Bank of England (юни 2019 г.), достъпно на https://www.bankofengland.co.uk/-/media/boe/files/report/2019/future -of-finance-report.pdf?la=en&hash=59CEFAEF01C71AA551E7182262E933A699E952FC.

[126] Правителството на Обединеното кралство, Консултация относно бъдещото регулиране на медицинските изделия в Обединеното кралство (16 септември 2021 г.), достъпно на https://www.gov.uk/government/consultations/consultation-on -бъдещата-регулация-на-медицинските-изделия-в-обединеното-кралство.

[127]Правителството на Обединеното кралство, Софтуерът и ИИ като програма за промяна на медицинско устройство (16 септември 2021 г.), достъпно на https://www.gov.uk/government/publications/software-and-ai- като програма за смяна на медицинско устройство.


Следните адвокати на Gibson Dunn подготвиха тази клиентска актуализация: H. Mark Lyon, Frances Waldmann, Emily Lamm, Tony Bedel, Kevin Kim, Brendan Krimsky, Prachi Mistry, Samantha Abrams-Widdicombe, Леон Фрейермут, Иман Чарания и Канчана Харендран.

Адвокатите на Gibson Dunn са на разположение, за да ви помогнат да отговорите на всякакви въпроси, които може да имате относно тези разработки. Моля, свържете се с адвоката на Gibson Dunn, с когото обикновено работите, с всеки член на групата за изкуствен интелект и автоматизирани системи на фирмата или със следните автори:

З. Марк Лион – Пало Алто (+1 650-849-5307, mlyon@gibsondunn.com) Франсис А. Валдман – Лос Анджелис (+1 213-229-7914, fwaldmann@gibsondunn.com)

Моля, не се колебайте да се свържете с някой от следните членове на групата за практикуване:

Група за изкуствен интелект и автоматизирани системи: H. Марк Лион – Председател, Пало Алто (+1 650-849-5307, mlyon@gibsondunn.com) Дж. Алън Банистър – Ню Йорк (+1 212-351-2310, abannister@gibsondunn.com) Патрик Дорис – Лондон (+44 (0)20 7071 4276, pdoris@gibsondunn.com) Кай Гесинг – Мюнхен (+49 89 189 33) 180, kgesing@gibsondunn.com) Ари Ланин – Лос Анджелис (+1 310-552-8581, alanin@gibsondunn.com) Робсън Лий – Сингапур (+65 6507 3684, rlee@gibsondunn.com) Кари М. Лерой – Пало Алто (+1 650-849-5337, cleroy@gibsondunn.com) Александър Х. Саутуел – Ню Йорк (+1 212-351-3981, asouthwell@gibsondunn.com) Кристофър Т. Тимура – ​​Вашингтон, окръг Колумбия (+1 202) -887-3690, ctimura@gibsondunn.com)Ерик Д. Вандевелде – Лос Анджелис (+1 213-229-7186, evandevelde@gibsondunn.com)Майкъл Валтер – Мюнхен (+49 89 189 33 180, mwalther@gibsondunn.com )

© 2022 Gibson, Dunn & Crutcher LLP

Адвокатска реклама: Приложените материали са изготвени само с обща информационна цел и не са предназначени като правен съвет.