• Technologie
  • Équipement électrique
  • Industrie des matériaux
  • La vie numérique
  • politique de confidentialité
  • Ô nom
Emplacement: Accueil / Technologie / Revue juridique annuelle 2021 sur l'intelligence artificielle et les systèmes automatisés - Gibson Dunn

Revue juridique annuelle 2021 sur l'intelligence artificielle et les systèmes automatisés - Gibson Dunn

Plateforme de services à guichet unique |
2173

20 janvier 2022

Cliquez pour le PDF

2021 a été une année chargée pour les propositions politiques et l'élaboration de lois liées à l'intelligence artificielle (« IA ») et aux technologies automatisées. L'OCDE a identifié 700 initiatives politiques en matière d'IA dans 60 pays, et de nombreux cadres juridiques nationaux prennent forme. Intelligence Act, qui devrait être finalisée en 2022, il est probable que les systèmes d'IA à haut risque seront explicitement et complètement réglementés dans l'UE. Bien que diverses propositions législatives sur l'IA aient été présentées au Congrès, les États-Unis n'ont pas adopté une approche globale de la réglementation de l'IA telle que proposée par la Commission européenne, en se concentrant plutôt sur les investissements dans la défense et les infrastructures pour exploiter la croissance de l'IA.

Néanmoins, reflétant les évolutions récentes des lois sur la confidentialité des données, il existe des signes timides de convergence dans l'élaboration des politiques aux États-Unis et en Europe, mettant l'accent sur une approche de la réglementation basée sur les risques et un accent croissant sur l'éthique et l'IA "digne de confiance", ainsi que sur l'application. Aux États-Unis, l'administration du président Biden a annoncé l'élaboration d'une «déclaration des droits de l'IA». De plus, la Federal Trade Commission («FTC») des États-Unis a fait preuve d'un zèle particulier dans la réglementation des produits et services de consommation impliquant des technologies automatisées et de gros volumes de données, et semble sur le point d'intensifier à la fois l'activité d'élaboration de règles et d'application au cours de l'année à venir. .Enfin, des principes de gouvernance et des normes techniques pour garantir la fiabilité de l'IA et du ML commencent à émerger, même s'il reste à voir dans quelle mesure les régulateurs mondiaux parviendront à un consensus sur des critères de référence clés au-delà des frontières nationales.

A.U.S. Politique nationale

1.Stratégie nationale de l'IA

Près de trois ans après que le président Trump a publié un décret exécutif "Maintenir le leadership américain en matière d'intelligence artificielle" pour lancer "l'initiative américaine sur l'IA" et chercher à accélérer le développement et la réglementation de l'IA dans le but de garantir la place des États-Unis en tant que leader mondial des technologies de l'IA, nous avons constaté une augmentation significative des mesures législatives et politiques liées à l'IA aux États-Unis, reliant l'ancienne et la nouvelle administration. il y a un an, le gouvernement fédéral américain a activement coordonné le leadership inter-agences et encouragé la poursuite de la recherche et du développement des technologies d'IA à l'usage du gouvernement. À cette fin, un certain nombre de mesures législatives et exécutives clés ont été dirigées la croissance et le développement de ces technologies pour les agences fédérales, la sécurité nationale et les applications militaires.U.S. les législateurs ont également poursuivi le dialogue avec leurs homologues de l'UE, s'engageant à travailler ensemble lors d'une audition parlementaire de l'UE le 1er mars.[1]Rep. Robin Kelly (D-Ill.) a témoigné lors d'une audition devant la commission spéciale de l'UE sur l'IA, notant que "[n]ations qui ne partagent pas notre engagement envers les valeurs démocratiques se précipitent pour être les leaders de l'IA et établissent les règles pour le monde ".[2] Elle a exhorté l'Europe à adopter une approche "étroite et flexible" de la réglementation tout en travaillant avec les États-Unis.[3]

a)Loi sur l'initiative nationale sur l'IA de 2020 (partie de la loi sur l'autorisation de la défense nationale de 2021 (« NDAA »)) et Bureau national de l'initiative sur l'IA

Conformément à la loi sur l'initiative nationale sur l'IA de 2020, qui a été adoptée le 1er janvier 2021 dans le cadre de la loi de 2021 sur l'autorisation de la défense nationale (« NDAA »),[4] l'OSTP a officiellement créé le Bureau national de l'initiative sur l'IA (le « Bureau ») le 12 janvier. Le Bureau, l'un des plusieurs nouveaux bureaux fédéraux mandatés par la NDAA - seront chargés de superviser et de mettre en œuvre une stratégie nationale d'IA et d'agir en tant que plaque tournante centrale pour la coordination et la collaboration des agences fédérales et des parties prenantes extérieures du gouvernement, de l'industrie et du milieu universitaire dans la recherche et l'élaboration des politiques en matière d'IA.[5 ]La loi a également créé le groupe de travail national sur les ressources de recherche en IA (le « groupe de travail »), réunissant un groupe d'experts techniques du monde universitaire, du gouvernement et de l'industrie pour évaluer et fournir des recommandations sur la faisabilité et l'opportunité de créer une ressource nationale de recherche sur l'IA ( "NAIRR").[6] Le groupe de travail élaborera une feuille de route coordonnée et un plan de mise en œuvre pour établir et maintenir un NAIRR, un nuage de recherche national pour fournir aux chercheurs un accès à des ressources informatiques, des ensembles de données de haute qualité, des outils pédagogiques et un support utilisateur. pour faciliter les opportunités de recherche et de développement sur l'IA. Le groupe de travail soumettra deux rapports au Congrès pour présenter ses constatations, ses conclusions et ses recommandations - un rapport intermédiaire en mai 2022 et un rapport final en novembre 2022.

Le 27 janvier 2021, le président Biden a signé un mémorandum intitulé "Restaurer la confiance dans le gouvernement par la science et l'intégrité et l'élaboration de politiques fondées sur des preuves", déclenchant un vaste examen des politiques fédérales d'intégrité scientifique et demandant aux agences de renforcer leurs efforts pour soutenir la prise de décision fondée sur des preuves[7] qui devrait "générer des informations importantes et des meilleures pratiques, y compris la transparence et la responsabilité…."[8]Le président a également signé un décret exécutif pour reconstituer officiellement le Conseil présidentiel des conseillers sur la science et la technologie ,[9] et a annoncé la création du Comité consultatif national sur l'IA, qui est chargé de fournir des recommandations sur divers sujets liés à l'IA, y compris l'état actuel de la compétitivité et du leadership économiques des États-Unis, de la recherche et du développement et des applications commerciales.[10]

b)Loi sur l'innovation et la concurrence (S. 1260)

Le 8 juin 2021, le Sénat américain a voté à 68 voix contre 32 pour approuver la loi américaine sur l'innovation et la concurrence (S. 1260), destinée à renforcer la capacité du pays à rivaliser avec la technologie chinoise en investissant plus de 200 milliards de dollars dans l'innovation scientifique et technologique américaine au cours des cinq prochaines années, en répertoriant l'intelligence artificielle, l'apprentissage automatique et l'autonomie comme "domaines technologiques clés".[11]80 milliards de dollars représentent destiné à la recherche sur l'IA, la robotique et la biotechnologie.Parmi divers autres programmes et activités, le projet de loi crée une direction de la technologie et de l'innovation au sein de la National Science Foundation («NSF») et renforce la recherche scientifique, les pipelines de développement, crée des subventions et vise favoriser les accords entre les entreprises privées et les universités de recherche pour encourager les ruptures technologiques.

La loi comprend également des dispositions intitulées "Advancing American AI Act"[12] destinées à "encourager les programmes et initiatives liés à l'intelligence artificielle des agences qui améliorent la compétitivité des États-Unis" tout en garantissant que le déploiement de l'IA "s'aligne[s ] avec les valeurs des États-Unis, y compris la protection de la vie privée, des droits civils et des libertés civiles. » [13] Les dispositions spécifiques à AI exigent que le directeur du Bureau de la gestion et du budget (« OMB ») élabore des principes et les politiques d'utilisation de l'IA au sein du gouvernement, en tenant compte du rapport NSCAI, du décret exécutif du 3 décembre 2020 « Promouvoir l'utilisation d'une intelligence artificielle digne de confiance au sein du gouvernement fédéral » et de la contribution de divers conseils et experts interinstitutions.[14 ]

c) Gouvernance algorithmique

Nous avons également vu de nouvelles initiatives prendre forme au niveau fédéral axées sur la gouvernance algorithmique, aboutissant à l'annonce du Bureau de la politique scientifique et technologique de la Maison Blanche ("OSTP") en novembre 10, 2021, qu'il lancerait une série de sessions d'écoute et d'événements la semaine suivante pour engager le public américain dans le processus d'élaboration d'une déclaration des droits pour une société automatisée. [15] Selon le directeur de l'OSTP, Eric, le projet de loi devra « dents » sous la forme d'application des marchés publics.[16] Dans une action parallèle, la directrice du National AI Initiative Office, Lynne Parker, a fait des commentaires indiquant que les États-Unis devraient avoir une vision de la réglementation de l'IA similaire à celle de l'UE. Règlement sur la protection des données (« GDPR »). émotionnellement et mentalement.[18]

En juin 2021, le Government Accountability Office (« GAO ») des États-Unis a publié un rapport identifiant les pratiques clés pour garantir la responsabilité et l'utilisation responsable de l'IA par les agences fédérales et d'autres entités impliquées dans la conception, le développement, le déploiement et la surveillance continue de Systèmes d'IA.[19]Le rapport a identifié quatre domaines clés : (1) l'organisation et la gouvernance algorithmique ; (2) performances du système ; (3) documenter et analyser les données utilisées pour développer et exploiter un système d'IA ; et (4) un suivi et une évaluation continus du système pour garantir sa fiabilité et sa pertinence dans le temps.[20]

Enfin, l'Institut national des normes et de la technologie ("NIST"), chargé par l'administration Trump d'élaborer des normes et des mesures pour l'IA, a publié son rapport sur la façon de mesurer et d'améliorer la confiance des utilisateurs, et d'identifier et de gérer les biais, en Technologie d'IA. [21] Le NIST a reçu soixante-cinq commentaires sur le document, et les auteurs prévoient de synthétiser et d'utiliser les réponses du public pour développer la prochaine version du rapport et pour aider à façonner l'ordre du jour de plusieurs événements virtuels collaboratifs que le NIST organisera à mois à venir.[22]

2.Sécurité nationale

a)Rapport final de la NSCAI

La loi de 2019 sur l'autorisation de la défense nationale a créé une Commission de sécurité nationale sur l'intelligence artificielle (« NSCAI ») de 15 membres, et a ordonné que le NSCAI "examine et donne des conseils sur la compétitivité des États-Unis en matière d'intelligence artificielle, d'apprentissage automatique et d'autres technologies associées, y compris les questions liées à la sécurité nationale, à la défense, aux partenariats public-privé et aux investissements". Au cours des deux dernières années, le NSCAI a publié plusieurs rapports, dont des rapports intermédiaires en novembre 2019 et octobre 2020, deux mémorandums trimestriels supplémentaires et une série de rapports spéciaux en réponse à la pandémie de COVID-19.[24]

Le 1er mars 2021, la NSCAI a soumis son rapport final au Congrès et au président. Au départ, le rapport lance un appel urgent à l'action, avertissant que le gouvernement américain n'est actuellement pas suffisamment organisé ou doté de ressources pour rivaliser avec succès. avec d'autres pays en ce qui concerne les technologies émergentes, ni prêt à se défendre contre les menaces basées sur l'IA ou à adopter rapidement des applications d'IA à des fins de sécurité nationale. [25] et identifie des étapes spécifiques pour améliorer la transparence publique et protéger la vie privée, les libertés civiles et les droits civils lorsque le gouvernement déploie des systèmes d'IA. audits et tests de systèmes d'IA ; et des mécanismes pour assurer une procédure régulière et des réparations aux personnes lésées par les systèmes d'IA utilisés au sein du gouvernement. " Des systèmes d'IA et un processus d'appel pour les personnes concernées. Ces recommandations peuvent avoir des implications importantes pour la surveillance et la réglementation potentielles de l'IA dans le secteur privé. Le rapport décrit également les mesures urgentes que le gouvernement doit prendre pour promouvoir l'innovation en matière d'IA afin d'améliorer la compétitivité nationale, de sécuriser talents et protéger les avantages critiques des États-Unis, y compris les droits de propriété intellectuelle.

b) L'Unité d'innovation pour la défense (DIU) du DOD a publié ses « Lignes directrices sur l'IA responsable »

Le 14 novembre 2021, l'Unité d'innovation pour la défense (« DIU ») du Département de la défense a publié les « Directives pour l'IA responsable » qui fournissent des conseils étape par étape aux développeurs tiers à utiliser lors de la création d'une IA à usage militaire. Ces directives incluent des procédures pour identifier qui pourrait utiliser la technologie, qui pourrait en être blessé, quels pourraient être ces dommages et comment ils pourraient être évitée, à la fois avant la construction du système et une fois qu'il est opérationnel.[26]

c)Loi sur les capacités et la transparence de l'intelligence artificielle ("AICT")

Le 19 mai 2021, les sénateurs Rob Portman (R-OH) et Martin Heinrich (D-NM) ont présenté la loi bipartite sur l'intelligence artificielle Loi sur les capacités et la transparence du renseignement (« AICT »).[27] L'AICT assurerait une transparence accrue des systèmes d'IA du gouvernement et se fonde principalement sur les recommandations promulguées par la Commission de sécurité nationale sur l'IA (« NSCAI ») en avril 2021.[28 ]AICT était accompagné de la loi sur l'intelligence artificielle pour l'armée (AIM).[29]La loi AICT établirait un fonds pilote de développement et de prototypage d'IA au sein du ministère de la Défense visant à développer des technologies basées sur l'IA pour les besoins opérationnels de l'armée, et développerait un plan de ressourcement pour le DOD afin de permettre le développement, les tests, la mise en service et la mise à jour des applications alimentées par l'IA.[30] Les deux projets de loi ont été adoptés dans le cadre de la loi d'autorisation de la défense nationale pour l'exercice 2022.[31]

B. Protection des consommateurs, confidentialité et amp ; Équité algorithmique

1. La FTC se concentre sur la transparence et l'équité algorithmiques

Le 19 avril 2021, la FTC a publié des directives soulignant son intention d'appliquer les principes de transparence et d'équité en matière de décision algorithmique -faisant un impact sur les consommateurs. Le billet de blog, "Viser la vérité, l'équité et l'équité dans l'utilisation de l'IA par votre entreprise", a annoncé l'intention de la FTC d'intenter des actions d'exécution liées aux "algorithmes biaisés" en vertu de l'article 5 de la loi FTC, la FTC Act Credit Reporting Act et Equal Credit Opportunity Act.[32] Notamment, la déclaration note expressément que « la vente ou l'utilisation, par exemple, d'algorithmes racistes » entre dans le champ d'application de l'interdiction des pratiques commerciales déloyales ou trompeuses. l'article de blog a fourni des conseils concrets sur "l'utilisation de l'IA de manière honnête, juste et équitable", indiquant qu'il s'attend à ce que les entreprises "font plus de bien que de mal" en auditant leurs données de formation et, si nécessaire, en "limitant où ou comment [elles ] utiliser le modèle ; » tester leurs algorithmes pour détecter les biais inappropriés avant et pendant le déploiement ; utiliser des cadres de transparence et des normes indépendantes ; et être transparent avec les consommateurs et demander le consentement approprié pour utiliser les données des consommateurs. Les directives ont également mis en garde les entreprises contre les déclarations aux consommateurs qui "promettent trop" ou dénaturent les capacités d'un produit, notant que des résultats biaisés peuvent être considérés comme trompeurs et conduire à des mesures d'application de la loi par la FTC. .

Cette déclaration d'intention fait suite aux remarques de l'ancienne présidente par intérim de la FTC, Rebecca Kelly Slaughter, le 10 février lors du Forum sur l'avenir de la vie privée, présentant les priorités en matière d'application sous l'administration Biden et liant spécifiquement le rôle de la FTC dans la lutte contre le racisme systémique à la la fracture numérique, exacerbée par le COVID-19, l'IA et la prise de décision algorithmique, la technologie de reconnaissance faciale et l'utilisation des données de localisation des applications mobiles.[33]Il suit également les directives informelles de la FTC de l'année dernière décrivant les principes et les meilleures pratiques en matière de transparence, d'explicabilité , biais et modèles de données robustes.[34]

Ces priorités réglementaires continuent de s'accélérer sous la direction de la nouvelle présidente de la FTC, Lina Khan, qui a annoncé en novembre 2021 plusieurs nouveaux ajouts au Bureau de la planification des politiques de la FTC, dont trois "conseillers en intelligence artificielle", Meredith Whittaker, Ambak Kak et Sarah. Meyers West - tous anciennement à l'AI Now Institute de NYU et experts dans divers sujets d'IA, y compris la responsabilité algorithmique et l'économie politique de l'IA.[35]

La FTC a également pris des mesures pour renforcer ses pouvoirs d'application, en adoptant une série de mesures pour permettre des enquêtes plus rapides sur les violations potentielles, y compris les problèmes de biais dans les algorithmes et la biométrie.[36]De plus, le 27 juillet 2021, la Le technologue en chef de la FTC, Erie Meyer, a déclaré que l'agence envisage d'exiger des entreprises qui se livrent à des utilisations illégales de données qu'elles "non seulement restituent des données et de l'argent", mais aussi "des algorithmes qui ont été abusés par des données mal acquises".[37]Sen. Mike Lee, R-Utah, a ensuite présenté un projet de loi le 15 décembre 2021 qui donnerait à la FTC le pouvoir de demander une restitution devant un tribunal de district fédéral, après que la Cour suprême des États-Unis a statué en avril que le pouvoir de l'agence de demander des injonctions à un juge fédéral n'inclut pas la possibilité de demander la restitution ou la restitution des gains mal acquis. juge fédéral pour lui permettre de récupérer l'argent des escrocs et des contrevenants aux lois antitrust.[39]

La FTC a également identifié les "modèles sombres" comme une préoccupation croissante et un point central d'application. conception de l'expérience utilisateur (UX) - par exemple, un bot de service client, une garantie indésirable ou un abonnement d'essai qui se convertit en payant. Daniel Kaufman, a suggéré que les entreprises peuvent s'attendre à une application agressive de la FTC dans ce domaine et que la FTC utilisera l'article 5 de la loi FTC et la loi sur le rétablissement de la confiance des acheteurs en ligne pour exercer son autorité en promulguant de nouvelles règles, déclarations de politique ou directives d'application. [41]

Nous recommandons aux entreprises développant ou déployant une prise de décision automatisée d'adopter une approche « éthique dès la conception » et de revoir et de renforcer les politiques internes de gouvernance, de diligence et de conformité. Les entreprises doivent également se tenir au courant des développements concernant la capacité de la FTC à demander une restitution et des sanctions et imposer des obligations de suppression d'algorithmes, de modèles ou de données.

2.Consumer Financial Protection Bureau

Le CFPB, désormais dirigé par l'ancien commissaire de la FTC, Rohit Chopra, a suggéré qu'il pourrait utiliser le Fair Credit Reporting Act (FCRA) pour exercer sa juridiction sur les grandes entreprises technologiques et leurs pratiques commerciales.[42]La FCRA a traditionnellement réglementé les activités des bureaux de crédit, des sociétés de vérification des antécédents et des services de sélection des locataires, mais Chopra a fait plusieurs déclarations selon lesquelles les données sous-jacentes utilisées par les géants de la technologie pourraient déclencher des obligations en vertu de la FCRA.La FCRA définit une agence de renseignements sur les consommateurs de manière assez large pour inclure les entreprises qui assemblent, évaluent et vendent des données à des tiers qui utilisent les données pour prendre des décisions d'éligibilité concernant les consommateurs. Le CFPB peut chercher à enquêter sur les grandes entreprises technologiques afin de savoir si les données sont , en fait, vendu à des tiers et comment il peut être utilisé plus en aval.

En novembre, le CFPB a émis un avis consultatif affirmant que les sociétés de renseignements sur les consommateurs, y compris les sociétés de vérification des locataires et des emplois, enfreignent la loi si elles s'engagent dans des procédures imprudentes de recherche de noms.[43]Le CFPB est particulièrement préoccupé par les algorithmes. des sociétés de vérification des antécédents attribuant une fausse identité aux candidats à des emplois et à un logement en raison de rapports de vérification des antécédents erronés qui peuvent avoir un impact disproportionné sur les communautés de couleur. L'avis consultatif réaffirme les obligations et les exigences des sociétés de renseignements sur les consommateurs d'utiliser des procédures raisonnables pour assurer le maximum précision éventuelle.

3.É.-U. Commission pour l'égalité des chances dans l'emploi

La Commission américaine pour l'égalité des chances dans l'emploi prévoit d'examiner comment les outils et la technologie de l'IA sont appliqués aux décisions en matière d'emploi.[44]L'initiative de l'EEOC examinera de plus près comment la technologie change fondamentalement la façon dont l'emploi les décisions sont prises. Il vise à guider les candidats, les employés, les employeurs et les fournisseurs de technologies pour s'assurer que ces technologies sont utilisées équitablement, conformément aux lois fédérales sur l'égalité des chances en matière d'emploi.

4.Reconnaissance faciale et technologies biométriques

a)Application

En janvier 2021, la FTC a annoncé son règlement avec Everalbum, Inc. concernant son "Ever App", une application de stockage de photos et de vidéos qui utilisait la technologie de reconnaissance faciale pour trier et « étiqueter » automatiquement les photographies des utilisateurs. les utilisateurs qui ont désactivé leurs comptes en violation de l'article 5 (a) de la loi FTC. Conformément à l'accord de règlement, Everalbum doit supprimer les modèles et algorithmes qu'il a développés à l'aide des photos et vidéos téléchargées par les utilisateurs et obtenir le consentement exprès de ses utilisateurs avant d'appliquer reconnaissance faciale, soulignant l'émergence de la suppression en tant que mesure d'application potentielle. L'obligation de supprimer des données, des modèles et des algorithmes développés à l'aide de données collectées sans consentement exprès pourrait représenter une obligation corrective importante avec des implications plus larges pour les développeurs d'IA.

Signalant le potentiel d'augmentation de la réglementation et de l'application dans ce domaine, le commissaire de la FTC, Rohit Chopra, a publié une déclaration d'accompagnement décrivant le règlement comme une "correction de cap", commentant que la technologie de reconnaissance faciale est "fondamentalement défectueuse et renforce les préjugés nuisibles" tout en soulignant le Cependant, le commissaire a également mis en garde contre une "préemption fédérale large" sur la protection des données et a noté que l'autorité de réglementer les droits sur les données devrait rester au niveau de l'État.[46]Nous surveillera attentivement toute autre mesure d'application de la loi par la FTC (et d'autres régulateurs), ainsi que la liste des poursuites en cours alléguant la collecte illicite de données biométriques utilisées par des technologies automatisées conformément à un nombre croissant de lois sur la confidentialité des États, telles que la loi biométrique de l'Illinois. Information Privacy Act (« BIPA »)[47] – et recommande aux entreprises développant ou utilisant des technologies de reconnaissance faciale de demander des conseils juridiques spécifiques concernant les exigences de consentement relatives aux données biométriques, ainsi que de développer des processus de diligence et d'évaluation des risques robustes en matière d'IA pour les tiers. Applications IA.

b) Législation

La technologie de reconnaissance faciale a également attiré l'attention des législateurs fédéraux et des États en 2021. Le 15 juin 2021, un groupe de sénateurs démocrates a réintroduit la loi sur le moratoire sur la reconnaissance faciale et la technologie biométrique, qui interdirait aux agences d'utiliser la technologie de reconnaissance faciale et d'autres technologies biométriques - y compris la reconnaissance vocale, la reconnaissance de porte et la reconnaissance d'autres caractéristiques physiques immuables - par les entités fédérales, et bloquerait les fonds fédéraux pour les systèmes de surveillance biométrique.[48] Un projet de loi similaire a été présenté en les deux chambres lors du Congrès précédent, mais n'a pas quitté le comité. la loi (appliquée par les procureurs généraux des États) et cherche à limiter l'utilisation des technologies biométriques par les entités locales en liant la réception de subventions fédérales à des interdictions localisées de la technologie biométrique. Toute donnée biométrique collectée en violation des dispositions du projet de loi serait également interdite de utilisation dans les procédures judiciaires.

2021 Intelligence artificielle et systèmes automatisés Juridique annuel Revue - Gibson Dunn

Au niveau de l'État, la Virginie a interdit l'utilisation de la technologie de reconnaissance faciale par les forces de l'ordre (H.B. 2031). La législation, qui a obtenu un large soutien bipartisan, interdit à tous les services de police locaux et aux services de police du campus d'acheter ou d'utiliser la technologie de reconnaissance faciale à moins qu'elle ne soit expressément autorisée par la législature de l'État.[50] La loi est entrée en vigueur le 1er juillet 2021. La Virginie rejoint la Californie, ainsi que de nombreuses villes des États-Unis, pour restreindre l'utilisation de la technologie de reconnaissance faciale par les forces de l'ordre. .[51]

5.Responsabilité algorithmique

a)Loi de 2021 sur la justice algorithmique et la transparence des plateformes en ligne (S. 1896)

Le 27 mai 2021, le sénateur Edward J. Markey (D -Mass.) et la députée Doris Matsui (CA-06) ont présenté la loi de 2021 sur la justice algorithmique et la transparence des plateformes en ligne pour interdire les algorithmes nuisibles, accroître la transparence des pratiques d'amplification et de modération du contenu des sites Web et commander une enquête intergouvernementale sur les algorithmes discriminatoires. processus à travers l'économie nationale.[52]La loi interdirait les processus algorithmiques sur les plateformes en ligne qui discriminent sur la base de la race, de l'âge, du sexe, de la capacité et d'autres caractéristiques protégées.En outre, il établirait une norme de sécurité et d'efficacité pour les algorithmes et exiger des plateformes en ligne qu'elles décrivent les processus algorithmiques en langage clair aux utilisateurs et qu'elles conservent des enregistrements détaillés de ces processus pour examen par la FTC.

b)Consumer Safety Technology Act, ou AI for Consumer Product Safety Act (H.R. 3723)

Le 22 juin 2021, la Chambre a voté 325-103 pour approuver la Consumer Safety Technology Act, ou AI for Consumer Product Safety Act (H.R. 3723), qui oblige la Consumer Product Safety Commission à créer un programme pilote qui utilise l'IA pour explorer les questions de sécurité des consommateurs telles que les tendances en matière de blessures, les dangers des produits, les produits rappelés ou les produits qui ne doivent pas être importés dans le États-Unis[53]C'est la deuxième fois que la Consumer Safety Technology Act est adoptée à la Chambre.L'année dernière, après avoir été dégagé de la Chambre, le projet de loi n'a pas progressé au Sénat après avoir été renvoyé au Comité du commerce, des sciences et des transports.[54 ]

c)Loi sur la protection des données de 2021 (S. 2134)

En juin 2021, la sénatrice Kirsten Gillibrand (D-NY) a présenté la loi sur la protection des données de 2021, qui créerait une agence fédérale indépendante pour protéger les données et la vie privée des consommateurs.[55]L'objectif principal de l'agence serait de protéger la vie privée des individus en ce qui concerne la collecte, l'utilisation et le traitement des données personnelles.[56]Le projet de loi définit le "système de décisions automatisé" comme "un système de calcul processus, y compris un processus dérivé de l'apprentissage automatique, des statistiques ou d'autres techniques de traitement de données ou d'intelligence artificielle, qui prend une décision ou facilite la prise de décision humaine. pratique des données » nécessitant une évaluation d'impact après le déploiement et une évaluation des risques sur le développement et la conception du système, y compris une description détaillée de la pratique, y compris la conception, la méthodologie, les données de formation et l'objectif, ainsi que tout impact disparate et atteinte à la vie privée.[58 ]

d)Loi sur la transparence des bulles de filtre

Le 9 novembre 2021, un groupe bipartisan de législateurs de la Chambre a présenté une législation qui donnerait aux gens plus de contrôle sur les algorithmes qui façonnent leur expérience en ligne.[59]Si elle est adoptée. , le Filter Bubble Transparency Act obligerait des entreprises comme Meta à proposer une version de leurs plates-formes qui s'exécute sur un algorithme "input-transparent" qui ne tire pas sur les données des utilisateurs pour générer des recommandations. En d'autres termes, fournir aux utilisateurs la possibilité de désactiver les flux de contenu algorithmique basés sur des données personnelles.Cette législation de la Chambre est un projet de loi complémentaire à la législation du Sénat présentée en juin 2021.

e)Deepfake Task Force Act

Le 29 juillet, les sénateurs Gary Peters (D-Mich.) et Rob Portman (R-Ohio) ont introduit une législation bipartite qui créerait un groupe de travail au sein du Département de Homeland Security (DHS) chargé de produire un plan visant à réduire la propagation et l'impact des deepfakes, des images et des vidéos manipulées numériquement presque impossibles à distinguer des séquences authentiques. mener une étude annuelle sur les deepfakes.

6.Réglementations des États et des villes

a) Les législateurs de l'État de Washington présentent un projet de loi visant à réglementer l'IA, S.B. 5116

Dans la foulée du projet de loi historique de Washington sur la reconnaissance faciale (S.B. 6280) promulgué l'année dernière,[61] les législateurs des États et les défenseurs des droits civils ont proposé de nouvelles règles pour interdire la discrimination découlant de la prise de décision automatisée par les organismes publics .[62]Le projet de loi, parrainé par le sénateur Bob Hasegawa (D-Beacon Hill), établirait de nouvelles réglementations pour les ministères qui utilisent des « systèmes de décision automatisés », une catégorie qui comprend tout algorithme qui analyse des données pour créer ou soutenir décisions gouvernementales.[63]Si elles sont promulguées, il serait interdit aux agences publiques de l'État de Washington d'utiliser des systèmes de décision automatisés qui discriminent différents groupes ou prennent des décisions finales qui ont une incidence sur les droits constitutionnels ou légaux d'un résident de Washington.Le projet de loi interdit également aux agences gouvernementales de utiliser le profilage activé par l'IA dans les espaces publics. Des rapports de responsabilité accessibles au public garantissant que la technologie n'est pas discriminatoire seraient nécessaires avant qu'une agence puisse utiliser un système de décision automatisé.

b)Le projet de loi du conseil municipal de New York est adopté pour interdire aux employeurs d'utiliser des outils de recrutement automatisés sans audit annuel pour déterminer l'impact discriminatoire

Le 10 novembre 2021, le conseil municipal de New York a adopté un projet de loi interdisant l'embauche d'IA systèmes qui ne réussissent pas les audits annuels vérifiant la discrimination fondée sur la race ou le sexe. processus d'examen de leur demande. La loi imposerait aux employeurs ou aux agences de placement des amendes pouvant atteindre 1 500 $ par infraction.

C.Propriété intellectuelle

1.Thaler c. Hirshfeld

La propriété intellectuelle a historiquement offert une protection incertaine aux œuvres d'IA. travaux et inventions. Par exemple, aux États-Unis, le droit des brevets a rejeté la notion d'inventeur non humain. défis au paradigme. Tout d'abord, l'équipe a créé DABUS, le "dispositif d'amorçage autonome de la sensibilité unifiée" - un système d'IA qui a créé plusieurs inventions. [67] Le projet s'est ensuite associé à des avocats pour déposer des cas de test aux États-Unis. , l'Australie, l'UE et le Royaume-Uni.[68]Ces affaires ambitieuses ont donné des résultats mitigés, susceptibles de diverger davantage à mesure que l'invention de l'IA prolifère.

Aux États-Unis, DABUS a été répertorié comme « inventeur unique » dans deux demandes de brevet. le serment ou la déclaration n[id] n'identifiait pas chaque inventeur ou son nom légal "et a souligné que la loi exigeait que la qualité d'inventeur "doit être exercée par une personne physique."[70] Les demandeurs de brevet ont demandé un examen dans le district oriental de Virginie , qui était d'accord avec l'USPTO.[71]Le projet d'inventeur artificiel a connu des revers comparables en Europe. la loi exige l'inventeur humain.[72]La chambre d'appel juridique a également estimé qu'en vertu de la Convention sur le brevet européen, les brevets exigent l'inventeur humain.[73]DABUS n'a pas fait mieux devant les tribunaux britanniques des brevets, qui ont jugé que la loi sur les brevets exige qu'un inventeur soit une personne.[74]À l'inverse, l'office des brevets d'Afrique du Sud a accordé le premier brevet à un inventeur d'IA.[75]Un chef de l'équipe juridique a expliqué le résultat différentiel : au Royaume-Uni, la demande de brevet a été "réputée retirée" pour défaut de se conformer associés au dépôt des formulaires de brevet ; cependant, "l'Afrique du Sud procède à un examen des formalités et le délivre, selon les besoins, sur la base de la désignation dans la demande internationale (Traité de coopération en matière de brevets [PCT]), qui a été précédemment acceptée par l'OMPI".[76]Des semaines plus tard , la Cour fédérale d'Australie a également jugé que la qualité d'inventeur de l'IA n'était pas un obstacle à la brevetabilité.[77]Mais il convient de noter que le système des brevets australien n'utilise pas de système d'examen des brevets quant au fond.

Bien que les développements en Afrique du Sud et en Australie encouragent les inventeurs de l'IA, il n'y a aucune promesse d'harmonisation. Au lieu de cela, une approche disparate est plus probable. pas un inventeur.

2.Google LLC c. Oracle America, Inc.

Le 5 avril 2021, la Cour suprême des États-Unis s'est prononcée en faveur de Google dans le cadre d'une action en justice pour atteinte aux droits d'auteur de plusieurs milliards de dollars déposée par Oracle, estimant que Google n'a pas enfreint les droits d'auteur d'Oracle en vertu de la doctrine de l'utilisation équitable lorsqu'il a utilisé du matériel provenant des API d'Oracle pour créer sa plate-forme de smartphone Android. Pour l'amour de l'argument, le matériel était protégé par le droit d'auteur, "la copie ici en cause constituait néanmoins un usage loyal."[79] Plus précisément, la Cour a déclaré que "lorsque Google a réimplémenté une interface utilisateur, ne prenant que ce qui était nécessaire pour permettre aux utilisateurs de mettre leurs talents accumulés travailler dans un programme nouveau et transformateur, la copie par Google de l'API Sun Java était une utilisation équitable de ce matériel en droit. d'autres types de code informatique en concluant que les quatre facteurs directeurs énoncés dans la disposition relative à l'utilisation équitable de la Loi sur le droit d'auteur pesaient en faveur de l'utilisation équitable.[81]

Bien que la décision semble porter sur ce cas particulier, elle aura probablement des répercussions sur l'IA et les créateurs de plateformes.[82]L'application de l'utilisation équitable par la Cour pourrait offrir aux entreprises un moyen de plaider en faveur de la copie des labels organisationnels sans autorisation. notamment lorsque l'utilisation du matériel copié est transformatrice. Cela pourrait aider les entreprises qui cherchent à utiliser le contenu pour former leurs algorithmes à moindre coût, en mettant de côté Considérations potentielles sur la confidentialité (comme dans le cadre de la BIPA). Pendant ce temps, les entreprises peuvent également trouver plus difficile de gouverner et de superviser des programmes concurrents qui utilisent leur code API pour la compatibilité avec leurs plates-formes.

D.Healthcare

1.Plan d'action de la FDA pour les dispositifs médicaux d'IA

En janvier 2021, la Food and Drug Administration (FDA) des États-Unis a présenté son premier plan d'action en cinq parties axé sur l'intelligence artificielle/le logiciel basé sur l'apprentissage automatique (AI/ML) en tant que dispositif médical (SaMD). Le plan d'action est une approche à plusieurs volets pour faire progresser la surveillance par la FDA du SaMD basé sur l'IA/ML, développé en réponse aux les commentaires reçus du document de travail d'avril 2019, "Proposed Regulatory Framework for Modifications to Artificial Intelligence/Machine Learning-Based Software as a Medical Device". "SaMD basé sur l'IA/ML" offrira une fonctionnalité logicielle sûre et efficace qui améliore la qualité des soins que les patients reçoivent. "[84]

Comme proposé dans le plan d'action de janvier 2021 de la FDA, en octobre 2021, la FDA a organisé un atelier public sur la manière dont le partage d'informations sur un appareil favorise la transparence pour tous les utilisateurs d'appareils médicaux compatibles IA/ML.[85]L'objectif déclaré de l'atelier était double : (1) pour « identifier les considérations uniques dans la réalisation de la transparence pour les utilisateurs de dispositifs médicaux compatibles avec l'IA/ML et les moyens par lesquels la transparence pourrait améliorer la sécurité et l'efficacité de ces dispositifs ; » et (2) "recueillir les commentaires de diverses parties prenantes sur les types d'informations qu'il serait utile pour un fabricant d'inclure dans l'étiquetage et les informations destinées au public des dispositifs médicaux compatibles avec l'IA/ML, ainsi que d'autres mécanismes potentiels de partage d'informations .”[86]

L'atelier comportait trois modules principaux sur (1) la signification et le rôle de la transparence ; (2) comment promouvoir la transparence ; et (3) une session de commentaires publics ouverts.[87]Des panels spécifiques ont couvert des sujets tels que les impressions des patients et les perspectives des médecins sur la transparence de l'IA, le rôle de la FDA dans la promotion de la transparence et la promotion de la transparence du point de vue d'un développeur.[88]Après l'atelier, la FDA a sollicité les commentaires du public concernant l'atelier d'ici le 15 novembre 2021, pour qu'ils soient pris en considération à l'avenir.[89]

2.La FDA lance une liste de dispositifs médicaux basés sur l'IA et l'apprentissage automatique

Le 22 septembre 2021, la FDA a partagé sa liste préliminaire de SaMD basés sur l'IA/ML qui sont légalement commercialisés aux États-Unis. via l'autorisation 510 (k), l'autorisation De Novo ou l'approbation de précommercialisation (PMA). public concernant ces dispositifs et le travail de la FDA dans l'espace. » [91] L'effort s'accompagne de l'intérêt croissant pour le développement de tels produits pour contribuer à une grande variété de sphères cliniques, et du nombre croissant d'entreprises cherchant à intégrer la technologie AI/ML dans les dispositifs médicaux. La FDA a noté que l'un des "plus grands avantages potentiels du ML réside dans sa capacité à créer des informations nouvelles et importantes à partir de la grande quantité de données générées au cours de la prestation de soins de santé tous les jours."[92]

E.Véhicules autonomes (« VA »)

1.U.S. Développements fédéraux

En juin 2021, le représentant Bob Latta (R-OH-5) a de nouveau présenté la loi sur le déploiement et la recherche futurs en toute sécurité ("SELF DRIVE Act") (H.R. 3711), qui créer un cadre fédéral pour aider les agences et les industries à déployer des véhicules audiovisuels dans tout le pays et établir un conseil consultatif sur les véhicules hautement automatisés au sein de la National Highway Traffic Safety Administration (« NHTSA »). Le représentant Latta avait précédemment présenté le projet de loi le 23 septembre 2020, et lors des sessions précédentes.[93]

Toujours en juin 2021, le ministère des Transports (« DOT ») a publié son « Programme réglementaire de printemps » et a proposé que la NHTSA établisse des normes de test rigoureuses pour les VA ainsi qu'une base de données nationale sur les incidents pour documenter les accidents impliquant des VA.[94 ] Le DOT a indiqué qu'il y aura des possibilités de commentaires publics sur les propositions.

Le 29 juin 2021, la NHTSA a publié un ordre général permanent obligeant les fabricants et les exploitants de véhicules équipés de systèmes avancés d'aide à la conduite (ADAS) ou de systèmes de conduite automatisée (ADS) à signaler les accidents.[95] L'ADAS est une caractéristique de plus en plus courante dans nouveaux véhicules où le véhicule est capable de contrôler certains aspects de la direction et de la vitesse. un jour après avoir appris l'accident si l'accident impliquait "une blessure hospitalisée, un décès, un remorquage de véhicule, un déploiement d'airbag ou un usager vulnérable de la route tel qu'un piéton ou un cycliste".[96]Un un rapport mis à jour est également dû 10 jours après que l'entreprise a appris l'accident.[97]L'ordonnance oblige également les entreprises à signaler tous les autres accidents impliquant un véhicule équipé d'ADS qui impliquent une blessure ou des dommages matériels sur une base mensuelle.[98]Tous les rapports soumis à la NHTSA doivent être mis à jour tous les mois avec des informations nouvelles ou supplémentaires.[99]

La NHTSA a également sollicité les commentaires du public en réponse à son préavis de proposition de réglementation ("ANPRM"), "Framework for Automated Driving System Safety", jusqu'au premier trimestre de 2021.[100]L'ANPRM a reconnu que l'AV précédent de la NHTSA- les avis réglementaires connexes "se sont davantage concentrés sur la conception des véhicules pouvant être équipés d'un ADS - pas nécessairement sur les performances de l'ADS lui-même". ADS par le biais d'un cadre de sécurité, et plus particulièrement si une procédure de test pour une norme fédérale de sécurité des véhicules automobiles (« FMVSS ») doit être remplacée, abrogée ou modifiée, pour des raisons autres que pour des considérations pertinentes uniquement pour ADS. ] Bien que la mise en place d'une FMVSS pour l'ADS puisse être prématurée, il convient de commencer à réfléchir à la manière dont la NHTSA peut utiliser correctement son autorité réglementaire pour encourager l'accent mis sur la sécurité à mesure que la technologie ADS continue de se développer », soulignant que son approche se concentrera sur la flexibilité. "approches et mesures axées sur les performances" par rapport aux caractéristiques de conception spécifiques à des règles ou à d'autres exigences techniques.[102]

2.Législation sur les véhicules automatisés de l'Iowa

En 2019, la législature de l'Iowa a approuvé une loi permettant aux véhicules sans conducteur de circuler sur les routes publiques de l'Iowa sans conducteur, si le véhicule remplit certaines conditions, notamment que le véhicule doit être capable d'atteindre un risque minimal en cas de dysfonctionnement du système de conduite automatisé. Il exige également que le système du véhicule soit conforme au code de la route de l'Iowa, et le fabricant doit certifier qu'un fabricant est en conformité avec toutes les normes fédérales applicables en matière de sécurité des véhicules automobiles.[ 103]En août 2021, la Commission des transports de l'Iowa a approuvé des règles pour les véhicules automatisés. Ces réglementations incluent des exigences selon lesquelles un "fabricant ou une entité ne doit pas tester de véhicules sans conducteur dans l'Iowa sans un permis valide", et impose des restrictions sur les personnes pouvant prétendre à un permis de véhicule sans conducteur.[104]Il donne également au ministère le pouvoir de restreindre l'utilisation du véhicule "en fonction d'une classification fonctionnelle spécifique de l'autoroute, des conditions météorologiques, des jours de la semaine, des heures de la journée et d'autres éléments de conception opérationnelle tout en le système de conduite automatisé est activé. »[105]

F.Financial Services

Au milieu de l'adoption croissante de l'IA dans le domaine des services financiers, l'année a également apporté un nouvel élan pour réglementer ces avancées technologiques.Les agences fédérales ont mené la charge en publiant de nombreuses nouvelles réglementations et en prévisualisant plus à venir en 2022.

La Federal Deposit Insurance Corporation (FDIC), le Conseil des gouverneurs de la Réserve fédérale et le Bureau du contrôleur de la monnaie se sont associés pour publier une nouvelle règle de déclaration de cybersécurité.[106]La règle s'applique à toutes les banques. Les organisations[107] régies par l'agence et obligent les organisations bancaires à informer leurs principaux régulateurs fédéraux dans les 36 heures de tout "incident de sécurité informatique" suffisamment grave.[108]La règle entre en vigueur le 1er avril 2022 et toutes les entités réglementées doivent se conformer d'ici le 1er mai 2022.[109]

En plus des réglementations nouvellement publiées, de nombreuses agences ont signalé leur souhait de réglementer les avancées technologiques dans les services financiers dès le début de 2022. 2021, jusqu'au 1er juillet 2021, pour « comprendre le point de vue des répondants sur l'utilisation de l'IA par les institutions financières dans leur prestation de services aux clients ». [110] Kevin Greenfield, contrôleur adjoint pour la politique de risque opérationnel à l'OCC, a noté que RFI mettrait spécifiquement en lumière la question de l'IA qui viole potentiellement les lois sur la protection des consommateurs en affectant de manière disparate une classe protégée, entre autres problèmes. [111] Cette vague d'activités des régulateurs indique une année 2022 active qui pourrait comporter plusieurs nouvelles réglementations notables régissant l'utilisation technologie de pointe par diverses formes d'entités de services financiers.

A.Union européenne

1.EC Projet de législation pour la réglementation de l'IA à l'échelle de l'UE

Le 21 avril 2021, la Commission européenne (« CE ») a présenté son très attendu projet complet d'un règlement sur l'IA (également appelé « loi sur l'intelligence artificielle »). , le projet fait suite à une variété de publications et d'efforts politiques dans le domaine de l'IA dans le but de placer l'UE à la pointe de la réglementation et de l'innovation en matière d'IA. La proposition de loi sur l'intelligence artificielle tient la promesse du président de la CE de mettre proposer une législation pour une approche européenne coordonnée des implications humaines et éthiques de l'IA[113] et qui serait applicable et contraignante dans les 27 États membres de l'UE.

Afin d'"atteindre le double objectif de promouvoir l'adoption de l'IA et de traiter les risques associés à certaines utilisations de ces technologies"[114], la CE opte généralement pour une approche basée sur les risques plutôt qu'une interdiction générale des technologies .Cependant, la loi sur l'intelligence artificielle contient également des interdictions pures et simples de certaines "pratiques d'IA" et des dispositions très étendues visant les "systèmes d'IA à haut risque", qui rappellent quelque peu l'approche réglementaire du règlement général sur la protection des données de l'UE ( « RGPD » ); c'est-à-dire une large portée extraterritoriale et de lourdes sanctions, et suscitera probablement des controverses et des débats lors de la prochaine procédure législative.

Comme l'écrit la CE dans son exposé des motifs de la loi sur l'intelligence artificielle, le cadre proposé couvre les objectifs spécifiques suivants :

Bien que l'on ne sache pas quand et sous quelle forme la loi sur l'intelligence artificielle entrera en vigueur, la CE a donné le ton pour les prochains débats politiques avec cette nouvelle proposition ambitieuse.Bien que certaines dispositions et obligations puissent ne pas être reportées à la version finale législation, il convient de noter que le Parlement européen a déjà exhorté la CE à donner la priorité aux principes éthiques dans son cadre réglementaire. ou utilisant des systèmes d'IA, qu'ils soient basés dans l'UE ou à l'étranger, doivent surveiller de près les développements ultérieurs concernant la loi sur l'intelligence artificielle, et en particulier la portée des cas d'utilisation interdits "inacceptables" et "à haut risque", qui , tel qu'il est rédigé, pourrait potentiellement s'appliquer à une très large gamme de produits et d'applications.

Nous sommes prêts à aider les clients à naviguer dans les problèmes potentiels soulevés par les réglementations européennes proposées alors que nous continuons à suivre de près les développements à cet égard, ainsi que la réaction du public. Nous pouvons et allons aider à conseiller tous les clients souhaitant s'exprimer Dans le processus.

2.Projet de rapport sur l'IA du Parlement européen

Le 2 novembre 2021, la commission spéciale de l'UE a publié son projet de rapport sur l'IA à l'ère numérique pour le Parlement européen, qui met en évidence les avantages de l'utilisation de l'IA comme la lutte contre le changement climatique et les pandémies, ainsi que divers défis éthiques et juridiques.[116]Selon le projet de rapport, l'UE ne devrait pas réglementer l'IA en tant que technologie ; au lieu de cela, le type, l'intensité et le moment de l'intervention réglementaire devraient uniquement dépendre du type de risque associé à une utilisation particulière d'un système d'IA. Le projet de rapport souligne également le défi de parvenir à un consensus au sein de la communauté mondiale sur des normes minimales pour le responsable l'utilisation de l'IA et les préoccupations concernant la recherche militaire et les développements technologiques dans les systèmes d'armes sans surveillance humaine.

3.Le Conseil de l'UE propose un règlement sur la confidentialité en ligne

Le 10 février 2021, le Conseil de l'Union européenne (le « Conseil de l'UE »), l'institution représentant les gouvernements des États membres de l'UE, a fourni un mandat de négociation en ce qui concerne une révision de la directive ePrivacy et a publié une proposition mise à jour pour un nouveau règlement ePrivacy. sans transposition.

La directive ePrivacy contient des règles relatives à la vie privée et à la confidentialité dans le cadre de l'utilisation des services de communications électroniques. Cependant, une mise à jour de ces règles est considérée comme essentielle compte tenu des progrès technologiques rapides et considérables qui ont eu lieu depuis son adoption. en 2002. Le nouveau règlement ePrivacy, qui abrogerait et remplacerait la directive ePrivacy, est en discussion depuis plusieurs années maintenant.

Conformément à la proposition du Conseil de l'UE, le règlement ePrivacy couvrira également les données de machine à machine transmises via un réseau public, ce qui pourrait créer des restrictions sur l'utilisation des données par les entreprises développant des produits basés sur l'IA et d'autres technologies basées sur les données. .En règle générale, toutes les données de communications électroniques seront considérées comme confidentielles, sauf lorsque le traitement ou toute autre utilisation est expressément autorisé par le règlement ePrivacy. traitement qui a lieu en dehors de l'UE et/ou à des prestataires de services établis en dehors de l'UE, à condition que les utilisateurs finaux des services de communications électroniques, dont les données sont traitées, se trouvent dans l'UE.

Cependant, contrairement au RGPD, le règlement ePrivacy couvrirait tous les contenus de communication transmis à l'aide de services et de réseaux de communications électroniques accessibles au public, et pas seulement les données personnelles. En outre, les métadonnées (telles que le lieu et l'heure de réception de la communication) relèvent également de le champ d'application du règlement ePrivacy.

On s'attend à ce que le projet de proposition subisse d'autres modifications au cours des négociations avec le Parlement européen. fondements juridiques autres que le consentement de l'utilisateur pour le traitement du contenu des communications et des métadonnées dans le but de développer, d'améliorer et d'offrir des produits et des applications basés sur l'IA. Si les négociations entre le Conseil de l'UE et le Parlement européen se poursuivent sans plus tarder, le nouveau règlement ePrivacy pourrait entrer en vigueur en 2023, au plus tôt.

4.EDPB & ; Appel du CEPD à l'interdiction de l'utilisation de l'IA pour la reconnaissance faciale dans les espaces accessibles au public

Le 21 juin 2021, le comité européen de la protection des données (« CEPD ») et le contrôleur européen de la protection des données (« CEPD ») ont publié une Avis conjoint appelant à une interdiction générale de "toute utilisation de l'IA pour la reconnaissance automatisée des caractéristiques humaines dans les espaces accessibles au public, telles que la reconnaissance des visages, de la démarche, des empreintes digitales, de l'ADN, de la voix, des frappes au clavier et d'autres signaux biométriques ou comportementaux, dans n'importe quel contexte". ”[117]

Dans leur avis, le CEPD et le CEPD ont salué l'approche fondée sur les risques qui sous-tend la proposition de règlement sur l'IA de la CE et ont souligné qu'elle a d'importantes implications en matière de protection des données. L'avis note également le rôle du CEPD, désigné par le règlement sur l'IA de la CE. en tant qu'autorité compétente et autorité de surveillance du marché pour la supervision des institutions de l'UE - devrait être davantage clarifiée. l'orientation politique ou sexuelle, ou d'autres motifs pour lesquels la discrimination est interdite en vertu de l'article 21 de la Charte des droits fondamentaux.

En outre, l'EDPB et le CEPD ont noté qu'ils "considèrent que l'utilisation de l'IA pour déduire les émotions d'une personne physique est hautement indésirable et devrait être interdite, sauf dans des cas très précis, tels que certains objectifs de santé, où le patient la reconnaissance des émotions est importante et que l'utilisation de l'IA pour tout type de notation sociale devrait être interdite.

A.UK lance une stratégie nationale sur l'IA

Le 22 septembre 2021, le gouvernement britannique a publié sa "Stratégie nationale sur l'IA" (la "Stratégie")[119]. Selon le sous-secrétaire parlementaire du Etat au ministère du numérique, de la culture, des médias et des sports, Chris Philip MP, l'objectif de la stratégie est de définir «les bases de la croissance des dix prochaines années» pour aider le Royaume-Uni à saisir «le potentiel de l'intelligence artificielle» et à lui permettre de façonner « la manière dont le monde le gouverne »[120]. La stratégie repose sur trois piliers : (1) investir dans les besoins à long terme des écosystèmes d'IA ; (2) veiller à ce que l'IA profite à tous les secteurs et à toutes les régions ; et (3) régir efficacement l'IA.

À cette fin, le Royaume-Uni vise à attirer des talents mondiaux pour développer des technologies d'IA en continuant à soutenir les interventions universitaires existantes, ainsi qu'en élargissant les voies que les chercheurs et les individus talentueux en IA peuvent travailler au Royaume-Uni (par exemple, en introduisant de nouvelles routes VISA). Le Royaume-Uni cherche également à adopter une nouvelle approche de la recherche, du développement et de l'innovation dans le domaine de l'IA, par exemple en lançant un programme national de recherche et d'innovation sur l'IA (R&I), et collabore également à l'échelle internationale sur des défis communs. dans la recherche et le développement (par exemple, en mettant en œuvre la déclaration des États-Unis et du Royaume-Uni sur la coopération dans la recherche et le développement de l'IA.

La stratégie souligne également qu'une gouvernance efficace et favorable à l'innovation de l'IA signifie, entre autres, que le Royaume-Uni dispose d'un cadre clair, proportionné et efficace pour réglementer l'IA qui soutient l'innovation tout en s'attaquant aux risques et aux préjudices réels.Actuellement, le Royaume-Uni les réglementations relatives à l'IA sont organisées secteur par secteur, allant de la concurrence à la protection des données. Cependant, la stratégie reconnaît que cette approche peut entraîner des problèmes, notamment des approches incohérentes entre les secteurs et des chevauchements entre les mandats réglementaires. Pour résoudre ce problème, le troisième pilier décrit les principales initiatives à venir pour améliorer la gouvernance de l'IA : l'Office for AI publiera un livre blanc au début de 2022, qui exposera la position du gouvernement sur les risques et les dommages potentiels posés par les systèmes d'IA. Le gouvernement prendra également d'autres mesures, notamment le pilotage d'un AI Standards Hub pour coordonner le Royaume-Uni engagement dans l'établissement de règles d'IA à l'échelle mondiale et collaboration avec l'Institut Alan Turing pour fournir des conseils actualisés sur les questions d'éthique et de sécurité concernant l'IA.

Le gouvernement B.UK publie un cadre d'éthique, de transparence et de responsabilité pour la prise de décision automatisée

Le 13 mai 2021, le gouvernement britannique a publié un cadre définissant la manière dont les organismes du secteur public peuvent déployer une technologie de prise de décision automatisée éthiquement et durablement (le « Cadre »).[121] Le Cadre sépare la prise de décision automatisée en deux catégories : (1) la prise de décision uniquement automatisée - les décisions qui sont « entièrement automatisées sans jugement humain » ; et (2) prise de décision assistée automatisée - lorsque "des systèmes automatisés ou algorithmiques aident le jugement et la prise de décision humains". Le cadre s'applique aux deux types et définit un processus en sept étapes à suivre lors de l'utilisation de la prise de décision automatisée : (1) test pour éviter tout résultat ou conséquence involontaire ; (2) fournir des services équitables à tous les utilisateurs et citoyens ; (3) indiquer clairement qui est responsable ; (4) traiter les données en toute sécurité et protéger les intérêts des citoyens ; (5) aider les utilisateurs et les citoyens à comprendre comment cela les impacte ; (6) assurer le respect de la loi, y compris les lois sur la protection des données, la loi de 2010 sur l'égalité et l'obligation d'égalité dans le secteur public ; et (7) s'assurer que les algorithmes ou les systèmes sont surveillés en permanence et atténuer les conséquences imprévues.

Le gouvernement C.UK publie une norme pour la transparence algorithmique

La transparence algorithmique fait référence à l'ouverture sur la manière dont les outils algorithmiques soutiennent les décisions. Le Bureau central du numérique et des données du Cabinet Office (le « CDDO ») a élaboré une norme de transparence algorithmique pour les ministères et les organismes du secteur public, qui a été publiée le 29 novembre 2021[122] (la « norme »). des premiers pays au monde à produire une norme nationale pour la transparence algorithmique. La norme est dans une phase pilote, après quoi le CDDO révisera la norme sur la base des commentaires recueillis et demandera l'approbation formelle de la Data Standards Authority en 2022.

D.ICO offre un aperçu de sa politique concernant l'utilisation de la reconnaissance faciale en direct au Royaume-Uni

Le 18 juin 2021, le Bureau du commissaire à l'information ("ICO") a publié un avis du commissaire sur l'utilisation de la reconnaissance faciale en direct (« LFR ») au Royaume-Uni (« l'opinion »).[123] La reconnaissance faciale est le processus par lequel une personne peut être identifiée ou autrement reconnue à partir d'une image faciale numérique. La LFR est un type de reconnaissance faciale technologie qui implique souvent la collecte automatique de données biométriques. Le commissaire a précédemment publié un avis en 2019 sur l'utilisation du LFR dans un contexte répressif, concluant que la législation sur la protection des données fixe des «normes élevées» pour que l'utilisation du LFR soit légale lorsqu'elle est utilisée dans les espaces publics. L'avis s'appuie sur ce travail en se concentrant sur l'utilisation des LFR dans les espaces publics - définis comme tout espace physique en dehors d'un cadre domestique, qu'il soit public ou privé - en dehors des forces de l'ordre. L'avis indique clairement que d'abord et avant tout , les contrôleurs cherchant à utiliser LFR doivent se conformer au Règlement général sur la protection des données du Royaume-Uni (« RGPD ») et à la loi sur la protection des données de 2018.

En termes d'application, l'ICO a annoncé le 29 novembre 2021 son intention d'imposer une amende potentielle de plus de 17 millions de livres sterling à Clearview AI Inc pour avoir prétendument rassemblé des images d'un nombre important de personnes du Royaume-Uni à leur insu, en violation des lois britanniques sur la protection des données. L'ICO a également émis un avis provisoire à l'entreprise pour qu'elle cesse de traiter davantage les données personnelles des personnes au Royaume-Uni et les supprime. L'avis préliminaire de l'ICO est que Clearview AI semble avoir omis de se conformer aux Les lois britanniques sur la protection des données de plusieurs manières, notamment en n'ayant pas de raison légitime de collecter les informations et en ne respectant pas les normes de protection des données plus élevées requises pour les données biométriques en vertu du RGPD britannique. Clearview AI Inc aura désormais la possibilité de faire des déclarations à l'égard des violations alléguées, après quoi l'ICO devrait prendre une décision finale. Cette mesure prise par l'ICO souligne l'importance de s'assurer que les entreprises se conforment aux lois britanniques sur la protection des données avant de traiter et de déployer des données biométriques.

Le régulateur financier d'E.UK s'engage à stimuler l'utilisation de l'IA dans la surveillance

La Prudential Regulation Authority (« PRA ») du Royaume-Uni a l'intention d'utiliser davantage l'IA, selon son Plan d'affaires pour 2021/22.[124]L'accent mis sur l'IA fait partie de l'objectif de la PRA de donner suite aux engagements énoncés dans sa réponse au rapport sur l'avenir de la finance (publié en 2019) afin de développer davantage sa stratégie RegTech. Le rapport sur l'avenir de la finance recommandait aux superviseurs de tirer parti des développements en cours dans le domaine de la science des données et de la puissance de traitement, y compris l'IA et l'apprentissage automatique, qui automatisent la collecte et le traitement des données.[125]

F.Consultation sur la future réglementation des dispositifs médicaux au Royaume-Uni

Le 16 septembre 2021, le Medicines & ; L'Agence de réglementation des produits de santé (« MHRA ») a publié une « Consultation sur la future réglementation des dispositifs médicaux au Royaume-Uni », qui s'est déroulée jusqu'au 25 novembre 2021 (la « Consultation »).[126] La consultation a invité les membres du public à donner leur avis sur les modifications possibles du cadre réglementaire des dispositifs médicaux au Royaume-Uni, dans le but de développer un futur régime pour les dispositifs médicaux qui permet (i) d'améliorer la sécurité des patients et du public ; (ii) une plus grande transparence de la prise de décision réglementaire et des informations sur les dispositifs médicaux ; (iii) un alignement étroit sur les meilleures pratiques internationales et (iv) une réglementation plus souple, réactive et proportionnée des dispositifs médicaux.

La consultation a présenté les changements proposés pour le logiciel en tant que dispositif médical ("SaMD"), y compris l'IA en tant que dispositif médical ("AIaMD"), notant que la réglementation actuelle sur les dispositifs médicaux contient peu de dispositions visant spécifiquement à réglementer le SaMD ou l'AIaMD. Les propositions de la MHRA incluent donc la modification de la réglementation britannique sur les dispositifs médicaux afin à la fois de protéger les patients et de soutenir l'innovation responsable dans le domaine de la santé numérique. aux exigences de vente de SaMD par voie électronique, en modifiant la classification de SaMD pour garantir que l'examen minutieux appliqué à ces dispositifs médicaux est plus proportionné à leur niveau de risque et plus étroitement harmonisé avec la pratique internationale. dispositif cadre entrera en vigueur en juillet 2023.

La MHRA a également publié séparément un programme de travail approfondi sur les logiciels et l'IA en tant que dispositif médical pour apporter des changements audacieux afin de fournir un cadre réglementaire qui offre un degré élevé de protection aux patients et au public, mais aussi veiller à ce que le Royaume-Uni soit le foyer de l'innovation responsable pour les logiciels de dispositifs médicaux.[127]Toute modification législative proposée par le programme de travail s'appuiera sur des réformes plus larges de la réglementation des dispositifs médicaux provoquées par la Consultation.

______________________

[1]Steven Overly & ; Melissa Heikkilä, "La Chine veut dominer l'IA. Les États-Unis et l'Europe ont besoin les uns des autres pour l'apprivoiser. », Politico (2 mars 2021), disponible sur https://www.politico.com/news/2021/03/02/china-us-europe-ai- règlement-472120.

[2]Id.

[3]Id.

[4]Pour plus de détails, consultez notre quatrième trimestre et notre examen annuel 2020 de l'intelligence artificielle et des systèmes automatisés.

[5]La Maison Blanche, Communiqué de presse (archivé), La Maison Blanche lance le Bureau national de l'initiative sur l'intelligence artificielle (12 janvier 2021), disponible sur https://trumpwhitehouse.archives.gov/briefings-statements/ la maison-blanche-lance-le-bureau-national-de-l'initiative-d'intelligence-artificielle/.

[6]Id.

[7]Maison Blanche, Memorandum on Restoring Trust in Government Through Scientific Integrity and Evidence-Based Policymaking (27 janvier 2021), disponible sur https://www.whitehouse.gov/briefing-room/presidential- actions/2021/01/27/memorandum-on-restoring-trust-in-government-through-scientific-integrity-and-evidence-based-policymaking/.

[8]Lettre de la directrice adjointe Jane Lubchenco et de la directrice adjointe Alondra Nelson, OSTP à toutes les agences fédérales (29 mars 2021), disponible sur https://int.nyt.com/data/documenttools/si-task- force-nomination-cover-letter-and-call-for-nominations-ostp/ecb33203eb5b175b/full.pdf.

[9]La Maison-Blanche, Executive Order on the President's Council of Advisors on Science and Technology (27 janvier 2021), disponible sur https://www.whitehouse.gov/briefing-room/presidential-actions/ 2021/01/27/executive-order-on-presidents-council-of-advisors-on-science-and-technology/.

[10]Dan Reilly, "White House A.I. directeur dit que les États-Unis devraient modéliser l'approche de l'Europe en matière de réglementation », Fortune (10 novembre 2021), disponible sur https://fortune.com/2021/11/10/white-house-a-i-director-regulation/.

[11]S. 1260, 117e Congrès. (2021).

[12]Id., §§4201-4207.

[13]Id., §4202.

[14]Id., §4204. Pour plus de détails sur le rapport NSCAI et le décret exécutif 2020, veuillez consulter notre quatrième trimestre et notre examen annuel 2020 de l'intelligence artificielle et des systèmes automatisés.

[15]Maison Blanche, "Join the Effort to Create a Bill of Rights for an Automated Society" (10 novembre 2021), disponible sur https://www.whitehouse.gov/ostp/news-updates/ 2021/11/10/joignez-vous-à-l'effort-pour-créer-une-déclaration-des-droits-pour-une-société-automatisée/.

[16]Dave Nyczepir, "Le chef de la politique technologique de la Maison Blanche dit que la charte des droits de l'IA a besoin de 'dents'", FedScoop (10 novembre 2021), disponible sur https://www.fedscoop.com/ai-bill -des-dents-droites/.

[17]Id.

[18]Office of Science and Technology Policy, Notice of Request for Information (RFI) on Public and Private Sector Uses of Biometric Technologies (8 octobre 2021), disponible sur https://www.federalregister.gov/ documents/2021/10/08/2021-21975/avis-de-demande-d-information-rfi-sur-les-usages-publics-et-prives-des-technologies-biometriques.

[19]États-Unis Government Accountability Office, Artificial Intelligence: An Accountability Framework for Federal Agencies and Other Entities, Highlights of GAO-21-519SP, disponible sur https://www.gao.gov/assets/gao-21-519sp-highlights.pdf.

[20]Les principales pratiques de surveillance identifiées par le GAO sont particulièrement pertinentes pour les organisations et les entreprises qui cherchent à mettre en œuvre des programmes de gouvernance et de conformité pour les systèmes basés sur l'IA et à développer des mesures pour évaluer les performances du système. Le rapport du GAO note que la surveillance est un outil essentiel pour plusieurs raisons : premièrement, il est nécessaire d'analyser en permanence les performances d'un modèle d'IA et de documenter les résultats pour déterminer si les résultats sont conformes aux attentes, et deuxièmement, la surveillance est essentielle lorsqu'un système est soit mis à l'échelle ou étendu, ou lorsque les lois applicables, les objectifs programmatiques et l'environnement opérationnel changent au fil du temps.

[21]Ébauche de la publication spéciale 1270 du NIST, Une proposition pour identifier et gérer les biais dans l'intelligence artificielle (juin 2021), disponible sur https://nvlpubs.nist.gov/nistpubs/SpecialPublications/NIST.SP.1270-draft .pdf?_sm_au_=iHVbf0FFbP1SMrKRFcVTvKQkcK8MG.

[22]Institut national des sciences et technologies, Commentaires reçus sur une proposition d'identification et de gestion des biais dans l'intelligence artificielle (SP 1270), disponible sur https://www.nist.gov/artificial-intelligence/comments-received -proposition-identifier-et-gérer-les-biais-artificiels.

[23]R.H. 5515, 115e Congrès (2017-18).

[24]Commission de sécurité nationale sur l'intelligence artificielle, rapports précédents, disponibles sur https://www.nscai.gov/previous-reports/.

[25]NSCAI, The Final Report (1er mars 2021), disponible sur https://www.nscai.gov/wp-content/uploads/2021/03/Full-Report-Digital-1.pdf.

[26]Defense Innovation Unit, Responsible AI Guidelines: Operationalizing DoD’s Ethical Principles for AI (14 novembre 2021), disponible sur https://www.diu.mil/responsible-ai-guidelines.

[27]Securing the Information and Communications Technology and Services Supply Chain, U.S. Department of Commerce, 86 Fed. Rég. 4923 (19 janvier 2021) (ci-après « règle finale provisoire »).

[28]Pour plus d'informations, veuillez consulter notre mise à jour juridique sur l'intelligence artificielle et les systèmes automatisés (1Q21).

[29]S. 1776, 117e Congr. (2021).

[30]S. 1705, 117e Congrès. (2021).

[31]Portman, Heinrich Announce Bipartisan Artificial Intelligence Bills Include in FY 2022 National Defense Authorization Act, Bureau du sénateur Rob Portman (15 décembre 2021), disponible sur https://www.portman.senate.gov /newsroom/press-releases/portman-heinrich-announce-bipartisan-artificial-intelligence-ills-inclus.

[32]FTC, Business Blog, Elisa Jillson, Aiming for truth, fairness, and equity in your company's use of AI (19 avril 2021), disponible sur https://www.ftc.gov/news-events /blogs/business-blog/2021/04/aiming-truth-fairness-equity-your-companys-use-ai.

[33]FTC, Protecting Consumer Privacy in a Time of Crisis, Remarques de la présidente par intérim Rebecca Kelly Slaughter, Future of Privacy Forum (10 février 2021), disponible sur https://www.ftc.gov/system /files/documents/public_statements/1587283/fpf_opening_remarks_210_.pdf.

[34]FTC, Utilisation de l'intelligence artificielle et des algorithmes (8 avril 2020), disponible sur https://www.ftc.gov/news-events/blogs/business-blog/2020/04/using-artificial- intelligence-algorithmes.

[35]FTC, FTC Chair Lina M. Khan Announces New Appointments in Agency Leadership Positions (19 novembre 2021), disponible sur https://www.ftc.gov/news-events/press-releases/2021 /11/ftc-chair-lina-m-khan-annonce-une-nouvelle-agence-de-nominations.

[36]FTC, Resolution Directing Use of Compulsory Process Concerning Abuse of Intellectual Property (2 septembre 2021), disponible sur https://www.law360.com/articles/1422050/attachments/0.Ces résolutions ont été adopté par les commissaires démocrates lors d'un vote 3-2 sur la ligne du parti. Les commissaires du GOP ont publié une déclaration dissidente, arguant que les autorisations générales suppriment la surveillance de la commission sans rien faire pour rendre les enquêtes plus efficaces.

[37]Ben Brody, responsable de la FTC, met en garde contre la saisie d'algorithmes "juiced by ill-gotten data" (27 juillet 2021), disponible sur https://www.protocol.com/bulletins/ftc-seize-algorithms- mal acquis?_sm_au_=iHV5LNM5WjmJt5JpFcVTvKQkcK8MG.

[38]La FTC s'appuyait auparavant sur l'article 13(b) pour poursuivre la restitution par voie d'injonction, principalement en ce qui concerne les violations de la protection des consommateurs. La Cour suprême a cependant conclu que la disposition relative à l'injonction n'autorisait la FTC qu'à demander une ordonnance judiciaire mettant fin à l'activité illégale et ne lui donnait pas le pouvoir de demander à un tribunal d'imposer des sanctions pécuniaires. Un projet de loi similaire, qui a été présenté la semaine du la décision de la Cour suprême et a été approuvée par 25 procureurs généraux des États et le président Joe Biden, a adopté la Chambre au cours de l'été lors d'un vote presque partisan, mais n'a pas encore été transmise au Sénat. Les républicains se sont opposés à cette initiative en raison de préoccupations concernant l'échéance processus et le délai de prescription de 10 ans du projet de loi. Le nouveau projet de loi, en revanche, comprend un délai de prescription de trois ans et un libellé qui oblige la commission à prouver que l'entreprise accusée d'avoir enfreint la loi l'a fait intentionnellement.

[39]S. _ 117e Cong. (2022-2023) https://www.law360.com/cybersecurity-privacy/articles/1449355/gop-sen-floats-bill-to-restore-ftc-s-restitution-powers?nl_pk=4e5e4fee-ca5f-4d2e -90db-5680f7e17547&utm_source=newsletter&utm_medium=email&utm_campaign=cybersecurity-privacy

[40]Harry Brignull, le PhD qui a inventé le terme "modèles sombres", a développé une taxonomie, qui peut inclure : des questions pièges ; se faufiler dans le panier (dans un achat en ligne, les articles de dernière minute sont ajoutés au panier, sans l'intervention de l'utilisateur) ; roach motel (les services sont facilement conclus mais difficiles à annuler); divulgation excessive de la vie privée (les utilisateurs sont amenés à partager ou à rendre publiques plus d'informations que prévu) ; prévention de la comparaison des prix (les sites Web rendent difficile la comparaison des prix d'autres fournisseurs) ; mauvaise direction ; coûts cachés; appât et interrupteur; confirmer la honte (les utilisateurs sont coupables de quelque chose ou une option de refus est formulée pour faire honte aux utilisateurs, par exemple "Non, je ne veux pas économiser d'argent"); publicités déguisées ; continuité forcée (l'essai gratuit se transforme inopinément en abonnement payant) ; et le spam d'amis (la liste de contacts de l'utilisateur est utilisée pour envoyer des messages indésirables de l'utilisateur). Voir Harry Brignull, Types of Dark Pattern, Dark Patterns, disponible sur https://www.darkpatterns.org/types-of-dark-pattern.

[41]Bringing Dark Patterns to Light:An FTC Workshop, Federal Trade Commission, 29 avril 2021, disponible sur https://www.ftc.gov/news-events/events-calendar/bringing-dark-patterns -light-ftc-workshop.

[42]Jon Hill, CFPB's Newest Hook On Big Tech May Be 1970s Data Law, Law360 (16 novembre 2021), disponible sur https://www.law360.com/technology/articles/1439641/cfpb- s-newest-hook-on-big-tech-may-be-1970s-data-law?nl_pk=0d08c9f5-462a-4ad6-9d20-292663da6d5e&utm_source=newsletter&utm_medium=email&utm_campaign=technology.

[43]CFPB, CFPB Takes Action to Stop False Identification by Background Screeners (4 novembre 2021), disponible sur https://www.consumerfinance.gov/about-us/newsroom/cfpb-takes-action- pour-arrêter-la-fausse-identification-par-les-filtres-en-fond/?_sm_au_=iHVFR9tfrf49TNNMFcVTvKQkcK8MG.

[44]EEOC, EEOC lance une initiative sur l'intelligence artificielle et l'équité algorithmique (28 octobre 2021), disponible sur https://www.eeoc.gov/newsroom/eeoc-launches-initiative-artificial-intelligence-and -équité-algorithmique ?_sm_au_=iHV5LNM5WjmJt5JpFcVTvKQkcK8MG.

[45]FTC, In the Matter of Everalbum, Inc. and Paravision, Commission File No. 1923172 (11 janvier 2021), disponible sur https://www.ftc.gov/enforcement/cases-proceedings/ 1923172/everalbum-inc-matter.

[46]FTC, Déclaration du Commissaire Rohit Chopra, In the Matter of Everalbum and Paravision, Commission File No. 1923172 (8 janvier 2021), disponible sur https://www.ftc.gov/system/files /documents/public_statements/1585858/updated_final_chopra_statement_on_everalbum_for_circulation.pdf.

[47] Voir, par exemple, Vance c. Amazon, 2:20-cv-01084-JLR (W.D. Wash. 7 oct. 2021) ; Vernita Miracle-Pond et al. c. Shutterfly Inc., n° 2019-CH-07050, (Ill. Cir. Ct. of Cook County) ; Carpenter c. McDonald's Corp., n° 2021-CH-02014 (Ill. Cir. Ct. 28 mai 2021) ; Rivera contre Google, Inc., n° 1:16-cv-02714 (N.D. Ill. 30 août 2021) ; Pena c. Microsoft Corp., n° 2021-CH-02338 (Ill. Cir. Ct. 12 mai 2021) ; B. H. v. Amazon.com Inc., n° 2021-CH-02330 (Ill. Cir. Ct. 12 mai 2021), Pruden v. Lemonade, Inc., n° 1:21-cv-07070 (S.D.N.Y. 20 août , 2021).

[48]S. _, 117e Congr. (2021); voir également le communiqué de presse, Senators Markey, Merkley Lead Colleagues on Legislation to Ban Government Use of Facial Recognition, Other Biometric Technology (15 juin 2021), disponible sur https://www.markey.senate.gov/news/press-releases /sénateurs-markey-merkley-conduisent-des-collègues-sur-la-législation-pour-interdire-l'utilisation-par-le-gouvernement-de-la-reconnaissance-faciale-d'autres-technologies-biométriques.

[49]Pour plus de détails, veuillez consulter nos alertes précédentes : quatrième trimestre et examen annuel 2020 de l'intelligence artificielle et des systèmes automatisés.

[50]H. B. 2031, Règl. Séance (2020-2021).

[51]Pour plus de détails, consultez notre quatrième trimestre et notre bilan annuel 2020 sur l'intelligence artificielle et les systèmes automatisés.

[52]S. 1896, 117e Congrès. (2021); voir également le communiqué de presse, Senator Markey, Rep. Matsui Introduce Legislation to Combat Harmful Algorithms and Create New Online Transparency Regime (27 mai 2021), disponible sur https://www.markey.senate.gov/news/press-releases/ le sénateur-markey-rep-matsui-présente-une-législation-pour-combattre-les-algorithmes-nuisibles-et-créer-un-nouveau-régime-de-transparence-en-ligne.

[53]R.H. 3723, 117e Congrès. (2021).

[54]Elise Hansen, House Clears Bill To Study Crypto And Consumer Protection, Law360 (23 juin 2021), disponible sur https://www.law360.com/articles/1396110/house-clears-bill-to -étudier-la-crypto-et-la-protection-des-consommateurs.

[55]S. 2134, 117e Congrès. (2021); voir aussi Communiqué de presse, Bureau de la sénatrice américaine Kirsten Gillibrand, Communiqué de presse, Gillibrand Introduces New And Improved Consumer Watchdog Agency To Give Americans Control Over Their Data (17 juin 2021), disponible sur https://www.gillibrand.senate.gov /news/press/release/gillibrand-présente-une-nouvelle-agence-de-surveillance-des-consommateurs-améliorée-pour-donner-aux-américains-le-contrôle-sur-leurs-données.

[56]En vertu de la législation proposée, les "données personnelles" sont définies comme des "données électroniques qui, seules ou en combinaison avec d'autres données—(A) identifient, se rapportent à, décrivent, peuvent être associées à, ou pourraient être raisonnablement lié, directement ou indirectement, à un individu, un foyer ou un appareil particulier ; ou (B) pourrait être utilisé pour déterminer qu'un individu ou un ménage fait partie d'une classe protégée. § 2(16) (2021).

[57]Id., § 2(3) (2021).

[58]Id., § 2(11)-(13) (2021).

[59]R.H. 5921 (2021), disponible sur https://www.congress.gov/bill/117th-congress/house-bill/5921/cosponsors?s=1&r=90&overview=closed ; S. B. 2024 (2021), disponible sur https://www.congress.gov/bill/117th-congress/senate-bill/2024/text.

[60]É.-U. Comité sénatorial sur la sécurité intérieure & Governmental Affairs, Tech Leaders Support Portman's Bipartisan Deepfake Task Force Act to Create Task Force at DHS to Combat Deepfakes (30 juillet 2021), disponible sur https://www.hsgac.senate.gov/media/minority-media/tech- leaders-soutiennent-portmans-bipartisan-deepfake-task-force-act-to-create-task-force-at-dhs-to-combat-deepfakes.

[61]Pour plus de détails, consultez notre quatrième trimestre et notre bilan annuel 2020 sur l'intelligence artificielle et les systèmes automatisés.

[62]S. B. 5116, Règl. Séance (2021-22).

[63]Monica Nickelsburg, les législateurs de l'État de Washington cherchent à interdire au gouvernement d'utiliser une technologie d'IA discriminatoire, GeewWire (13 février 2021), disponible sur https://www.geekwire.com/2021/washington-state-lawmakers -recherche-interdiction-gouvernement-utilisant-ai-tech-discrimine/.

[64]N.Y.C., n° 1894-2020A (11 novembre 2021), disponible sur https://legistar.council.nyc.gov/LegislationDetail.aspx?ID=4344524&GUID=B051915D-A9AC-451E -81F8-6596032FA3F9.

[65]Voir Thaler v. Hirshfeld, n° 120CV903LMBTCB, 2021 WL 3934803, at *8 (E.D. Va. 2 sept. 2021) (notant « des preuves accablantes selon lesquelles le Congrès avait l'intention de limiter la définition d'« inventeur » à personnes physiques. »).

[66]Voir, par exemple, Univ. of Utah v. Max-Planck-Gesellschaft, 734 F.3d 1315, 1323 (Fed. Cir. 2013) ; Beech Aircraft Corp. c. EDO Corp., 990 F.2d 1237, 1248 (Fed. Cir. 1993).

[67]Le projet d'inventeur artificiel décrit de manière ambitieuse DABUS comme un système d'IA avancé. DABUS est un "système neuronal créatif" qui est "stimulé de manière chaotique pour générer des idées potentielles, car un ou plusieurs réseaux émettent une opinion sur les concepts candidats" et "peut être considéré comme" sensible "en ce sens que tout concept basé sur une chaîne lance une série de souvenirs (c'est-à-dire des chaînes d'affect) qui se terminent parfois par des souvenirs critiques, lançant ainsi une marée de molécules artificielles."Ryan Abbott, l'inventeur artificiel derrière ce projet , disponible sur https://artificialinventor.com/dabus/.

[68]Ryan Abbott, The Artificial Inventor Project, disponible sur https://artificialinventor.com/frequently-asked-questions/.

[69]Thaler c. Hirshfeld, 2021 WL 3934803, à *2.

[70]Id. à 2 heures.

[71]Id. à 8.

[72]L'Office européen des brevets, l'OEB publie les motifs de sa décision de rejeter deux demandes de brevet désignant une machine comme inventeur, 28 janvier 2020, disponible sur https://www.epo.org/news-events/ nouvelles/2020/20200128.html.

[73]Dani Kass, la commission d'appel de l'OEB affirme que seuls les humains peuvent être des inventeurs, Law360, 21 décembre 2021.

[74]Thomas Kirby, un tribunal britannique rejette DABUS – une machine IA ne peut pas être un inventeur, Lexology, 14 décembre 2021.

[75]Le premier brevet au monde accordé pour une invention réalisée par une IA pourrait avoir des implications sismiques sur le droit de la propriété intellectuelle, Université du Surrey, 28 juillet 2021.

[76]Gene Quinn, DABUS Gets Its First Patent in South Africa Under Formalities Examination, IP Watchdog, 29 juillet 2021, disponible sur https://www.ipwatchdog.com/2021/07/29/dabus-gets -premier-brevet-afrique-du-sud-formalites-examen/id=136116/.

[77]Thaler c. Commissaire aux brevets [2021] CAF 879.

[78]Google LLC c. Oracle Am., Inc., n° 18-956, 2021 WL 1240906, (États-Unis, 5 avril 2021).

[79]Id., à *3.

[80]Id. à *20.

[81]Voir id.

[82]Bill Donahue, Supreme Court Rules For Google In Oracle Copyright Fight, Law360 (5 avril 2021), disponible sur https://www.law360.com/ip/articles/1336521.

[83]Voir U.S. Food & ; Drug Admin., Artificial Intelligence/Machine Learning (AI-ML)-Based Software as a Medical Device (SaMD) Action Plan 1-2 (2021), https://www.fda.gov/media/145022/download [ci-après Plan d'action de la FDA sur l'IA] ; Aliments américains et amp ; Drug Admin., La FDA publie un plan d'action sur l'intelligence artificielle/l'apprentissage automatique (12 janvier 2021), https://www.fda.gov/news-events/press-announcements/fda-releases-artificial-intelligencemachine-learning-action -plan.Voir aussi U.S. Food & ; Drug Admin., Cadre réglementaire proposé pour les modifications apportées aux logiciels basés sur l'intelligence artificielle/l'apprentissage automatique (AI/ML) en tant que dispositif médical (SaMD) Document de travail et demande de commentaires (2019), https://www.fda.gov/ média/122535/télécharger.

[84]Plan d'action de la FDA sur l'IA, supra note 1, à 1.

[85]États-Unis Nourriture & Drug Admin., Virtual Public Workshop – Transparency of Artificial Intelligence/Machine Learning-enabled Medical Devices (dernière mise à jour le 26 novembre 2021) https://www.fda.gov/medical-devices/workshops-conferences-medical-devices/ atelier-public-virtuel-transparence-intelligence-artificielle-apprentissage-machine-dispositifs-médicaux.

[86]Id.

[87]Id.

[88]Id.

[89]Id.

[90]É.-U. Nourriture & Drug Admin., Artificial Intelligence and Machine Learning (AI/ML)-Enabled Medical Devices (dernière mise à jour le 22 septembre 2021), https://www.fda.gov/medical-devices/software-medical-device-samd/ dispositifs médicaux compatibles avec l'intelligence artificielle et l'apprentissage automatique.

[91]Id.

[92]Id.

[93]Comme nous l'avons mentionné dans les mises à jour juridiques précédentes, la Chambre a précédemment adopté le SELF DRIVE Act (H.R. 3388) par vote vocal en septembre 2017, mais son projet de loi complémentaire (l'American Vision for Safer Transportation through Advancement of Revolutionary Technologies ( "AV START") (S. 1885)) bloquée au Sénat. Pour plus de détails, consultez notre quatrième trimestre et notre examen annuel 2020 de l'intelligence artificielle et des systèmes automatisés.

[94]É.-U. Dep't of Transp., Communiqué de presse, U.S. Department of Transportation Releases Spring Regulatory Agenda (11 juin 2021), disponible sur https://www.transportation.gov/briefing-room/us-department-transportation-releases-spring -programme-réglementaire.

[95]É.-U. Dep't of Transp., NHTSA Orders Crash Reporting for Vehicles Equiped with Advanced Driver Assistance Systems and Automated Driving Systems, disponible sur https://www.nhtsa.gov/press-releases/nhtsa-orders-crash-reporting-vehicles- équipés-de-systèmes-avancés-d'assistance-a-la-conduite

[96]Id.

[97]Id.

[98]Id.

[99]Id.

[100]49 CFR 571, disponible sur https://www.nhtsa.gov/sites/nhtsa.gov/files/documents/ads_safety_principles_anprm_website_version.pdf

[101]Id., p. 6.

[102]Id., p. 7-8.

[103]SF 302, Reg. Séance (2019-2020).

[104]ARC 5621C, Avis d'action envisagée, disponible sur https://rules.iowa.gov/Notice/Details/5621C.

[105]Id.

[106]Carly Page, Les banques américaines doivent bientôt signaler les incidents de cybersécurité significatifs dans les 36 heures, (19 novembre 2021), disponible sur https://techcrunch.com/2021/11/19/us-banks-report -incidents-de-cybersécurité/?guccounter=1.

[107]« Organisations bancaires » est un terme défini dans la règle et s'applique à un mélange légèrement différent d'entités par rapport à chaque agence.

[108]86 Féd. Rég. 66424.

[109]Id. au 66438.

[110]86 Féd. Rég. 16837.

[111]Al Barbarino, Bank Regulators Eye Updated Guidance to Fight Bias in AI (21 octobre 2021), disponible sur https://www.law360.com/cybersecurity-privacy/articles/1433299/.

[112]CE, Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées sur l'intelligence artificielle et modifiant certains actes législatifs de l'Union (acte sur l'intelligence artificielle), COM(2021) 206 (21 avril 2021) , disponible sur https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-european-approach-artificial-intelligence.

[113]Ursula von der Leyen, Une Union qui aspire à plus : Mon agenda pour l'Europe, disponible sur https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next -commission_fr.pdf.

[114] Supra, note 39, p. 1.

[115] Parlement européen, Résolution du 20 octobre 2020 contenant des recommandations à la Commission sur un cadre des aspects éthiques de l'intelligence artificielle, de la robotique et des technologies connexes (2020/2012 (INL)) (20 oct. 2020), disponible sur https://www.europarl.europa.eu/doceo/document/TA-9-2020-0275_EN.pdf. Pour plus de détails, consultez notre « 3Q20 Artificial Intelligence and Automated Systems Legal Update ».

[116]Projet de rapport sur l'IA à l'ère numérique pour le Parlement européen (2 novembre 2021), disponible sur https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/AIDA/ PR/2021/11-09/1224166FR.pdf

[117]Avis conjoint 5/2021 sur la proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées sur l'intelligence artificielle, disponible sur https://edpb.europa.eu/system/files/2021 -06/edpb-edps_joint_opinion_ai_regulation_en.pdf.

[118]EDPS, communiqué de presse, EDPB & ; Appel du CEPD à l'interdiction de l'utilisation de l'IA pour la reconnaissance automatisée des caractéristiques humaines dans les espaces accessibles au public et à certaines autres utilisations de l'IA pouvant conduire à une discrimination injuste (21 juin 2021), disponible sur https://edps.europa.eu/ press-publications/press-news/press-releases/2021/edpb-edps-call-ban-use-ai-automated-recognition_en?_sm_au_=iHVWn7njFDrbjJK3FcVTvKQkcK8MG.

[119]Gouvernement britannique, National AI Strategy (22 septembre 2021), disponible sur https://www.gov.uk/government/publications/national-ai-strategy.

[120]Gouvernement britannique, New ten-year plan to make the UK a global AI superpower (22 septembre 2021), disponible sur https://www.gov.uk/government/news/new-ten-year- plan-to-make-britain-a-global-ai-superpower.

[121] Gouvernement britannique, Ethics, Transparency and Accountability Framework for Automated Decision-Making (13 mai 2021), disponible sur https://www.gov.uk/government/publications/ethics-transparency-and-accountability- cadre-de-prise-de-décision-automatisée.

[122] Gouvernement britannique, le gouvernement britannique publie une norme pionnière pour la transparence algorithmique (29 novembre 2021), disponible sur https://www.gov.uk/government/news/uk-government-publishes-pioneering-standard- pour la transparence algorithmique–2.

[123]Gouvernement britannique, Bureau du commissaire à l'information, L'utilisation de la technologie de reconnaissance faciale en direct dans les lieux publics (18 juin 2021), disponible sur https://ico.org.uk/media/for-organisations/documents/ 2619985/ico-opinion-the-use-of-lfr-in-public-places-20210618.pdf.

[124] Gouvernement du Royaume-Uni, Prudential Regulation Authority Business Plan 2021/22 (24 mai 2021), disponible sur https://www.bankofengland.co.uk/prudential-regulation/publication/2021/may/ pra-business-plan-2021-22.

[125] Gouvernement britannique, Future of Finance, Bank of England (juin 2019), disponible sur https://www.bankofengland.co.uk/-/media/boe/files/report/2019/future -of-finance-report.pdf?la=fr&hash=59CEFAEF01C71AA551E7182262E933A699E952FC.

[126] Gouvernement du Royaume-Uni, Consultation sur la future réglementation des dispositifs médicaux au Royaume-Uni (16 septembre 2021), disponible sur https://www.gov.uk/government/consultations/consultation-on -la-future-reglementation-des-dispositifs-medicaux-au-royaume-uni.

[127] Gouvernement britannique, Software and AI as a Medical Device Change Program (16 septembre 2021), disponible sur https://www.gov.uk/government/publications/software-and-ai- en tant que programme de changement de dispositif médical.


Les avocats Gibson Dunn suivants ont préparé cette mise à jour client : H. Mark Lyon, Frances Waldmann, Emily Lamm, Tony Bedel, Kevin Kim, Brendan Krimsky, Prachi Mistry, Samantha Abrams-Widdicombe, Léon Freyermuth, Iman Charania et Kanchana Harendran.

Les avocats de Gibson Dunn sont disponibles pour répondre à toute question que vous pourriez avoir concernant ces développements. Veuillez contacter l'avocat de Gibson Dunn avec qui vous travaillez habituellement, tout membre du groupe Intelligence artificielle et systèmes automatisés du cabinet, ou les auteurs suivants :

H. Mark Lyon – Palo Alto (+1 650-849-5307, mlyon@gibsondunn.com) Frances A. Waldmann – Los Angeles (+1 213-229-7914,fwaldmann@gibsondunn.com)

N'hésitez pas non plus à contacter l'un des membres du groupe de pratique suivants :

Groupe Intelligence Artificielle et Systèmes Automatisés :H. Mark Lyon – Président, Palo Alto (+1 650-849-5307, mlyon@gibsondunn.com)J. Alan Bannister – New York (+1 212-351-2310, abannister@gibsondunn.com)Patrick Doris – Londres (+44 (0)20 7071 4276, pdoris@gibsondunn.com)Kai Gesing – Munich (+49 89 189 33 180, kgesing@gibsondunn.com)Ari Lanin – Los Angeles (+1 310-552-8581, alanin@gibsondunn.com)Robson Lee – Singapour (+65 6507 3684, rlee@gibsondunn.com)Carrie M. LeRoy – Palo Alto (+1 650-849-5337, cleroy@gibsondunn.com)Alexander H. Southwell – New York (+1 212-351-3981, asouthwell@gibsondunn.com)Christopher T. Timura – Washington, D.C. (+1 202 -887-3690, ctimura@gibsondunn.com)Eric D. Vandevelde – Los Angeles (+1 213-229-7186, evandevelde@gibsondunn.com)Michael Walther – Munich (+49 89 189 33 180, mwalther@gibsondunn.com )

© 2022 Gibson, Dunn & Crutcher s.r.l.

Publicité d'avocat : les documents ci-joints ont été préparés à des fins d'information générale uniquement et ne sont pas destinés à constituer des conseils juridiques.