• Technologie
  • Équipement électrique
  • Industrie des matériaux
  • La vie numérique
  • politique de confidentialité
  • Ô nom
Emplacement: Accueil / Technologie / Réglementation de l'IA dans les services financiers et comment le Royaume-Uni s'écarte des règles de l'UE

Réglementation de l'IA dans les services financiers et comment le Royaume-Uni s'écarte des règles de l'UE

Plateforme de services à guichet unique |
1624

La complexité et la complexité de l'intelligence artificielle (IA) augmentent rapidement et perturbent les processus d'affaires dans le monde entier. Les gouvernements et les organismes de réglementation s ' efforcent d ' élaborer des cadres pour répondre à l ' évolution des besoins technologiques.

Réglementation de l'intelligence artificielle au Royaume-Uni

Le Royaume-Uni n'a pas de législation spécifique à l'intelligence artificielle. Au lieu de cela, toutes les entreprises britanniques doivent tenir compte des diverses obligations légales existantes lors du développement et de l'utilisation de l'intelligence artificielle, comme elles le font lors de l'adoption de toute nouvelle technologie. Les organisations britanniques doivent examiner trois lois principales:

En raison de la transformation digitale des prestataires de services financiers ces dernières années, l'IA est devenue de plus en plus critique dans le secteur financier.

Les organismes de réglementation – la Prudential Regulatory Authority (PRA) et la Financial Conduct Authority (FCA) – n'ont émis aucune directive spécifique sur l'intelligence artificielle, mais les directives existantes, telles que les principes d'entreprise de la FCA (PRIN) et les règles de base de la PRA, seront pertinentes pour les entreprises qui utilisent l'intelligence artificielle. Conformément au présent règlement:

Nouvelles règles de l'UE

En avril 2021, la Commission européenne a publié le projet de règlement sur l'intelligence artificielle (projet de règlement sur l'intelligence artificielle), introduisant le premier cadre réglementaire complet du même type pour l'intelligence artificielle. Ces règles sont encore à l'état de projet et feront l'objet de négociations législatives complexes, de sorte que le règlement ne devrait pas être finalisé et mis en œuvre avant 2023. En bref, certains aspects importants du projet de loi sur l'intelligence artificielle sont les suivants:

Application

Elle s'appliquera à toutes les organisations de l'UE qui fournissent ou utilisent des systèmes d'intelligence artificielle. It does not apply to personal, non-professional activity.

Restrictions

There is a “risk-based” model to categorising AI systems:

Potential fines

Fines of 10 million-30 million euros or 2-6% of the global annual turnover of the organisation, whichever is higher, may be levied. The level of fine imposed depends on the nature of the infringement.

The new EU rules: extra-territorial impact

The draft AI regulation will apply to organisations outside of the EU if they are: (1) “providers” (i.e., Le développement de systèmes d'intelligence artificielle pour les organisations de l'UE; Ou (2) « usager » (c’est-à-dire, Les organisations qui achètent des systèmes d'intelligence artificielle auprès de fournisseurs de systèmes d'intelligence artificielle), dont les produits sont utilisés dans toute l'UE.

Cela signifie que les développeurs britanniques d'intelligence artificielle qui vendent des produits à l'UE, ainsi que les organisations britanniques qui utilisent des technologies d'intelligence artificielle qui affectent les individus dans l'UE, doivent se conformer aux nouvelles réglementations. Les implications extraterritoriales sont importantes et les multinationales doivent se demander si elles doivent utiliser un système générique d'intelligence artificielle conforme au projet de règlement sur l'intelligence artificielle (une fois finalisé) ou adopter différentes technologies dans différentes juridictions.

AI regulation in financial services and how the UK diverges from EU rules

Y aura-t-il des règles similaires pour l'intelligence artificielle au Royaume-Uni?

Le gouvernement britannique n'a pas exprimé son intention de suivre les traces de la Commission européenne et n'a pas non plus exprimé son point de vue sur l'avenir de la réglementation de l'intelligence artificielle.

Dans le secteur financier, la Banque d'Angleterre et la Financial Services Authority ont lancé le Forum public-privé sur l'intelligence artificielle (AIPPF) afin de stimuler les discussions sur l'utilisation et l'impact de l'intelligence artificielle dans les services financiers. Un objectif particulier est de recueillir des points de vue sur un éventuel cadre réglementaire pour l'intelligence artificielle à l'avenir, et en particulier d'étudier comment le Royaume-Uni peut « trouver le juste équilibre entre fournir un cadre qui permette la certitude, l'efficacité et la transparence de la réglementation et des innovations bénéfiques ». L'AIPPF a déjà examiné et évalué le projet de règlement de la Commission sur l'intelligence artificielle, et il est donc clair que les législateurs et les régulateurs britanniques tiendront compte des règles de la Commission lors de l'élaboration de tout nouveau cadre. Cependant, l'AIPPF ne donne aucune indication quant à la date à laquelle le nouveau cadre réglementaire sera rédigé et mis en œuvre.

Réglementation de l'intelligence artificielle au Royaume-Uni

Le Royaume-Uni n'a pas de législation spécifique à l'intelligence artificielle. Au lieu de cela, toutes les entreprises britanniques doivent tenir compte des diverses obligations légales existantes lors du développement et de l'utilisation de l'intelligence artificielle, comme elles le font lors de l'adoption de toute nouvelle technologie. Les organisations britanniques doivent examiner trois lois principales:

La loi de 2018 sur la protection des données contient des dispositions relatives à l'intelligence artificielle, comme l'obligation d'expliquer aux individus toute décision automatisée les concernant et la logique qui les sous-tend. Loi de 2010 sur l’égalité – interdiction de la discrimination fondée sur « l’identité protégée», Âge, handicap, race, religion. Par conséquent, les entreprises doivent prendre des mesures pour éviter la discrimination et les préjugés dans les systèmes d'intelligence artificielle. Human Rights Act 1998-requires artificial intelligence systems to treat people equitable.

En raison de la transformation digitale des prestataires de services financiers ces dernières années, l'IA est devenue de plus en plus critique dans le secteur financier.

Les organismes de réglementation – la Prudential Regulatory Authority (PRA) et la Financial Conduct Authority (FCA) – n'ont émis aucune directive spécifique sur l'intelligence artificielle, mais les directives existantes, telles que les principes d'entreprise de la FCA (PRIN) et les règles de base de la PRA, seront pertinentes pour les entreprises qui utilisent l'intelligence artificielle. Conformément au présent règlement:

Les systèmes d'intelligence artificielle doivent être suffisamment interprétables et faire en sorte qu'ils soient couverts par le système de gestion des risques (voir FCA PRIN 3 et PRA Rule 5 and 6). La prise de décision assistée par l'intelligence artificielle doit traiter les clients équitablement (voir FCA PRIN 6). Les entreprises doivent être transparentes et capables d'expliquer les décisions en matière d'intelligence artificielle à leurs clients (voir FCA PRIN 7).

Nouvelles règles de l'UE

En avril 2021, la Commission européenne a publié le projet de règlement sur l'intelligence artificielle (projet de règlement sur l'intelligence artificielle), introduisant le premier cadre réglementaire complet du même type pour l'intelligence artificielle. Ces règles sont encore à l'état de projet et feront l'objet de négociations législatives complexes, de sorte que le règlement ne devrait pas être finalisé et mis en œuvre avant 2023. En bref, certains aspects importants du projet de loi sur l'intelligence artificielle sont les suivants:

Application

Elle s'appliquera à toutes les organisations de l'UE qui fournissent ou utilisent des systèmes d'intelligence artificielle. Ne s'applique pas aux activités personnelles et non professionnelles.

Restrictions

Existe un modèle "basé sur le risque" pour classer les systèmes d'intelligence artificielle:

Risques inacceptables Systèmes d'intelligence artificielle qui constituent une menace évidente pour la sécurité, les moyens de subsistance et les droits des individus (par exemple, Risque élevé – 21 systèmes d’intelligence artificielle « à haut risque » sont autorisés en fonction de diverses exigences de conformité. Risque faible – Il existe certains systèmes d’intelligence artificielle à faible risque, par exemple, Chatbots, qui sont autorisés, mais respecteront les obligations de transparence. Risque minimal-Tous les autres systèmes d'intelligence artificielle peuvent être développés et utilisés sans restriction.

Amendes potentielles

Le montant de l'amende est compris entre 10 et 30 millions d'euros ou entre 2 et 6% du chiffre d'affaires annuel mondial de l'organisation, le montant le plus élevé étant retenu. Le montant de l'amende dépend de la nature de l'infraction.

Nouvelles règles de l ' Union européenne: Effets extraterritoriaux

Le projet de règlement sur l'intelligence artificielle s'appliquera aux organisations en dehors de l'UE si elles sont: (1) “prestataire” (c’est-à-dire, Le développement de systèmes d'intelligence artificielle pour les organisations de l'UE; Ou (2) « usager » (c’est-à-dire, Les organisations qui achètent des systèmes d'intelligence artificielle auprès de fournisseurs de systèmes d'intelligence artificielle), dont les produits sont utilisés dans toute l'UE.

Cela signifie que les développeurs britanniques d'intelligence artificielle qui vendent des produits à l'UE, ainsi que les organisations britanniques qui utilisent des technologies d'intelligence artificielle qui affectent les individus dans l'UE, doivent se conformer aux nouvelles réglementations. The extra-territorial impact is significant and multinationals will need to consider whether to use a common set of AI systems compliant with the draft AI regulation (once finalised) or adopt different technology in different jurisdictions.

AI regulation in financial services and how the UK diverges from EU rules

Will there be similar AI-specific rules in the UK?

The UK government has not indicated any plans to follow in the Commission’s footsteps, nor has it expressed a view on what the future of AI regulation will look like.

In the financial sector, the Bank of England and the FCA have launched the AI Public-Private Forum (AIPPF) to facilitate discussion regarding the use and impact of AI in financial services. A particular aim is to gather views on the possible future AI regulatoryframework, and in particular to look at how the UK can “strike the right balance between providing a framework that allows for certainty, regulatory effectiveness and transparency, as well as beneficial innovation”. The AIPPF have discussed and evaluated the Commission’s draft AI regulation, so it is clear that the Commission rules will be closely considered by UK legislators and regulators in developing any new framework. The AIPPF did not, however, give any indication of when a new regulatory framework will be draftedand implemented.

Défis réglementaires uniques

L'utilisation de l'intelligence artificielle pose de nombreux défis réglementaires uniques. Le nouveau cadre de l'UE pour l'intelligence artificielle représente un grand pas en avant, mais il reste à voir comment le projet de cadre évoluera au cours des négociations à la Commission européenne et comment le Royaume-Uni réagira.

La complexité de l'intelligence artificielle et son impact sur les consommateurs, notamment dans le domaine des services financiers, soutient sans aucun doute la position britannique sur la nécessité d'une législation spécifique à l'intelligence artificielle.