Il existe de nombreuses sources de risques et de responsabilité lors de l'utilisation de l'IA.Ceux-ci peuvent aller des droits de propriété intellectuelle, du RGPD, de la réglementation imminente de l'IA, des exigences réglementaires spécifiques au secteur et même de la législation sur l'égalité.La contraction pour l'IA, cependant, concerne l'allocation volontaire des risques et l'approche adoptée à ce sujet peut varier considérablement.Comme le contrat pour l'IA est à un stade relativement précoce, il y a une certaine incertitude sur la façon de l'approcher.C'est particulièrement le cas lorsqu'il s'agit de traiter les problèmes de responsabilité.
En termes simples, l'IA est des tâches d'exécution des logiciels généralement associées à l'intelligence et à agir avec un degré d'autonomie.Il y a donc toujours un élément d'imprévisibilité dans le résultat et la sortie.Faire face à cette imprévisibilité et comprendre comment le minimiser est un problème clé lors de l'examen de l'allocation de responsabilité dans un contrat pour la fourniture de services axés sur l'IA.
Certains fournisseurs peuvent chercher à adopter l'approche qui en raison de l'imprévisibilité potentielle des résultats, ils n'assumeront aucune responsabilité découlant de l'IA.Pour la grande majorité des clients, ce ne sera tout simplement pas assez bon et ne sera pas une base sur laquelle ils pourront contracter.
Il est donc dans les intérêts du fournisseur et du client à une approche de prise, informée et raisonnable de l'allocation de responsabilité dans un contrat d'IA.La question est alors, comment faites-vous cela?
Diligence raisonnable pré-contractuelle
Les parties clients devraient assumer une diligence raisonnable sur la technologie de santé numérique elle-même, en plus de leur diligence raisonnable normale de pré-contrat sur le fournisseur.L'objectif du client est de comprendre clairement ce que le système d'IA peut fournir.D'après notre expérience, c'est un processus itératif.
Le fournisseur doit avoir un ensemble de documents standard qui définissent les spécificités de l'offre d'IA.Ce matériel peut parfois être difficile pour un non-expert à comprendre.Le client doit donc s'engager avec le fournisseur afin de se rendre aux détails sur ce que l'IA peut livrer et comment il réalise ces livrables.
Transparence et responsabilité
La transparence dans ce domaine complexe de la technologie de santé numérique est impérative pour les deux parties.Il peut y avoir une tendance à éviter la complexité technique, mais la seule façon dont le client sera en mesure d'établir quels éléments du système sont sous le contrôle du fournisseur, et quels éléments ne seront pas pour ouvrir la «boîte noire» etObtenez une vue claire du fonctionnement du système.Les éléments qui sont sous le contrôle du fournisseur devraient être énoncés dans le contrat comme des choses dont le fournisseur est responsable.
Cette question de transparence est particulièrement importante en ce qui concerne la responsabilité et donc la responsabilité des sorties.Comment les sorties sont-elles arrivées et quel élément de cela est dans le contrôle du fournisseur?Les fournisseurs peuvent chercher à éviter d'inclure tout engagement sur les sorties que l'IA fournira.Cependant, un client qui a une vision claire de la façon dont ces sorties sont obtenues pourront aborder une telle approche de manière éclairée.Un fournisseur bien avisé devrait être en mesure d'expliquer et de démontrer la conception et le processus utilisés par l'IA dès le départ.Cela facilitera l'engagement des clients et aidera à renforcer la confiance dans le système.
Une fois la transparence atteinte, la prochaine étape liée est la responsabilité.Les parties devraient considérer:
Cette approche granulaire sera souvent la clé pour comprendre les responsabilités et donc l'allocation de responsabilité.
Test, signalement et audit
Les tests de l'IA au début du contrat et sur une base seront essentiels.De tels tests en cours serviront à rencontrer un problème dès le début et éviteront ainsi un problème systémique.Il donnera également une visibilité au client et permettra au client de tenir le fournisseur responsable, si nécessaire.
Les clients doivent s'assurer que les fournisseurs sont tenus de maintenir des enregistrements sur le fonctionnement et les tests de l'IA et pour rendre ces enregistrements disponibles sur demande.Ces obligations de déclaration devraient être sauvegardées par des droits d'audit pour les clients.L'objectif de signalement et d'audit est de permettre au client de chercher à gérer son propre risque résultant de l'IA en étant informé de manière cohérente, tout en fournissant une piste d'audit responsable si un problème se pose.
Lorsque vous traitez avec les systèmes d'IA qui sont déployés dans ou dans le cadre des appareils réglementés dans le cadre de la réglementation médicale des dispositifs médicaux (UE) 2017/745 ou de la réglementation des dispositifs médicaux diagnostiques in vitro 2017/746, des contrôles stricts des fournisseurs prévus dans le cadre de la qualitéLes exigences du système de gestion en vertu de ces textes de législation doivent également être pris en compte.Même dans les cas où un produit de santé ou de bien-être général utilise des outils d'IA mais n'est pas réglementé comme un dispositif médical ou un dispositif de diagnostic in vitro, les exigences concernant la tenue de registres et l'audit doivent toujours être soigneusement considérées.
Votre clause de responsabilité
Comme pour tout contrat informatique, les fournisseurs chercheront à limiter leur responsabilité via une clause de limitation et d'exclusion de responsabilité.Ce ne sera pas différent pour les contrats d'IA.Les règles normales s'appliqueront, à savoir que la force des positions de négociation respectives des parties sera le principal facteur déterminant de la rédaction de toute clause de responsabilité.Le problème pour les clients est de s'assurer que le fournisseur ne cherche pas à exclure la responsabilité des questions qui sont réellement sous le contrôle du fournisseur, en tout ou en partie, et que le fournisseur doit donc être tenu responsable des.
L'aspect unique de la contractation pour l'IA est de la responsabilité résultant de résultats qui ne sont vraiment que dans le contrôle de l'IA lui-même.Cependant, d'après notre expérience, lorsque le client entreprend une diligence raisonnable appropriée et atteint la transparence, dans de nombreux cas, se révèle être un problème important.