Existem muitas fontes de risco e responsabilidade ao usar a IA.Eles podem variar de direitos de propriedade intelectual, GDPR, regulamento iminente de IA, requisitos regulatórios específicos do setor e até legislação de igualdade.A contratação para a IA, no entanto, é sobre alocação de risco voluntária e a abordagem adotada para isso pode variar amplamente.Como a contratação para a IA está em um estágio relativamente inicial, há um grau de incerteza sobre como abordá -lo.Este é particularmente o caso quando se trata de lidar com problemas de responsabilidade.
Simplificando, a IA é um software que executa tarefas normalmente associadas à inteligência e agindo com um grau de autonomia.Existe, portanto, sempre um elemento de imprevisibilidade no resultado e saída.Lidar com essa imprevisibilidade e entender como minimizá -lo é uma questão importante ao considerar a alocação de responsabilidade em um contrato para a prestação de serviços orientados a IA.
Alguns fornecedores podem procurar adotar a abordagem de que, devido à potencial imprevisibilidade dos resultados, eles não assumirão nenhum passivo decorrente da IA.Para a grande maioria dos clientes, isso simplesmente não será bom o suficiente e não será uma base sobre a qual eles podem contrair.
Portanto, é nos interesses do fornecedor e do cliente para uma abordagem considerada, informada e razoável à alocação de responsabilidade em um contrato de IA.A questão então é: como você faz isso?
Due diligência pré-contratual
As partes dos clientes devem realizar a devida diligência na própria tecnologia da saúde digital, além de sua due diligence pré-contrato normal no fornecedor.O objetivo do cliente é ter um entendimento claro do que o sistema de IA pode entregar.Em nossa experiência, este é um processo iterativo.
O provedor deve ter um conjunto de documentos padrão que estabeleçam os detalhes da oferta de IA.Às vezes, esse material pode ser difícil para um não especialista em entender.O cliente, portanto, precisa se envolver com o fornecedor, a fim de descer aos detalhes sobre o que a IA pode entregar e como ele atinge essas entregas.
Transparência e responsabilidade
A transparência nessa área complexa de tecnologia da saúde digital é imperativa para ambas as partes.Pode haver uma tendência a evitar a complexidade técnica, mas a única maneira de o cliente poder estabelecer quais elementos do sistema estão sob o controle do fornecedor, e quais elementos não são, será abrir a "caixa preta" eTenha uma visão clara de como o sistema funciona.Os elementos que estão no controle do fornecedor devem ser estabelecidos no contrato como coisas pelas quais o fornecedor é responsável.
Essa questão de transparência é de particular importância quando se trata de responsabilidade e, portanto, responsabilidade por saídas.Como os saídas chegaram e qual elemento disso está no controle do fornecedor?Os fornecedores podem procurar evitar incluir qualquer compromisso nos resultados que a IA entregará.No entanto, um cliente que tem uma visão clara de como esses resultados são alcançados poderão abordar tal abordagem de maneira informada.Um fornecedor bem aconselhado deve ser capaz de explicar e demonstrar o design e o processo usado pela IA desde o início.Isso ajudará o envolvimento do cliente e ajudará a construir confiança no sistema.
Depois que a transparência é alcançada, a próxima etapa vinculada é a responsabilidade.As partes devem considerar:
Essa abordagem granular geralmente será a chave para entender as responsabilidades e, portanto, alocar a responsabilidade.
Testes, relatórios e auditoria
O teste da IA no início do contrato e continua sendo crítico.Tais testes em andamento servirão para capturar um problema desde o início e, assim, evitarão um problema sistêmico desenvolvendo.Também dará à visibilidade do cliente e permitirá ao cliente responsabilizar o fornecedor, quando necessário.
Os clientes devem garantir que os fornecedores sejam necessários para manter registros sobre a operação e teste da IA e disponibilizar esses registros mediante solicitação.Essas obrigações de relatório devem ser apoiadas pelos direitos de auditoria para os clientes.O objetivo de relatar e auditoria é permitir que o cliente procure gerenciar seu próprio risco decorrente da IA, sendo informado de forma consistente, além de fornecer uma trilha de auditoria responsável caso surja um problema.
Ao lidar com sistemas de IA implantados em ou como parte de dispositivos regulados pela regulamentação de dispositivos médicos (UE) 2017/745 ou no regulamento de dispositivos médicos de diagnóstico in vitro (UE) 2017/746, controles rigorosos de fornecedores fornecidos como parte da qualidadeOs requisitos do sistema de gerenciamento sob essas partes da legislação também devem ser contabilizados por.Mesmo nos casos em que um produto geral de saúde ou bem-estar utiliza ferramentas de IA, mas não é regulamentado como dispositivo médico ou um dispositivo de diagnóstico in vitro, os requisitos em torno da manutenção e auditoria ainda devem ser cuidadosamente considerados.
Sua cláusula de responsabilidade
Como em qualquer contrato de TI, os fornecedores procurarão limitar sua responsabilidade por meio de uma cláusula de limitação e exclusão de responsabilidade.Isso não será diferente para contratos de IA.As regras normais se aplicarão, a saber, que a força das respectivas posições de negociação das partes serão o principal fator determinante na redação de qualquer cláusula de responsabilidade.A questão dos clientes é garantir que o fornecedor não esteja buscando excluir a responsabilidade por assuntos que estão realmente no controle do fornecedor, no todo ou em parte, e que o fornecedor deve, portanto, ser responsabilizado por.
O aspecto único da contratação para a IA é lidar com a responsabilidade decorrente de resultados que estão realmente apenas no controle da própria IA.No entanto, em nossa experiência, quando o cliente realiza a devida diligência e alcança a transparência, em muitos casos, acaba por não ser um problema significativo.