Cesar Fueta
Cesar Fueta
Direito empresarial

A responsabilização por danos causados pela inteligência artificial

Neste artigo vamos abordar os prejuízos causados pela inteligência artificial, como o direito trata deste tema e se há necessidade de uma regulamentação sobre esse novo tópico.

Compartilhe:
12 de dezembro de 2023
Vinicius Palermo
A responsabilização por danos causados pela inteligência artificial
A Inteligência Artificial pode causar danos se não utilizada de maneira responsável

A responsabilidade civil é um tema recorrente na advocacia contenciosa. Com a expansão do uso da inteligência artificial (IA) pelo público em geral também começaram a surgir as discussões acerca das indenizações e da identificação dos causadores de danos decorrentes desta tecnologia. Neste artigo vamos abordar os prejuízos causados pela inteligência artificial, como o direito trata deste tema e se há necessidade de uma regulamentação sobre esse novo tópico.

Não é novidade que a inteligência artificial pode causar danos. E isso já acontece com muita frequência, mas talvez não estejamos conscientes desse fato em razão da nossa vida já estar permeada por essa tecnologia. Por vezes fantasiamos que os prejuízos dessa nova inovação somente viriam de robôs com a intenção de destruir o mundo. No entanto, a realidade é muito mais surpreendente: são os algoritmos, e não os androides, os maiores responsáveis por prejuízos aos seres humanos.

Os danos físicos causados por uma inteligência artificial são mais fáceis de serem observados. É o caso do carro autônomo que, por uma falha em sua programação, atropela uma pessoa ou colide com outro veículo. Porém temos também os danos psicológicos e até mesmo existenciais que podem ser originados de um sistema de IA. É frequente a identificação de algoritmos enviesados e que refletem preconceitos existentes na sociedade. Os exemplos são vários. Já foram identificados casos em que há variação de preços de produtos dependendo do tipo de telefone celular utilizado para a pesquisa de preços (Android ou iOS), análise de concessão de crédito com base em critérios irrelevantes para apurar a capacidade financeira do cliente, redes sociais que tornam um grupo de usuários invisível com base em uma “filtragem colaborativa” e reconhecimento facial que identifica erroneamente um inocente como se fosse um criminoso procurado.

Em relação à inteligência artificial generativa, como o ChatGPT e o Midjourney, os resultados de interação com essa tecnologia demonstram que as discriminações socialmente instaladas são repetidas nestas ferramentas, como a atribuição de determinadas profissões a um grupo étnico específico.

Considerando os danos causados pela tecnologia, atualmente a análise jurídica se concentra em verificar se houve uma verdadeira disrupção no sistema de responsabilidade civil previsto na nossa legislação. Essa discussão decorre de algumas características inovadoras da IA. Esta tecnologia possui autonomia crescente, de forma que pode tomar decisões imprevisíveis até mesmo para quem concebeu o programa. Os dados são essenciais para o uso da inteligência artificial e, portanto, podem não ser suficientemente representativos para gerar resultados satisfatórios. O processo de desenvolvimento de programas baseados em IA é altamente complexo, envolvendo muitos responsáveis no projeto. A conexão com a internet torna os sistemas de IA vulneráveis a um ataque ou invasão cibernética. Por fim, a opacidade dos algoritmos que regem a IA dificulta excessivamente a verificação do caminho lógico utilizado para alcançar o resultado obtido.

Neste cenário, os juristas procuram resolver o seguinte problema: qual o regime de responsabilidade civil a ser aplicado para os danos causados pela IA? A importância prática desse questionamento resume-se, basicamente, em saber se há necessidade de verificar a culpa e de quem seria essa culpa pelos prejuízos decorrentes do uso dessa tecnologia.

Para verificar o regime de responsabilidade civil para um caso específico de danos oriundos do uso de uma IA é necessário analisar o grau de autonomia decisória da IA, o nível de intervenção humana e em qual objeto ou sistema essa tecnologia está instalada.  Levando-se em conta estes critérios, verificamos que as normas jurídicas existentes no ordenamento brasileiro já oferecem as soluções para a responsabilização civil decorrente de danos causados pela IA.

Portanto, a título de exemplos de aplicação das normas brasileiras existentes, destacamos que a apuração do dano causado pela falha em operação policial que utilizou reconhecimento facial por IA é regido pela responsabilidade objetiva do artigo 37, §6º, da Constituição da República. A análise do acidente causado por falha em carro autônomo é regida pela responsabilidade civil do código civil na relação entre o proprietário e a vítima, e é regido pelo Código de Defesa do Consumidor, na relação com a fabricante do veículo.

Fato é que não há um grande espaço de inovação para a regulamentação jurídica dos malefícios causados pela IA. Contudo, a normatização da responsabilidade civil decorrente da IA nos parece necessária sob o ponto de vista da segurança jurídica. Isso porque o esclarecimento pontual em certas legislações evitaria dúvidas em sua aplicação. O Código de Trânsito Brasileiro, por exemplo, prevê que o condutor deve ter o controle de seu veículo a todo o momento. Seria necessário esclarecer na legislação se neste controle está abrangido o uso de veículos autônomos. Além disso, ao estabelecer expressamente o regime jurídico aplicável para o caso de responsabilidade civil decorrente de danos causados pela IA evitaria casuísmos e decisões judiciais antagônicas e conflitantes.

No Brasil, o atual projeto de lei que trata da IA (PL 2.338/2023) nos parece estabelecer critérios que contribuem para a segurança jurídica. O regime de responsabilização civil ali previsto leva em conta dois critérios: o nível do risco da inteligência artificial e o sujeito envolvido. Assim, para a IA de alto riso ou de risco excessivo, a responsabilidade civil seria a objetiva, ou seja, independente de verificação de culpa. Para a IA de baixo risco, a culpa seria presumida, com inversão do ônus da prova em favor da vítima. Em ambiente de testagem da regulamentação da IA (sandbox) o regime de responsabilidade seria mantido, sem qualquer atenuação. Resumidamente, a responsabilização civil no projeto de lei seria aplicável a relações interempresariais, enquanto que as demais relações – civis e consumeristas – obedeceriam aos sistemas já existes na legislação: no Código Civil ou no Código de Defesa do Consumidor.

Diante de todos estes aspectos, concluímos que a regulamentação da responsabilidade civil da inteligência artificial é necessária não apenas para garantir a segurança jurídica, mas também contribui para um panorama em que o uso dessa tecnologia seja cada vez mais informado viabilizando uma melhor proteção aos seus usuários.