IA, responsabilidade e reputação: a inovação que cobra seu preço | LinkedIn

Comento aqui o artigo do Valor Econômico publicado em 06/06/2025 (https://valor.globo.com/legislacao/noticia/2025/06/06/justica-condena-google-a-indenizar-por-erro-de-informacao-de-inteligencia-artificial.ghtml). O artigo comenta sobre dois julgamentos que chamaram a atenção pelo mesmo ponto de partida: o erro de uma ferramenta de inteligência artificial

Mas o que realmente impacta é onde esses erros chegaram — e contra quem. Em ambos os casos, pessoas reais foram expostas, acusadas e prejudicadas por informações geradas por sistemas automatizados, em situações que revelam o tamanho da responsabilidade que recai sobre quem opera, disponibiliza e lucra com a IA.

O primeiro episódio ocorreu em uma ação movida por Marcelo Tavares (5ª Vara Cível de Niterói/RJ), empresário do setor de games e criador da Brasil Game Show.

Após conceder uma entrevista listando seus jogos preferidos, o nome dele passou a ser relacionado, por meio da IA generativa do Google — o Gemini —, como dono de um site de apostas chamado “7Games”. A informação era falsa, mas foi apresentada pela ferramenta como se fosse verdadeira. Em pouco tempo, Tavares começou a receber ameaças, e sua imagem foi vinculada a um setor que jamais integrou. A sentença foi clara: a empresa deve responder por aquilo que sua IA afirma ao público. Não se trata de uma plataforma neutra, mas de um serviço que gera conteúdo e impacta vidas. O Google foi condenado a indenizar o empresário em R$ 20 mil por danos morais.

O segundo caso, decidido pela 7ª Vara Cível de Bauru (SP), envolveu um médico que foi falsamente acusado de envolvimento em mais de cem casos de assédio sexual. O conteúdo, também gerado por uma IA, confundiu o fato de ele integrar uma comissão de apuração de denúncias com uma suposta autoria dos crimes. Uma distorção brutal, que atribuiu a um profissional de reputação ilibada uma conduta absolutamente inverídica e gravemente ofensiva.

A decisão determinou a imediata remoção da informação e reconheceu o dano à honra e à imagem do profissional, atingido de forma direta por uma ferramenta que deveria, em tese, apenas organizar informações já disponíveis.

Os dois episódios colocam luz sobre um problema que ainda está sendo subestimado no debate público: o impacto concreto da IA na vida das pessoas — e a responsabilidade objetiva de quem a oferece ao mercado. Não é mais possível justificar erros com a alegação de que “foi a máquina”. As plataformas que operam IAs generativas devem adotar mecanismos de supervisão, validação e correção. E precisam estar preparadas para responder, inclusive judicialmente, por aquilo que suas ferramentas afirmam.

A responsabilidade não é só das gigantes de tecnologia

Os efeitos dessas decisões ultrapassam as big techs. Empresas que utilizam soluções de IA como parte de seus serviços — seja em atendimento ao cliente, análise de dados, automação de processos ou produção de conteúdo — também podem ser responsabilizadas civilmente pelos danos que suas ferramentas causarem a terceiros. O simples fato de a tecnologia ter sido contratada de um terceiro não exime o dever de diligência. Se a IA é parte da cadeia de valor, seus resultados também são parte da responsabilidade da empresa que a adota.

Isso significa que a contratação de uma solução baseada em inteligência artificial não é apenas uma decisão de inovação ou eficiência. É uma decisão que envolve risco jurídico. Empresas precisarão revisar seus contratos, exigir garantias técnicas, monitorar os efeitos das ferramentas adotadas e, principalmente, estabelecer um fluxo de governança interna para identificar e responder rapidamente a erros. Não basta confiar que o fornecedor resolve. É a empresa, na ponta, que responderá à Justiça se a IA causar um dano.

A idoneidade de quem oferece tecnologia também está em jogo

O avanço da IA abriu espaço para uma nova leva de empresas de tecnologia que surgem oferecendo soluções automatizadas — muitas vezes com promessas agressivas de eficiência, escala e resultado. Mas boa parte dessas empresas opera sem qualquer política clara de governança, sem compromisso com a verificação das informações geradas por suas ferramentas e, o mais grave, sem oferecer respaldo jurídico a quem contrata seus serviços.

Nesse cenário, cresce o número de contratantes que, ao se verem envolvidos em litígios, descobrem que não há sequer cláusulas contratuais que disciplinem o uso da IA, as limitações do sistema ou os mecanismos de responsabilização. A transparência é quase nula. A verificação das informações raramente é exigida — e, quando feita, não há documentação técnica que comprove como os dados foram cruzados, qual fonte foi utilizada ou qual foi o grau de confiabilidade atribuído ao resultado gerado pela máquina.

Não se trata mais de discutir apenas se uma IA pode ser responsabilizada — uma discussão ainda aberta, do ponto de vista teórico e normativo. Trata-se de reconhecer que, enquanto não houver um regime próprio de responsabilização algorítmica, a conta recairá sobre quem contrata, quem lucra e quem coloca essas soluções em circulação. Nesse aspecto, a responsabilidade é humana, empresarial e contratual. E não há atalho para escapar dela.

O marco regulatório e os riscos da lacuna legal

O Brasil ainda não possui uma lei específica em vigor que trate da inteligência artificial, mas o debate já está avançado. O Projeto de Lei nº 2.338/2023, aprovado no Senado, propõe um marco regulatório que classifica os sistemas de IA por grau de risco, cria um órgão nacional de supervisão e estabelece sanções rigorosas para usos indevidos ou perigosos. A proposta traz diretrizes sobre transparência, rastreabilidade, segurança e supervisão humana — pilares fundamentais para quem desenvolve e quem contrata soluções baseadas em algoritmos.

O texto ainda aguarda tramitação na Câmara dos Deputados, mas seu conteúdo já antecipa o que o Judiciário está, na prática, aplicando: responsabilidade objetiva de quem explora economicamente a IA, dever de transparência sobre o funcionamento dos sistemas e obrigação de mitigar riscos antes que eles se convertam em dano.

Enquanto o marco não é sancionado, a jurisprudência segue ocupando esse vácuo normativo. E o recado é direto: quem adota a IA deve se comportar como corresponsável por ela. Porque, no fim, não há inovação ética sem accountability. E não há inteligência artificial segura sem inteligência jurídica no seu uso.

A inteligência artificial é uma das ferramentas mais transformadoras do nosso tempo. Mas quando ela erra — e ela erra —, o custo não pode ser transferido para o indivíduo prejudicado. A responsabilidade é de quem oferece a solução, lucra com ela e a coloca em circulação. Os casos de Niterói e Bauru deixam uma lição definitiva: inovação sem responsabilidade é risco. E risco não administrado vira dano. E dano, como agora sabemos, vira condenação.

O marco regulatório e os riscos da lacuna legal

O Brasil ainda não possui uma lei específica em vigor que trate da inteligência artificial, mas o debate já está avançado. O Projeto de Lei nº 2.338/2023, aprovado no Senado, propõe um marco regulatório que classifica os sistemas de IA por grau de risco, cria um órgão nacional de supervisão e estabelece sanções rigorosas para usos indevidos ou perigosos. A proposta traz diretrizes sobre transparência, rastreabilidade, segurança e supervisão humana — pilares fundamentais para quem desenvolve e quem contrata soluções baseadas em algoritmos.

O texto ainda aguarda tramitação na Câmara dos Deputados, mas seu conteúdo já antecipa o que o Judiciário está, na prática, aplicando: responsabilidade objetiva de quem explora economicamente a IA, dever de transparência sobre o funcionamento dos sistemas e obrigação de mitigar riscos antes que eles se convertam em dano.

Enquanto o marco não é sancionado, a jurisprudência segue ocupando esse vácuo normativo. E o recado é direto: quem adota a IA deve se comportar como corresponsável por ela. Porque, no fim, não há inovação ética sem accountability. E não há inteligência artificial segura sem inteligência jurídica no seu uso.

IA criando contratos: como confiar à máquina o futuro da sua empresa?

Entre as promessas mais sedutoras da inteligência artificial está a automação da produção documental: contratos, pareceres, relatórios, termos de uso, notificações e uma infinidade de peças corporativas podem ser geradas em segundos por ferramentas que simulam linguagem jurídica. O discurso comercial é sempre o mesmo: “agilidade”, “redução de custos”, “democratização do acesso”.

Mas o que está em jogo, no fim, é muito mais do que eficiência operacional.

Quando uma empresa utiliza IA para redigir um contrato — seja para um fornecedor, um colaborador ou um sócio — ela está confiando à máquina não apenas palavras, mas riscos, obrigações, responsabilidades futuras. Está depositando no algoritmo a segurança de uma relação que, se mal desenhada, pode comprometer patrimônio, reputação ou continuidade.

E a pergunta precisa ser feita: como esse contrato foi elaborado? Que premissas a IA considerou? Houve validação humana posterior? As informações utilizadas eram atualizadas, corretas, adequadas ao setor ou à legislação aplicável? E, mais importante: quem responde se algo estiver errado?

Na prática, o que temos visto é o uso crescente de ferramentas de IA para gerar documentos complexos, muitas vezes sem a mínima revisão técnica. O resultado são cláusulas contraditórias, omissões graves, vícios de linguagem, e contratos que parecem prontos — mas não sustentam conflitos, não previnem litígios e não refletem a realidade das partes. São contratos frágeis com aparência de robustez. E, muitas vezes, essa aparência é o que conduz a empresa ao erro.

O problema não é a IA em si. O problema é o uso indiscriminado, a ausência de critérios de validação e a ilusão de que automatizar significa resolver. Automatizar, sem compreender o que se está gerando, é repetir o erro com mais velocidade.

Documentos empresariais, especialmente contratos, são instrumentos estratégicos. Não podem ser tratados como conteúdos genéricos de autoatendimento. Quando se terceiriza essa função para a IA, sem supervisão técnica, o que se terceiriza também é a segurança jurídica do negócio. E, como mostram os casos de Niterói e Bauru, a conta desse tipo de risco chega — e chega com força.

A inteligência artificial é uma das ferramentas mais transformadoras do nosso tempo. Mas quando ela erra — e ela erra —, o custo não pode ser transferido para o indivíduo prejudicado. A responsabilidade é de quem oferece a solução, lucra com ela e a coloca em circulação. Inovação sem responsabilidade é risco. E risco não administrado vira dano. E dano, como agora sabemos, vira condenação.

Rolar para cima