Inteligência artificial, criatividade e verdade

No mês retrasado, uma banda chamada Velvet Sundown apareceu entre os destaques do Spotify. Folk rock bem produzido, melodias suaves, letras reflexivas, estética coesa, capa de álbum conceitual, vocais harmônicos. Tudo no lugar. Em pouco tempo, acumulou mais de um milhão de ouvintes mensais. Parecia apenas mais um caso de sucesso do algoritmo — até que descobriram que a banda não existe. Ou melhor: ela foi inteiramente criada por inteligência artificial. Letras, timbres, composições, imagem, nome, discografia. Tudo, sem exceção, foi gerado por IA.

A notícia não causou exatamente um escândalo. O que ela causou foi um tipo específico de desconforto. O tipo de desconforto que surge quando percebemos que algo que parecia humano, autêntico, vivido — na verdade, não é nada disso. Ian Bogost, engenheiro de computação e colunista da The Atlantic, descreveu a experiência de escutar o álbum da banda enquanto dirigia por horas no interior dos Estados Unidos. Ele resumiu: “a música não é ruim. Mas também não é boa. Não é nada demais, na verdade.” E concluiu: “É o retrato fiel da música sob demanda: feita para preencher o silêncio, não para ser sentida.”

Essa observação vai além da música. Vai além da IA. Ela toca em algo mais profundo: a revelação de que, muitas vezes, o que consumimos (e até admiramos) já era, há muito, medíocre — só que agora a máquina conseguiu replicar essa mediocridade com mais eficiência.

E se há um campo onde esse diagnóstico se mostra ainda mais perigoso, é o campo do Direito.

Nos últimos meses, tenho me deparado com petições, contratos e pareceres redigidos com o auxílio de inteligência artificial. À primeira vista, parecem corretos. A estrutura está ali: introdução, desenvolvimento, conclusão. O vocabulário impressiona, com expressões jurídicas cuidadosamente selecionadas. As citações estão no lugar — ou ao menos parecem estar. É fácil se deixar levar.

Mas basta uma verificação mínima para perceber o problema: muitas dessas referências são inventadas, ou seja, falsas. Fabricadas com base em padrões linguísticos e não em pesquisa jurídica real.

Já vi, por exemplo, decisões inexistentes atribuídas à 3ª Turma do STJ, com número de processo e relatoria — tudo com ares de precisão.

Este cenário se agrava quando clientes usam a ferramenta para tentar buscar uma solução para seu problema e são “enganados” pela IA.

Um cliente me enviou um parecer feito com auxílio de IA citando um acórdão do STF que supostamente reconheceria a responsabilidade objetiva de sócio minoritário em caso de fraude fiscal — o número era convincente, mas a decisão não existia.

Em outro caso, uma suposta jurisprudência do TJSP falava em “teoria da contaminação societária”, termo que nunca foi adotado por qualquer tribunal ou – até onde eu saiba – por qualquer doutrina. Ainda assim, tudo parecia perfeitamente crível, como se houvesse ali uma base sólida por trás da forma.

Logo, você, sendo um profissional com tantos anos de experiência e estudo, se vê questionado por um cliente que acredita na inteligência artificial pois ela apresenta uma “verdade” aceitável. Algo que faz bem ao usuário e sempre busca favorecê-lo em qualquer situação.

É a síndrome do Velvet Sundown transposta para o universo jurídico: tudo está no lugar — menos a verdade.

E o que isso revela não é apenas um problema técnico da IA, mas um traço preocupante do próprio mercado jurídico. Porque a inteligência artificial não está criando um novo risco. Ela está apenas potencializando uma prática já comum: o uso da linguagem como fachada. Palavras que soam corretas. Parágrafos bem compostos. Juridiquês distribuído com esmero. Tudo isso sem que, de fato, haja substância, estratégia ou responsabilização.

Nesse cenário, a IA não é vilã. Ela é um espelho. Um espelho que revela o quanto a forma tem sido usada para mascarar a ausência de conteúdo — e o quanto o mercado, por vezes, não consegue distinguir uma peça construída com raciocínio jurídico de um texto que apenas parece jurídico.

Mas o Direito — o verdadeiro Direito — é linguagem e pensamento. É forma e conteúdo. E, acima de tudo, é responsabilidade não apenas pela palavra usada, mas pela história que se conta, pela coerência com a lei e com a doutrina, pela integridade da argumentação jurídica, e pela lealdade inegociável do advogado à justiça e ao seu cliente.

A inteligência artificial pode até redigir textos bem organizados, concatenar cláusulas com boa sintaxe, sugerir alternativas argumentativas com base em padrões. Mas ela não pensa. Ela não interpreta. Ela não hesita. Ela não faz aquela pausa que o advogado experiente faz antes de aconselhar um cliente a não litigar. Ela não sente a intuição de que há algo errado num contrato bem escrito. Ela não percebe que, às vezes, a melhor solução jurídica é a que exige dizer menos, agir devagar, esperar.

A IA não vivencia a tensão de uma reunião com sócios em conflito, nem compreende o peso de uma cláusula mal colocada numa holding familiar. Ela não intui o risco reputacional de um erro discreto. Ela não conhece o silêncio desconfortável que precede uma negociação difícil — nem sabe traduzir esse silêncio em cláusulas que protegem sem ofender. Ela também não representa a sua reputação a longo prazo. Busca remediar o problema presente.

Ela apenas calcula.

Por isso, para o profissional que usa o ChatGPT (ou outras plataformas) para redigir contratos, pareceres ou petições, é preciso fazer uma escolha consciente: vou usar a IA para acelerar ou para substituir meu pensamento? Porque há uma linha tênue entre usar a máquina como ferramenta — e torná-la seu raciocínio principal. E quando isso acontece, não é só o texto que perde alma. É o profissional que perde relevância.

A inteligência humana não é insubstituível por vaidade. Ela é insubstituível porque é a única capaz de fazer o que a máquina ainda não consegue: tomar decisões conscientes, assumir riscos, interpretar silêncios, criar conexões inesperadas, entender contextos únicos, errar com responsabilidade e aprender com o que não está nos dados.

Advogar, no estado da arte, não é apenas saber redigir ou dominar o repertório técnico — é saber escolher, em cada contexto, qual silêncio proteger, qual palavra pode romper um impasse, qual estratégia não cabe no texto, mas muda o rumo da empresa. Isso a IA não entrega. Porque isso é humano.

O verdadeiro papel do profissional, portanto, não é o de competir com a IA. É o de continuar fazendo aquilo que ela ainda não compreende: criar sentido.

Porque, no fim das contas, a Velvet Sundown não é um problema — é um sintoma. Um lembrete de que existe um tipo de produção que ocupa espaço sem deixar marcas. Que fala sem realmente dizer. Que existe sem de fato significar.

É o retrato fiel da música sob demanda: feita para preencher o silêncio, não para ser sentida. Traduz com perfeição o lugar da produção automatizada no mundo de hoje: pano de fundo auditivo, não experiência estética. Forma sem alma.

Talvez, ao contrário dela, nós — os profissionais humanos — ainda tenhamos algo a dizer. Algo que não se limita ao algoritmo, à estatística ou à aparência de coerência. Algo que, por mais imperfeito que seja, carrega intenção, memória e risco.

E é justamente por isso que seguimos (ainda) necessários.

Rolar para cima