Vi outro dia a Kim Kardashian chamando o ChatGPT de “frenemy”. Uma combinação de friend e enemy. Curioso.
Amizade e inimizade são coisas para pessoas, não para ferramentas. O ChatGPT pode, no máximo, simular afeição ou rejeição. E simulação é difícil de perceber em um mundo cheio de artificialidades, como aparenta ser o dela.
Kardashian diz usar o ChatGPT para aconselhamento jurídico. Reclama de respostas incorretas. Acusa a ferramenta de fazê-la errar “all the time” em testes. E afirma que, se há amizade ali, ela é tóxica. Terceirização da responsabilidade. Irresponsabilidade.
É conveniente. A culpa não é dela. É da ferramenta que atrapalha. É a narrativa mais confortável. E a mais falsa.
Aconselhamento jurídico envolve dilemas éticos. Coisa que Kant já ensinava que não poderiam ser aprendidos por exposição de cenários, que é exatamente como modelos de linguagem são treinados. A expectativa equivocada revela mais sobre quem pergunta do que sobre quem responde.
A conclusão é simples. O problema não está nas ferramentas de IA, mas na falta de preparo técnico e, às vezes, emocional das pessoas.
ChatGPT não é um oráculo. Ele alucina. Não é fonte da verdade. É, no máximo, ponto de partida. Também não substitui relações humanas e reais. E nunca será substituto para sua capacidade moral.
Provocador, talvez.
Quem responde, nunca.
No fim, nem falamos de Kim pessoa. Falamos de Kim persona. Um produto de redes. Um produto que influencia. Vive de ruído e de expectativas infundadas. Esse é o negócio dela.
Mas dificilmente é o seu. E é aí que a reflexão pesa: não repita erros que fazem sentido apenas para quem lucra com superficialidade. A menos que seu propósito também seja não ser algo diferente de entretenimento.