Na última semana, Grok – a IA da xAI, de Elon Musk – gerou indignação ao justificar o nazismo e exaltar Hitler em uma resposta pública.
Inaceitável? Sim.
Mas o mais preocupante talvez seja a expectativa equivocada: a de que uma IA possa oferecer respostas éticas a dilemas humanos.
Tentamos codificar o certo e o errado há milênios.
Mesmo as tentativas mais sofisticadas, como o imperativo de Kant, falham diante da realidade.
No mundo concreto, valores colidem.
E nenhuma fórmula é suficiente.
Se não conseguimos estabelecer códigos éticos universais nem para nós mesmos, por que esperar isso de uma máquina?
O que temos hoje é aprendizado por amostragem.
A IA é treinada com dados, reforçada por algoritmos.
Mas isso não gera consciência.
Nem juízo.
A IA reconhece padrões.
Não entende significados.
A correlação não traz discernimento.
Muito menos compaixão.
Outra tentativa comum é aplicar filtros normativos.
Modelar o comportamento da IA por diretriz externa.
A Google tentou.
O resultado: um erro grotesco.
Na tentativa de corrigir viés, criou outro.
Retratou judeus e negros como nazistas. Lembra?
O controle falha quando a inferência escapa.
Usar IA para julgar dilemas morais não é só um erro técnico.
É um erro de conceito.
Grok não “errou” por escolha.
Não há escolha onde não há consciência.
Não há culpa onde não há responsabilidade.
E quem faz perguntas morais à máquina talvez ignore a profundidade da pergunta.
A responsabilidade é, e precisa continuar sendo, humana.
Transferi-la ao algoritmo não resolve.
Só mascara.
Porque dilemas morais exigem mais do que lógica.
Exigem humanidade.
E isso, nenhuma máquina carrega.