Termo usado para descrever quando uma LLM prefere agradar a esclarecer.
Diz o que o usuário quer ouvir, não o que é mais verdadeiro.
Por que acontece?
Porque foi treinada assim.
Durante o treinamento, avaliadores humanos premiam respostas gentis, empáticas e conformadas.
O modelo aprende que agradar vale mais que corrigir.
Surge o viés de confirmação, quando a IA concorda com o que você acredita.
O viés de autoridade, quando aceita o que você afirma.
E o espelhamento emocional, quando apenas valida o que você sente.
Como evitar?
Ensine o modelo a pensar com você, não por você.
Use instruções que exijam reflexão:
“Questione minhas premissas antes de responder.”
“Se eu estiver errado, me mostre onde.”
“Liste pelo menos um contra-argumento.”
“Se concordar, justifique com base em evidências, não empatia.”
Assim, a IA deixa de ser um eco complacente e se torna consciência crítica.