GPT 5.2 foi lançado outro dia. Dizem que é mais robusto que o 5.1. Que se aproximou do Gemini. Mas, honestamente, não consegui ver essa melhoria. No melhor estilo “o problema não é você, sou eu”, sinto que o problema não está na evolução do GPT, mas na minha incapacidade, ou falta de necessidade, de algo melhor.
Se antes o GPT respondia questões em nível de PhD, o que já é mais do que eu preciso na maioria das vezes, o que de fato muda na minha vida se agora o modelo responde como um PhD ainda melhor? O problema não está em quem responde, está em mim, em quem pergunta. Ou, pior ainda, nos cenários em que estou usando o modelo.
De fato, o desafio da IA, assim como o de qualquer nova tecnologia, é demonstrar produtividade. Transformar ganhos potenciais em ganhos reais. Materializar dinheiro. E, dessa forma, esvaziar bolhas.
O desafio, ao meu ver, não está em ter modelos ainda mais poderosos. Já ultrapassamos o que Christensen chamava de “good enough” há tempos. O foco, agora, deveria ser achar formas inteligentes de usar o poder dos modelos que já temos nos nossos fluxos de trabalho, tornando-os um pouco mais fáceis ou mais baratos. Mas isso precisa acontecer de forma natural. Preferencialmente, de forma rápida.
O gargalo, então, se move. Não é mais inteligência. É encarnação. Interface. Integração. Contexto. Distribuição. A IA não falha porque não sabe. Falha porque não está onde deveria estar quando a decisão acontece.
Talvez a confusão esteja em achar que o valor está em respostas mais profundas. Não está. Está em respostas disponíveis. Em ciclos curtos. Em integrações entediantes que funcionam todos os dias.