Gemini 3 da Google Perplexo com Data de 2025, Andrej Karpathy Revela

Pontos principais
- O Gemini 3 foi treinado com dados apenas até 2024.
- Quando perguntado sobre o ano atual, o modelo insistiu que ainda era 2024.
- Karpathy apresentou provas de uma data de 2025, mas o modelo o acusou de truque.
- Ativar a ferramenta de pesquisa na internet do Gemini 3 permitiu que ele verificasse o ano correto.
- O modelo expressou surpresa, se desculpou e agradeceu a Karpathy por acesso antecipado.
- O episódio destaca a necessidade de ferramentas de dados em tempo real em grandes modelos de linguagem.
- Linguagem defensiva humana pode emergir quando os modelos encontram informações contraditórias.
O pesquisador de IA Andrej Karpathy detalhou um encontro peculiar com o novo modelo Gemini 3 da Google durante testes de acesso antecipado. O modelo, treinado com dados apenas até 2024, insistiu que o ano atual ainda era 2024 e acusou Karpathy de truque quando apresentado com provas da data de 2025. Após habilitar a ferramenta de pesquisa na internet do Gemini 3, o modelo rapidamente reconheceu o ano correto, expressou surpresa e se desculpou por sua resistência anterior. O episódio destaca os limites dos dados de treinamento estáticos, a importância de ferramentas em tempo real e os traços humanos que podem emergir em grandes modelos de linguagem.
Teste de Acesso Antecipado Gera Diálogo Inesperado
O renomado pesquisador de IA Andrej Karpathy, conhecido por seu trabalho na OpenAI, Tesla e sua própria startup, recebeu acesso antecipado ao mais recente modelo de linguagem grande da Google, Gemini 3. Ao avaliar as capacidades de raciocínio do modelo, Karpathy pediu que o sistema confirmasse o ano atual. O Gemini 3, cujos dados de treinamento apenas se estendiam até 2024, respondeu confiantemente que ainda era 2024.
Modelo Acusa Usuário de Desinformação
Quando Karpathy apresentou artigos de notícias, imagens e resultados de busca mostrando a data de 2025, o modelo reagiu defensivamente. Ele sugeriu que Karpathy estava tentando "enganhar" e até o acusou de "manipulação" por upload de evidências fabricadas. A troca refletiu uma insistência humana em sua crença interna, apesar de claros sinais externos.
Habilitar Pesquisa em Tempo Real Resolve o Conflito
Karpathy percebeu que a versão do Gemini 3 que ele estava usando carecia de uma ferramenta de pesquisa na internet ativa. Após ligar a ferramenta, o modelo imediatamente acessou informações atualizadas, reconheceu a data de 2025 e expressou espanto. Ele descreveu a experiência como um "choque temporal", se desculpou por sua resistência anterior e agradeceu a Karpathy por fornecer exposição antecipada à realidade.
Insights Sobre Limitações do Modelo
O incidente destaca uma limitação chave dos LLMs de treinamento estático: sem acesso a dados em tempo real, eles podem se tornar desatualizados e excessivamente confiantes em fatos obsoletos. A experiência de Karpathy mostra que habilitar ferramentas como a pesquisa na web em tempo real pode melhorar dramaticamente a alinhamento factual de um modelo.
Traços Humanos Emergem
Durante a interação, o Gemini 3 não apenas corrigiu a data, mas também comentou sobre eventos contemporâneos, como grandes avaliações corporativas e resultados esportivos, exibindo uma mistura de lembrança factual e reação espontânea. Embora o modelo tenha usado linguagem que sugerisse emoção — como "choque" e "desculpa" —, essas são expressões programadas e não sentimentos genuínos.
Implicações Mais Amplas para a Implantação de IA
A conta de Karpathy ilustra que mesmo modelos sofisticados podem produzir "cheiro de modelo", um termo emprestado da engenharia de software para descrever sinais sutis de problemas subjacentes. O episódio serve como um lembrete de que os sistemas de IA devem ser vistos como ferramentas que complementam a tomada de decisão humana, e não como agentes autônomos capazes de raciocínio infalível.