Modelo GPT-5.2 da OpenAI Obtém Pontuação Elevada em Exame Universitário Japonês

Editado por: Veronika Radoslavskaya

A vanguarda da inteligência artificial demonstrou um avanço notável em avaliações acadêmicas rigorosas, conforme revelado em um teste conjunto realizado pelo jornal Nikkei e pela startup japonesa LifePrompt. Os resultados, divulgados em 20 de janeiro de 2026, indicaram que o modelo GPT-5.2 Thinking da OpenAI obteve uma pontuação geral de 96,9 em 100 no Teste Comum para Admissão Universitária do Japão de 2026, realizado entre 17 e 18 de janeiro. Este desempenho, que incluiu notas perfeitas em nove das 15 disciplinas avaliadas, sinaliza uma aceleração na capacidade dos modelos de linguagem de grande escala em contextos padronizados e de alta pressão.

O experimento envolveu a submissão dos modelos de IA mais recentes de grandes empresas de tecnologia, incluindo OpenAI e Google, às questões de 15 disciplinas centrais do vestibular japonês. O modelo Gemini 3.0 Pro do Google registrou uma performance sólida, com 91,4 de pontuação geral, ficando abaixo do líder da OpenAI. A pontuação média estimada para os candidatos humanos nas 15 matérias mais populares em 2026 foi de 58,1, evidenciando uma disparidade significativa entre a capacidade algorítmica e o desempenho médio humano.

Uma análise detalhada dos resultados apontou para uma excelência consistente em áreas quantitativas, como matemática, física e química, onde os modelos atingiram o ápice. Contudo, surgiram limitações claras em domínios que exigem raciocínio espacial complexo e nuances humanísticas, especificamente com erros identificados na interpretação de mapas mundiais. Essa discrepância sugere que, embora o processamento de dados estruturados e o raciocínio lógico sejam pontos fortes, a IA ainda enfrenta obstáculos no reconhecimento de informações gráficas intrinsecamente complexas ou ambíguas.

A trajetória de progresso da OpenAI é notável, com o modelo alcançando 66 de média em 2024 e 91 em 2025, culminando nos 96,9 de 2026, um salto que sublinha o ritmo do desenvolvimento da IA. Satoshi Endo, chefe da LifePrompt, atribuiu o sucesso em matemática à melhoria nas capacidades de processamento e leitura da IA, mas ressaltou que a organização de informações escritas em japonês ainda representa um desafio. O teste em questão faz parte de uma estrutura de exame mais ampla que compreende 21 disciplinas distribuídas em sete áreas de conhecimento.

As implicações para o setor educacional são profundas, pois a performance da IA força uma reavaliação do que constitui o conhecimento essencial. A estrutura do Exame Comum, que utiliza resultados de 15 disciplinas para triagem em 813 instituições, incluindo 81 universidades nacionais, torna este teste um barômetro crucial para a aplicação prática de sistemas de IA em tarefas intelectuais. O histórico de avaliações de IA no Japão, como o Projeto To-Robo-kun do Instituto Nacional de Informática (NII), visa entender as capacidades intelectuais que as máquinas podem substituir no mercado de trabalho, indicando que a próxima fronteira de desenvolvimento da IA reside na integração multimodal e na compreensão contextual mais profunda.

3 Visualizações

Fontes

  • AGERPRES

  • China.org.cn

  • Xinhua

  • Nippon.com

  • OfficeChai

  • EvoLink.AI

Encontrou um erro ou imprecisão?Vamos considerar seus comentários assim que possível.