Performance du GPT-5.2 d'OpenAI au test d'entrée universitaire japonais de 2026
Édité par : Veronika Radoslavskaya
Les capacités de l'intelligence artificielle dans le domaine académique ont atteint un nouveau seuil, selon les résultats d'une expérimentation menée conjointement par le quotidien Nikkei et la startup japonaise LifePrompt. Les données, publiées le mardi 20 janvier 2026, concernent la performance des modèles d'IA sur les questions du Test Commun d'Admission Universitaire (Common Test for University Admissions) de janvier 2026, qui s'est tenu les 17 et 18 janvier au Japon.
Le modèle GPT-5.2 Thinking d'OpenAI a obtenu un score global de 96,9 sur 100, réalisant la note maximale dans neuf des quinze matières évaluées. Ce résultat se compare à la moyenne estimée pour les candidats humains lors de cette session de 2026, qui s'élevait à 58,1 pour les quinze matières populaires. Cette évaluation comparative illustre une progression rapide des systèmes d'IA au Japon, pays traditionnellement axé sur la robotique, malgré un retard historique dans la recherche de pointe en IA par rapport aux États-Unis et à la Chine. Le modèle avait atteint un score moyen de 91 en 2025 et de 66 en 2024, témoignant d'une accélération significative des acquis en moins de deux ans.
L'analyse détaillée des résultats a révélé une disparité dans les compétences des systèmes d'IA. Les modèles ont excellé dans les disciplines quantitatives, telles que les mathématiques, la physique et la chimie, où l'application d'un raisonnement logique et le traitement de données structurées sont essentiels. Inversement, des lacunes ont persisté dans les sciences humaines et le raisonnement spatial. Le GPT-5.2 Thinking a notamment commis des erreurs lors de l'interprétation de cartes du monde, indiquant une difficulté à appréhender des informations graphiques complexes ou non structurées.
Le concurrent direct, le modèle Gemini 3.0 Pro de Google, a également participé à l'expérience, enregistrant un score global de 91,4, se classant immédiatement derrière la performance d'OpenAI. La participation de ces acteurs technologiques majeurs à ce banc d'essai académique souligne l'importance croissante de l'IA dans l'éducation et le travail intellectuel. Cette expérience s'inscrit dans un contexte d'initiatives japonaises, comme la collaboration entre Google LLC et l'Université de Tokyo visant à utiliser l'IA générative pour résoudre des problématiques régionales, avec un déploiement national potentiellement envisagé d'ici 2027.
Le Test Commun, en vigueur depuis janvier 2021, couvre 21 épreuves réparties en sept disciplines, les candidats pouvant en sélectionner jusqu'à neuf. Bien que le score de 96,9 approche la perfection dans le cadre de cet examen à fort enjeu, les développeurs, y compris OpenAI, maintiennent que ces systèmes demeurent sujets à erreur et exigent une vérification pour toute application critique. La performance de l'IA sur ce test japonais, qui privilégie l'application des connaissances et la compréhension en lecture, confirme la transition vers des modèles aptes à une réflexion structurée, même si la gestion des données purement visuelles et contextuelles demeure un axe de développement prioritaire.
3 Vues
Sources
AGERPRES
China.org.cn
Xinhua
Nippon.com
OfficeChai
EvoLink.AI
Lisez plus d’actualités sur ce sujet :
Avez-vous trouvé une erreur ou une inexactitude ?Nous étudierons vos commentaires dans les plus brefs délais.
