Modello GPT-5.2 di OpenAI Ottiene Punteggio Elevato nel Test di Ammissione Universitario Giapponese 2026
Modificato da: Veronika Radoslavskaya
Il panorama dell'intelligenza artificiale ha registrato un avanzamento significativo con la recente valutazione dei modelli linguistici sui rigorosi esami di ammissione universitari giapponesi del 2026. I risultati di questa prova sperimentale, condotta congiuntamente dal quotidiano Nikkei e dalla startup giapponese LifePrompt, sono stati resi noti martedì 20 gennaio 2026, in seguito alle prove effettive tenutesi il 17 e 18 gennaio 2026 in tutto il Giappone. L'esperimento ha messo alla prova le capacità di sistemi avanzati, inclusi quelli di OpenAI e Google, sui quesiti tratti da 15 materie fondamentali del Test Comune per l'Ammissione Universitaria.
Il modello di punta di OpenAI, denominato GPT-5.2 Thinking, ha stabilito un nuovo parametro di riferimento, conseguendo un punteggio complessivo del 96,9 su 100 e ottenendo il massimo dei voti in nove delle quindici discipline analizzate. A titolo di confronto, il Gemini 3.0 Pro di Google ha registrato un risultato complessivo del 91,4. Questi punteggi artificiali si confrontano con la media stimata per i candidati umani nelle 15 materie più richieste per l'anno, fissata a 58,1. Questa progressione è evidente se si considera che i modelli OpenAI avevano ottenuto un punteggio medio di 66 nel 2024, salito a 91 nel 2025, segnalando un'accelerazione delle performance.
L'analisi dettagliata dei risultati ha rivelato una marcata differenza nelle competenze dimostrate dai sistemi di IA. I modelli hanno eccelso in modo quasi impeccabile nelle materie quantitative, come matematica, fisica, chimica e biologia, campi che richiedono un solido ragionamento logico e la gestione di calcoli a più passaggi. Tuttavia, è emersa una vulnerabilità nelle discipline umanistiche e, in particolare, nel ragionamento spaziale, dove si sono riscontrati errori nell'interpretazione di elementi grafici complessi come le mappe mondiali. Questa difficoltà nel riconoscere informazioni grafiche irregolari e contestualizzate visivamente rappresenta un aspetto critico nell'evoluzione dell'IA.
Satoshi Endo, a capo di LifePrompt, ha suggerito che, nonostante i progressi nelle capacità di elaborazione e lettura, l'IA fatica ancora ad organizzare in modo adeguato le informazioni complesse scritte o rappresentate visivamente, come evidenziato dalle difficoltà nella lingua giapponese. L'esperimento si inserisce nel contesto storico di misurazione delle capacità intellettuali dell'IA, richiamando progetti precedenti come il To-Robo-kun del National Institute of Informatics del 2015. La possibilità per questi modelli di rispondere utilizzando esclusivamente i dati interni, senza accesso a motori di ricerca esterni durante la prova, sottolinea la loro competenza intrinseca.
Il test ha coinvolto 15 materie principali, sebbene la struttura completa dell'esame universitario giapponese comprenda un totale di 21 soggetti distribuiti in sette discipline. L'implicazione di questi risultati per il settore educativo e il futuro del lavoro intellettuale è rilevante, poiché modelli capaci di superare di gran lunga la media umana in aree cruciali sollevano interrogativi sull'integrazione dell'IA nei processi di valutazione e apprendimento.
3 Visualizzazioni
Fonti
AGERPRES
China.org.cn
Xinhua
Nippon.com
OfficeChai
EvoLink.AI
Leggi altre notizie su questo argomento:
Hai trovato un errore o un'inaccuratezza?Esamineremo il tuo commento il prima possibile.
