Model GPT-5.2 Thinking Osiąga 96,9% w Japońskim Egzaminie Wstępnym na Studia 2026
Edytowane przez: Veronika Radoslavskaya
Eksperymentalne testy przeprowadzone wspólnie przez japoński startup LifePrompt oraz gazetę Nikkei ujawniły znaczące postępy w zastosowaniu sztucznej inteligencji w kontekście akademickim. Wyniki, ogłoszone we wtorek 20 stycznia 2026 roku, dotyczyły oceny najnowszych modeli AI w rozwiązywaniu zadań z 15 kluczowych przedmiotów Japońskiego Egzaminu Wstępnego na Studia (Common Test for University Admissions), które odbyły się 17 i 18 stycznia 2026 roku.
Model GPT-5.2 Thinking opracowany przez OpenAI uzyskał ogólny wynik 96,9 na 100 możliwych punktów, osiągając maksymalne noty w dziewięciu z piętnastu testowanych dyscyplin. Ten rezultat stanowi znaczący wzrost wydajności w porównaniu do poprzednich lat, ilustrując dynamiczny rozwój technologii uczenia maszynowego. Dla porównania, konkurencyjny model Gemini 3.0 Pro od Google zaprezentował sprawność na poziomie 91,4 punktu procentowego w tym samym teście. Średni wynik ludzkich kandydatów dla tych 15 przedmiotów w roku 2026 szacowany jest na 58,1 punktu, co uwydatnia dysproporcję między możliwościami najnowszej generacji AI a przeciętnym wynikiem kandydata.
Analiza wyników wykazała wyraźną przewagę systemów AI w dziedzinach ilościowych, takich jak matematyka, fizyka, chemia i biologia, gdzie ich zdolności logicznego rozumowania i przetwarzania ustrukturyzowanych danych były niemal bezbłędne. Warto odnotować, że średnia dla modeli OpenAI wynosiła 66 w 2024 roku i wzrosła do 91 w 2025 roku, co wskazuje na wykładniczy wzrost kompetencji. Ograniczenie dostępu do wyszukiwarek internetowych podczas testu wymusiło na modelach poleganie wyłącznie na danych wewnętrznie zgromadzonych, co uwypukla ich zdolności do wewnętrznego rozumowania.
Pomimo dominacji w naukach ścisłych, test ujawnił specyficzne ograniczenia w obecnych możliwościach AI, szczególnie w obszarach wymagających interpretacji złożonych informacji graficznych i rozumowania humanistycznego. Modele popełniały błędy w zadaniach związanych z geografią i językiem japońskim, w tym w interpretacji map świata, co sugeruje trudności w rozpoznawaniu nieregularnych i niejednoznacznych danych wizualnych. Satoshi Endo, szef LifePrompt, potwierdził, że choć zdolności przetwarzania i czytania AI uległy poprawie, co zaowocowało pełnymi punktami z matematyki, to w teście z języka japońskiego model wciąż ma problemy z adekwatnym organizowaniem informacji zapisanych w tym języku.
Egzamin Common Test for University Admissions, kluczowy element procesu rekrutacyjnego dla 813 instytucji szkolnictwa wyższego w Japonii, w tym roku objął około 496 237 osób, z aplikacjami przyjmowanymi w zasadzie wyłącznie online. Osiągnięcie przez GPT-5.2 Thinking wyniku 96,9 procent na tym teście o wysokiej stawce akademickiej rodzi fundamentalne pytania o przyszłość edukacji i metod oceny wiedzy. Eksperyment ten kontynuuje długoterminowe badania nad integracją AI z pracą intelektualną, nawiązując do wcześniejszych projektów, takich jak To-Robo-kun, który już w 2015 roku osiągnął wynik powyżej średniej w dążeniu do wejścia na Uniwersytet Tokijski.
3 Wyświetlenia
Źródła
AGERPRES
China.org.cn
Xinhua
Nippon.com
OfficeChai
EvoLink.AI
Przeczytaj więcej wiadomości na ten temat:
Czy znalazłeś błąd lub niedokładność?Rozważymy Twoje uwagi tak szybko, jak to możliwe.
