LLM rozwiązuje dwa słynne problemy matematyczne: Pokonuje zadanie nr 554 Tsumury i obala optymalność głosowania większościowego

Umieszczono w kategoriach: News
Save and Share:

GPT-5 Pro rozwiązał niedawno dwa odrębne i niezwykle trudne problemy matematyczne, demonstrując potężny, nowy poziom abstrakcyjnego rozumowania. To nie są tylko sprytne sztuczki; jedno z rozwiązań dotyczy problemu na poziomie Międzynarodowej Olimpiady Matematycznej (IMO), a drugie obala długoletnie założenie w teorii informacji.

Warto zauważyć, że jego najwięksi konkurenci, tacy jak Gemini 2.5 Pro od Google w trybie „Deep Think” oraz Claude 4.5+ od Anthropic, nie zostali jeszcze publicznie przetestowani na tych konkretnych problemach.

Oto proste wyjaśnienie, co się stało.

1. Zagadka algebraiczna: Problem nr 554 Yu Tsumury

Na czym polega? To problem ze zbioru zadań autorstwa Yu Tsumury, o poziomie trudności zbliżonym do Międzynarodowej Olimpiady Matematycznej (IMO). Zadanie polega na udowodnieniu, że pewna grupa matematyczna, zdefiniowana przez zasady rządzące jej dwoma generatorami, jest „trywialna” (co oznacza, że jest to najprostsza możliwa grupa). Ze względu na swoją zwięzłą formę, stał się on punktem odniesienia do testowania, czy sztuczna inteligencja osiągnęła zaawansowane zdolności rozumowania matematycznego.

Co zrobił GPT-5 Pro? Stał się pierwszym modelem AI, który rozwiązał ten problem. Według niezależnych matematyków, którzy testowali model, GPT-5 Pro wygenerował kompletny dowód w zaledwie 15 minut, bez dostępu do internetu.

Dlaczego to jest ważne: To bezpośrednia miara postępu. Zaledwie kilka miesięcy temu artykuł naukowy zatytułowany „No LLM Solved Yu Tsumura’s 554th Problem” dowodził, że obecne modele nie mają zdolności do wykonywania takich zadań. Sukces GPT-5 Pro pokazuje niewiarygodnie szybkie tempo postępu w zdolnościach rozumowania sztucznej inteligencji.

2. Przełom w teorii informacji: Obalenie optymalności głosowania większościowego

Na czym polega? Ten problem, znany jako „optymalność większościowa NICD z wymazywaniem” (NICD-with-erasures majority optimality), pochodzi z teorii informacji. Wyobraźmy sobie, że dwie osoby otrzymują uszkodzone wersje tego samego sygnału. Każda z nich próbuje odgadnąć funkcję na podstawie swoich częściowych danych, w celu zmaksymalizowania szansy, że obie odgadną to samo. Przez długi czas eksperci uważali, że najlepszą strategią jest „funkcja większościowa” (w zasadzie demokratyczne głosowanie wśród punktów danych).

Co zrobił GPT-5 Pro? Udowodnił, że to długoletnie przekonanie było błędne. Zamiast szukać najlepszej funkcji, GPT-5 Pro znalazł konkretny kontrprzykład — inną funkcję, która w określonych warunkach działa nieznacznie, ale ostatecznie lepiej niż zasada większości.

Oto kontrprzykład, który znalazł dla konkretnej konfiguracji (p=0.4, n=5): f(x) = sign(x_1 - 3x_2 + x_3 - x_4 + 3x_5)

Ta funkcja osiągnęła wynik 0,43024, pokonując wynik najlepszej funkcji większościowej wynoszący 0,42904.

Dlaczego to jest ważne: To fundamentalny problem o ogromnych zastosowaniach praktycznych. Znajdowanie optymalnych funkcji do odzyskiwania sygnału bezpośrednio wpływa na to, jak projektujemy kody korekcji błędów dla przechowywania danych, kanałów komunikacyjnych i odzyskiwania danych. Obalając stare założenie, GPT-5 Pro otworzył nowy rozdział badań w tej dziedzinie.

Umieszczono w kategoriach: News

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *