Språkmodell løser to notorisk vanskelige matteproblemer: Tsumuras 554. er løst, majoritetsoptimalitet motbevist

Kategorisert som Uncategorized @no
Save and Share:

GPT-5 Pro har nylig løst to separate og notorisk vanskelige matematiske problemer, og demonstrerer med det et kraftig nytt nivå av abstrakt resonnering. Dette er ikke bare smarte triks; den ene løsningen utfordrer en målestokk på IMO-nivå, mens den andre motbeviser en langvarig antakelse innen informasjonsteori.

Det er verdt å merke seg at de fremste konkurrentene, som Googles Gemini 2.5 Pro i «Deep Think»-modus og Anthropics Claude 4.5+, ennå ikke har blitt offentlig testet på disse spesifikke problemene.

Her er en enkel gjennomgang av hva som skjedde.

1. Algebra-gåten: Yu Tsumuras 554. problem

Hva er det? Dette er et problem fra en samling av Yu Tsumura, med en vanskelighetsgrad som omtrent tilsvarer Den internasjonale matematikkolympiaden (IMO). Oppgaven er å bevise at en spesifikk matematisk gruppe, definert av reglene som styrer dens to generatorer, er «triviell» (som betyr at det er den enklest mulige gruppen). På grunn av den konsise formuleringen har det blitt en målestokk for å teste om en KI har oppnådd matematiske resonneringsevner på høyt nivå.

Hva gjorde GPT-5 Pro? Den ble den første KI-modellen som løste problemet. Ifølge uavhengige matematikere som testet modellen, produserte GPT-5 Pro et fullstendig bevis på bare 15 minutter, uten tilgang til internett.

Hvorfor er det viktig? Dette er et direkte mål på fremgang. For bare et par måneder siden konkluderte en forskningsartikkel med tittelen «No LLM Solved Yu Tsumura’s 554th Problem» med at dagens modeller manglet evnen til å utføre slike oppgaver. GPT-5 Pros suksess viser den utrolig raske utviklingen innen KIs resonneringsevner.

2. Gjennombruddet innen informasjonsteori: Motbeviser majoritetsoptimalitet

Hva er det? Dette problemet, kjent som «NICD-with-erasures majority optimality», kommer fra informasjonsteori. Se for deg at to personer mottar korrupte versjoner av det samme signalet. Hver av dem prøver å gjette en funksjon basert på sine delvise data, med mål om å maksimere sjansen for at begge gjetter det samme. Lenge trodde eksperter at den beste strategien var «majoritetsfunksjonen» (i bunn og grunn en demokratisk avstemning blant datapunktene).

Hva gjorde GPT-5 Pro? Den motbeviste denne langvarige antakelsen. I stedet for å løse for den beste funksjonen, fant GPT-5 Pro et spesifikt moteksempel – en annen funksjon som presterer litt, men definitivt bedre enn majoritetsregelen under visse forhold.

Her er moteksempelet den fant for et spesifikt oppsett (p=0,4, n=5): f(x) = sign(x_1 - 3x_2 + x_3 - x_4 + 3x_5)

Denne funksjonen oppnådde en poengsum på 0,43024, og slo dermed den beste majoritetsfunksjonens poengsum på 0,42904.

Hvorfor er det viktig? Dette er et fundamentalt problem med store praktiske anvendelser. Å finne optimale funksjoner for signalgjenoppretting påvirker direkte hvordan vi designer feilrettingskoder for datalagring, kommunikasjonskanaler og datagjenoppretting. Ved å motbevise den gamle antakelsen har GPT-5 Pro åpnet et nytt kapittel for forskning på feltet.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *