LLM løser to berygtede matematiske problemer: Tsumuras 554. opgave er klaret, og majoritets-optimalitet er modbevist

Kategoriseret som Uncategorized @da
Save and Share:

GPT-5 Pro har for nylig løst to forskellige og notorisk svære matematiske problemer og har dermed demonstreret et nyt og kraftfuldt niveau af abstrakt ræsonnement. Det er ikke bare smarte tricks; den ene løsning udfordrer et benchmark på IMO-niveau, mens den anden modbeviser en længe gældende antagelse inden for informationsteori.

Det er værd at bemærke, at dens største konkurrenter, såsom Googles Gemini 2.5 Pro i "Deep Think"-tilstand og Anthropics Claude 4.5+, endnu ikke er blevet offentligt testet på disse specifikke problemer.

Her er en simpel gennemgang af, hvad der skete.

1. Algebra-gåden: Yu Tsumuras 554. problem

Hvad er det? Dette er et problem fra en samling af Yu Tsumura, der sværhedsgradmæssigt ligger på niveau med Den Internationale Matematikolympiade (IMO). Opgaven er at bevise, at en specifik matematisk gruppe, defineret af reglerne for dens to generatorer, er "triviel" (hvilket betyder, at det er den simplest mulige gruppe). På grund af sin præcise formulering er det blevet et benchmark til at teste, om en AI har opnået evner til matematisk ræsonnement på højt niveau.

Hvad gjorde GPT-5 Pro? Den blev den første AI-model til at løse problemet. Ifølge uafhængige matematikere, der testede modellen, producerede GPT-5 Pro et komplet bevis på blot 15 minutter uden internetadgang.

Hvorfor er det vigtigt? Dette er en direkte måling af fremskridt. For blot et par måneder siden argumenterede en forskningsartikel med titlen "No LLM Solved Yu Tsumura’s 554th Problem", at de nuværende modeller manglede evnen til sådanne opgaver. GPT-5 Pros succes demonstrerer den utroligt hurtige udvikling inden for AI's ræsonnementsevner.

2. Gennembruddet inden for informationsteori: Modbevisning af majoritets-optimalitet

Hvad er det? Dette problem, kendt som "NICD-with-erasures majority optimality", stammer fra informationsteori. Forestil dig, at to personer modtager forvrængede versioner af det samme signal. De forsøger hver især at gætte en funktion baseret på deres delvise data med det mål at maksimere chancerne for, at de begge gætter det samme. I lang tid troede eksperter, at den bedste strategi var "majoritetsfunktionen" (i bund og grund en demokratisk afstemning blandt datapunkterne).

Hvad gjorde GPT-5 Pro? Den modbeviste denne længe gældende overbevisning. I stedet for at finde den bedste funktion, fandt GPT-5 Pro et specifikt modeksempel – en anden funktion, der klarer sig en smule, men afgørende bedre end majoritetsreglen under visse betingelser.

Her er modeksemplet, den fandt for en specifik opsætning (p=0.4, n=5): f(x) = sign(x_1 - 3x_2 + x_3 - x_4 + 3x_5)

Denne funktion opnåede en score på 0,43024 og slog dermed den bedste majoritetsfunktions score på 0,42904.

Hvorfor er det vigtigt? Dette er et fundamentalt problem med enorme praktiske anvendelser. At finde optimale funktioner til signalgendannelse har direkte indflydelse på, hvordan vi designer fejlkorrigerende koder til datalagring, kommunikationskanaler og datagenskabelse. Ved at modbevise den gamle antagelse har GPT-5 Pro åbnet et nyt kapitel for forskning inden for feltet.

Skriv kommentar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *