Två beryktade matematiska problem knäckta av LLM: Tsumuras 554:e löst, majoritetsoptimalitet motbevisad

Kategoriserat som Okategoriserad
Save and Share:

GPT-5 Pro har nyligen löst två separata och notoriskt svåra matematiska problem och därmed uppvisat en kraftfull ny nivå av abstrakt resonemang. Det här är inte bara smarta knep; den ena lösningen klarar av ett benchmark på IMO-nivå, medan den andra motbevisar ett långvarigt antagande inom informationsteorin.

Det är värt att notera att dess främsta konkurrenter, såsom Googles Gemini 2.5 Pro i ”Deep Think”-läge och Anthropics Claude 4.5+, ännu inte har testats offentligt på just dessa problem.

Här är en enkel genomgång av vad som hände.

1. Algebra-gåtan: Yu Tsumuras 554:e problem

Vad är det? Detta är ett problem från en samling av Yu Tsumura, med en svårighetsgrad som ungefär motsvarar den Internationella matematikolympiaden (IMO). Uppgiften är att bevisa att en specifik matematisk grupp, definierad av de regler som styr dess två generatorer, är ”trivial” (vilket innebär att det är den enklast möjliga gruppen). På grund av sin koncisa formulering har det blivit ett benchmark för att testa om en AI har uppnått matematisk resonemangsförmåga på hög nivå.

Vad gjorde GPT-5 Pro? Den blev den första AI-modellen att lösa problemet. Enligt oberoende matematiker som testade modellen producerade GPT-5 Pro ett fullständigt bevis på bara 15 minuter, utan någon internetåtkomst.

Varför är det viktigt? Detta är ett direkt mått på framsteg. För bara ett par månader sedan hävdade en forskningsartikel med titeln ”No LLM Solved Yu Tsumura’s 554th Problem” att nuvarande modeller saknade förmågan för sådana uppgifter. GPT-5 Pros framgång visar den otroligt snabba utvecklingstakten för AI:s resonemangsförmåga.

2. Genombrottet inom informationsteori: Motbevisandet av majoritetsoptimalitet

Vad är det? Detta problem, känt som ”NICD-with-erasures majority optimality”, kommer från informationsteorin. Föreställ dig att två personer tar emot korrupta versioner av samma signal. De försöker var och en gissa en funktion baserat på sina partiella data, med målet att maximera chansen att de båda gissar samma sak. Under lång tid trodde experter att den bästa strategin var ”majoritetsfunktionen” (i grunden en demokratisk omröstning bland datapunkterna).

Vad gjorde GPT-5 Pro? Den motbevisade denna långvariga övertygelse. Istället för att lösa för den bästa funktionen hittade GPT-5 Pro ett specifikt motexempel – en annan funktion som presterar aningen men definitivt bättre än majoritetsregeln under vissa förhållanden.

Här är motexemplet den hittade för en specifik uppsättning (p=0.4, n=5): f(x) = sign(x_1 - 3x_2 + x_3 - x_4 + 3x_5)

Denna funktion uppnådde en poäng på 0,43024, och slog därmed den bästa majoritetsfunktionens poäng på 0,42904.

Varför är det viktigt? Detta är ett fundamentalt problem med enorma praktiska tillämpningar. Att hitta optimala funktioner för signalåterställning påverkar direkt hur vi designar felrättande koder för datalagring, kommunikationskanaler och dataåterställning. Genom att motbevisa det gamla antagandet har GPT-5 Pro öppnat ett nytt kapitel för forskningen inom fältet.

Lämna en kommentar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *