GPT-5 Pro a récemment résolu deux problèmes mathématiques distincts et notoirement difficiles, démontrant un nouveau niveau de raisonnement abstrait impressionnant. Il ne s'agit pas de simples astuces : l'une des solutions s'attaque à un problème de niveau Olympiades Internationales de Mathématiques (OIM), tandis que l'autre réfute une hypothèse de longue date en théorie de l'information.
Il est à noter que ses principaux concurrents, comme Gemini 2.5 Pro de Google en mode « Deep Think » et Claude 4.5+ d'Anthropic, n'ont pas encore été testés publiquement sur ces problèmes spécifiques.
Voici une explication simple de ce qui s'est passé.
1. L'énigme d'algèbre : le 554e problème de Yu Tsumura
De quoi s'agit-il ? C'est un problème issu d'un recueil de Yu Tsumura, d'un niveau de difficulté comparable à celui des Olympiades Internationales de Mathématiques (OIM). La tâche consiste à prouver qu'un groupe mathématique spécifique, défini par les règles régissant ses deux générateurs, est « trivial » (c'est-à-dire qu'il s'agit du groupe le plus simple possible). En raison de son énoncé concis, il est devenu une référence pour tester si une IA a atteint des capacités de raisonnement mathématique de haut niveau.
Qu'a fait GPT-5 Pro ? C'est le premier modèle d'IA à résoudre ce problème. Selon des mathématiciens indépendants qui ont testé le modèle, GPT-5 Pro a produit une preuve complète en seulement 15 minutes, sans aucun accès à Internet.
Pourquoi est-ce important ? C'est une mesure directe du progrès. Il y a à peine quelques mois, un article de recherche intitulé « Aucun LLM n'a résolu le 554e problème de Yu Tsumura » affirmait que les modèles actuels n'avaient pas les capacités requises pour de telles tâches. Le succès de GPT-5 Pro démontre le rythme incroyablement rapide des avancées dans les capacités de raisonnement de l'IA.
2. La percée en théorie de l'information : la réfutation de l'optimalité de la majorité
De quoi s'agit-il ? Ce problème, connu sous le nom d'« optimalité de la majorité pour le NICD avec effacements », provient de la théorie de l'information. Imaginez que deux personnes reçoivent des versions corrompues du même signal. Chacune essaie de deviner une fonction à partir de ses données partielles, dans le but de maximiser les chances qu'elles devinent toutes les deux la même chose. Pendant longtemps, les experts ont cru que la meilleure stratégie était la « fonction majoritaire » (essentiellement, un vote démocratique entre les points de données).
Qu'a fait GPT-5 Pro ? Il a prouvé que cette croyance de longue date était fausse. Au lieu de chercher la meilleure fonction, GPT-5 Pro a trouvé un contre-exemple spécifique — une fonction différente qui s'avère légèrement mais indéniablement plus performante que la règle de la majorité dans certaines conditions.
Voici le contre-exemple qu'il a trouvé pour une configuration spécifique (p=0.4, n=5) :
f(x) = sign(x_1 - 3x_2 + x_3 - x_4 + 3x_5)
Cette fonction a atteint un score de 0,43024, battant le score de 0,42904 de la meilleure fonction majoritaire.
Pourquoi est-ce important ? Il s'agit d'un problème fondamental avec d'énormes applications pratiques. La recherche de fonctions optimales pour la récupération de signaux a un impact direct sur la façon dont nous concevons les codes correcteurs d'erreurs pour le stockage de données, les canaux de communication et la récupération de données. En réfutant l'ancienne hypothèse, GPT-5 Pro a ouvert un nouveau chapitre pour la recherche dans ce domaine.





