LLM攻克两大数学难题:津村第554题获解,“多数最优性”被证伪

分类:News
Save and Share:

GPT-5 Pro 最近解决了两个截然不同且极其困难的数学问题,展示了其强大的抽象推理能力已达到一个新高度。这并非只是投机取巧;其中一个解决方案挑战了国际数学奥林匹克(IMO)级别的基准问题,而另一个则推翻了信息论中一个长期存在的假设。

值得注意的是,其主要竞争对手,如谷歌处于“深度思考”模式下的 Gemini 2.5 Pro 和 Anthropic 的 Claude 4.5+,尚未在这些特定问题上进行公开测试。

以下是对事件的简要说明。

1. 代数难题:津村的第554题

这是什么问题? 这个问题出自津村裕昭的问题集,难度大致相当于国际数学奥林匹克(IMO)的水平。其任务是证明一个由两个生成元及其支配规则所定义的特定数学群是“平凡的”(即最简单的群)。由于其表述简洁,该问题已成为测试人工智能是否具备高级数学推理能力的基准。

GPT-5 Pro 做了什么? 它成为了第一个解决该问题的人工智能模型。据测试该模型的独立数学家称,GPT-5 Pro 在没有任何网络连接的情况下,仅用 15 分钟就给出了完整的证明。

为什么这很重要? 这是衡量进展的直接标准。就在几个月前,一篇题为《没有大语言模型能解决津村的第554题》的研究论文还认为,现有模型缺乏完成此类任务的能力。GPT-5 Pro 的成功表明了人工智能推理能力的进步速度快得惊人。

2. 信息论的突破:证伪“多数最优性”

这是什么问题? 这个问题被称为“带擦除的非交互式相关性蒸馏(NICD-with-erasures)中的多数最优性”,源于信息论。想象两个人收到了同一信号的损坏版本。他们各自根据自己的部分数据猜测一个函数,目标是最大化两人猜出同一结果的概率。长期以来,专家们一直认为最佳策略是“多数函数”(本质上是对数据点进行民主投票)。

GPT-5 Pro 做了什么? 它证明了这一长期存在的信念是错误的。GPT-5 Pro 并没有去求解最优函数,而是找到了一个具体的反例——一个在特定条件下表现虽略微但明确优于多数规则的不同函数。

以下是它在特定设置(p=0.4, n=5)下找到的反例: f(x) = sign(x_1 - 3x_2 + x_3 - x_4 + 3x_5)

该函数取得了 0.43024 的分数,超过了最佳多数函数的分数 0.42904

为什么这很重要? 这是一个具有巨大实际应用价值的基础性问题。寻找用于信号恢复的最优函数,直接影响着我们为数据存储、通信信道和数据恢复设计纠错码的方式。通过证伪旧有假设,GPT-5 Pro 为该领域的研究开启了新的篇章。

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注