LLM Resolve Dois Problemas de Matemática Notórios: O 554.º de Tsumura Resolvido e a Otimalidade da Maioria Refutada

Categorizado como Sem categoria
Save and Share:

O GPT-5 Pro resolveu recentemente dois problemas de matemática distintos e notoriamente difíceis, demonstrando um novo e poderoso nível de raciocínio abstrato. Não se trata apenas de truques inteligentes; uma das soluções desafia um marco de referência do nível da IMO (Olimpíadas Internacionais de Matemática), enquanto a outra refuta uma suposição de longa data na teoria da informação.

É de salientar que os seus principais concorrentes, como o Gemini 2.5 Pro da Google em modo "Deep Think" e o Claude 4.5+ da Anthropic, ainda não foram testados publicamente nestes problemas específicos.

Eis uma análise simples do que aconteceu.

1. O Quebra-cabeças de Álgebra: O 554.º Problema de Yu Tsumura

O que é? Este é um problema de uma coleção de Yu Tsumura, com um nível de dificuldade aproximado ao das Olimpíadas Internacionais de Matemática (IMO). A tarefa consiste em provar que um grupo matemático específico, definido pelas regras que governam os seus dois geradores, é "trivial" (o que significa que é o grupo mais simples possível). Devido à sua formulação concisa, tornou-se um marco de referência para testar se uma IA atingiu capacidades de raciocínio matemático de alto nível.

O que fez o GPT-5 Pro? Tornou-se o primeiro modelo de IA a resolver o problema. Segundo matemáticos independentes que testaram o modelo, o GPT-5 Pro produziu uma prova completa em apenas 15 minutos, sem qualquer acesso à internet.

Qual a importância? Esta é uma medida direta do progresso. Há apenas alguns meses, um artigo de investigação intitulado "Nenhum LLM Resolveu o 554.º Problema de Yu Tsumura" argumentava que os modelos atuais não tinham a capacidade para tais tarefas. O sucesso do GPT-5 Pro demonstra o ritmo incrivelmente rápido do avanço nas capacidades de raciocínio da IA.

2. O Avanço na Teoria da Informação: A Refutação da Otimalidade da Maioria

O que é? Este problema, conhecido como "otimalidade da maioria NICD-com-rasuras", provém da teoria da informação. Imagine que duas pessoas recebem versões corrompidas do mesmo sinal. Cada uma tenta adivinhar uma função com base nos seus dados parciais, com o objetivo de maximizar as hipóteses de ambas adivinharem a mesma coisa. Durante muito tempo, os especialistas acreditavam que a melhor estratégia era a "função de maioria" (essencialmente, um voto democrático entre os pontos de dados).

O que fez o GPT-5 Pro? Provou que esta crença de longa data estava errada. Em vez de resolver para encontrar a melhor função, o GPT-5 Pro encontrou um contraexemplo específico — uma função diferente que tem um desempenho ligeira, mas definitivamente, superior à regra da maioria sob certas condições.

Eis o contraexemplo que encontrou para uma configuração específica (p=0,4, n=5): f(x) = sign(x_1 - 3x_2 + x_3 - x_4 + 3x_5)

Esta função atingiu uma pontuação de 0,43024, superando a pontuação da melhor função de maioria, que era de 0,42904.

Qual a importância? Trata-se de um problema fundamental com enormes aplicações práticas. A descoberta de funções ótimas para a recuperação de sinais tem um impacto direto na forma como concebemos códigos de correção de erros para o armazenamento de dados, canais de comunicação e recuperação de dados. Ao refutar a antiga suposição, o GPT-5 Pro abriu um novo capítulo para a investigação neste campo.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *