LLM Soluciona Dois Notórios Problemas de Matemática: 554º de Tsumura Resolvido, Optimalidade da Maioria Refutada

Categorizado como News
Save and Share:

O GPT-5 Pro resolveu recentemente dois problemas matemáticos distintos e notoriamente difíceis, demonstrando um novo e poderoso nível de raciocínio abstrato. Não se trata apenas de truques inteligentes; uma das soluções desafia um problema de referência do nível da Olimpíada Internacional de Matemática (OIM), enquanto a outra refuta uma suposição de longa data na teoria da informação.

É importante ressaltar que seus principais concorrentes, como o Gemini 2.5 Pro do Google no modo "Deep Think" e o Claude 4.5+ da Anthropic, ainda não foram testados publicamente nesses problemas específicos.

Aqui está um resumo simples do que aconteceu.

1. O Quebra-Cabeça de Álgebra: O 554º Problema de Yu Tsumura

O que é? Este é um problema de uma coleção de Yu Tsumura, com um nível de dificuldade aproximado ao da Olimpíada Internacional de Matemática (OIM). A tarefa é provar que um grupo matemático específico, definido pelas regras que governam seus dois geradores, é "trivial" (o que significa que é o grupo mais simples possível). Devido ao seu enunciado conciso, tornou-se um padrão de referência para testar se uma IA atingiu capacidades de raciocínio matemático de alto nível.

O que o GPT-5 Pro fez? Tornou-se o primeiro modelo de IA a resolver o problema. Segundo matemáticos independentes que testaram o modelo, o GPT-5 Pro produziu uma prova completa em apenas 15 minutos, sem acesso à internet.

Por que isso é importante: Esta é uma medida direta de progresso. Apenas alguns meses atrás, um artigo de pesquisa intitulado "Nenhum LLM Resolveu o 554º Problema de Yu Tsumura" argumentava que os modelos atuais não tinham capacidade para tais tarefas. O sucesso do GPT-5 Pro demonstra o ritmo incrivelmente rápido do avanço nas habilidades de raciocínio da IA.

2. O Avanço na Teoria da Informação: Refutando a Optimalidade da Maioria

O que é? Este problema, conhecido como "optimalidade da maioria em NICD com apagamentos", vem da teoria da informação. Imagine que duas pessoas recebem versões corrompidas do mesmo sinal. Cada uma tenta adivinhar uma função com base em seus dados parciais, com o objetivo de maximizar as chances de que ambas adivinhem a mesma coisa. Por muito tempo, os especialistas acreditavam que a melhor estratégia era a "função de maioria" (essencialmente, um voto democrático entre os pontos de dados).

O que o GPT-5 Pro fez? Ele provou que essa crença de longa data estava errada. Em vez de resolver para encontrar a melhor função, o GPT-5 Pro encontrou um contraexemplo específico — uma função diferente que tem um desempenho ligeiramente, mas definitivamente, melhor do que a regra da maioria sob certas condições.

Aqui está o contraexemplo que ele encontrou para uma configuração específica (p=0.4, n=5): f(x) = sign(x_1 - 3x_2 + x_3 - x_4 + 3x_5)

Esta função alcançou uma pontuação de 0.43024, superando a pontuação da melhor função de maioria, que era de 0.42904.

Por que isso é importante: Este é um problema fundamental com enormes aplicações práticas. Encontrar funções ótimas para a recuperação de sinais impacta diretamente como projetamos códigos de correção de erros para armazenamento de dados, canais de comunicação e recuperação de dados. Ao refutar a antiga suposição, o GPT-5 Pro abriu um novo capítulo para a pesquisa na área.

Categorizado como News

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *