LLM Pecahkan Dua Masalah Matematika Rumit: Masalah ke-554 Tsumura Terpecahkan, Optimalitas Mayoritas Terbantahkan

Dikategorikan dalam Uncategorized @id
Save and Share:

GPT-5 Pro baru-baru ini berhasil memecahkan dua masalah matematika yang berbeda dan sangat sulit, menunjukkan tingkat penalaran abstrak baru yang luar biasa. Ini bukan sekadar trik cerdas; salah satu solusinya menantang tolok ukur setingkat IMO, sementara yang lainnya membantah asumsi lama dalam teori informasi.

Perlu dicatat bahwa kompetitor utamanya, seperti Gemini 2.5 Pro dalam mode "Deep Think" dari Google dan Claude 4.5+ dari Anthropic, belum diuji secara publik pada masalah-masalah spesifik ini.

Berikut adalah rincian sederhana tentang apa yang terjadi.

1. Teka-teki Aljabar: Masalah ke-554 Yu Tsumura

Apa itu? Ini adalah masalah dari koleksi soal Yu Tsumura, dengan tingkat kesulitan yang kira-kira setara dengan Olimpiade Matematika Internasional (IMO). Tugasnya adalah membuktikan bahwa suatu grup matematika tertentu, yang didefinisikan oleh aturan yang mengatur dua generatornya, bersifat "trivial" (artinya grup tersebut merupakan grup yang paling sederhana). Karena perumusannya yang ringkas, masalah ini telah menjadi tolok ukur untuk menguji apakah sebuah AI telah mencapai kemampuan penalaran matematika tingkat tinggi.

Apa yang dilakukan GPT-5 Pro? Model ini menjadi model AI pertama yang berhasil memecahkan masalah tersebut. Menurut para matematikawan independen yang menguji model ini, GPT-5 Pro menghasilkan bukti lengkap hanya dalam 15 menit, tanpa akses internet sama sekali.

Mengapa ini penting: Ini adalah ukuran kemajuan yang sangat jelas. Hanya beberapa bulan yang lalu, sebuah makalah penelitian berjudul "Tidak Ada LLM yang Memecahkan Masalah ke-554 Yu Tsumura" berpendapat bahwa model-model saat ini tidak memiliki kemampuan untuk tugas semacam itu. Keberhasilan GPT-5 Pro menunjukkan pesatnya laju kemajuan dalam kemampuan penalaran AI.

2. Terobosan Teori Informasi: Membantah Optimalitas Mayoritas

Apa itu? Masalah ini, yang dikenal sebagai "optimalitas mayoritas NICD-dengan-penghapusan" (NICD-with-erasures majority optimality), berasal dari teori informasi. Bayangkan dua orang menerima versi sinyal yang sama tetapi rusak. Masing-masing mencoba menebak sebuah fungsi berdasarkan data parsial mereka, dengan tujuan memaksimalkan peluang agar tebakan mereka sama. Untuk waktu yang lama, para ahli meyakini bahwa strategi terbaik adalah "fungsi mayoritas" (pada dasarnya, pemungutan suara demokratis di antara titik-titik data).

Apa yang dilakukan GPT-5 Pro? Model ini membuktikan bahwa keyakinan lama tersebut salah. Alih-alih mencari fungsi terbaik, GPT-5 Pro menemukan sebuah contoh penyangkal (counterexample) spesifik—sebuah fungsi berbeda yang berkinerja sedikit lebih baik, tetapi secara definitif lebih unggul daripada aturan mayoritas dalam kondisi tertentu.

Berikut adalah contoh penyangkal yang ditemukannya untuk pengaturan spesifik (p=0.4, n=5): f(x) = sign(x_1 - 3x_2 + x_3 - x_4 + 3x_5)

Fungsi ini mencapai skor 0.43024, mengalahkan skor fungsi mayoritas terbaik yaitu 0.42904.

Mengapa ini penting: Ini adalah masalah mendasar dengan aplikasi praktis yang sangat besar. Menemukan fungsi optimal untuk pemulihan sinyal secara langsung memengaruhi cara kita merancang kode koreksi kesalahan (error-correcting codes) untuk penyimpanan data, saluran komunikasi, dan pemulihan data. Dengan membantah asumsi lama, GPT-5 Pro telah membuka babak baru bagi penelitian di bidang ini.

Tinggalkan komentar

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *