حل دو مسئله بدنام ریاضی توسط مدل زبان بزرگ: مسئله ۵۵۴ تسومورا حل و بهینگی اکثریت رد شد

دسته‌بندی شده در News
Save and Share:

GPT-5 Pro اخیراً دو مسئله ریاضی متمایز و بسیار دشوار را حل کرده است که سطح جدید و قدرتمندی از استدلال انتزاعی را به نمایش می‌گذارد. این‌ها صرفاً ترفندهای هوشمندانه نیستند؛ یکی از راه‌حل‌ها یک معیار در سطح المپیاد جهانی ریاضی (IMO) را به چالش می‌کشد، در حالی که دیگری یک فرض دیرینه در نظریه اطلاعات را رد می‌کند.

شایان ذکر است که رقبای اصلی آن، مانند Gemini 2.5 Pro گوگل در حالت «تفکر عمیق» (Deep Think) و Claude 4.5+ از Anthropic، هنوز به صورت عمومی روی این مسائل خاص آزمایش نشده‌اند.

در ادامه، شرح ساده‌ای از آنچه اتفاق افتاده ارائه می‌شود.

۱. معمای جبر: مسئله ۵۵۴ یو تسومورا

این مسئله چیست؟ این مسئله‌ای از مجموعه مسائل یو تسومورا است که از نظر سختی تقریباً در سطح المپیاد جهانی ریاضی (IMO) قرار دارد. هدف، اثبات این است که یک گروه ریاضی خاص که توسط قوانین حاکم بر دو مولد آن تعریف شده، «بدیهی» (trivial) است (یعنی ساده‌ترین گروه ممکن است). این مسئله به دلیل بیان مختصرش، به معیاری برای سنجش این موضوع تبدیل شده که آیا یک هوش مصنوعی به توانایی‌های استدلال ریاضی سطح بالا دست یافته است یا خیر.

GPT-5 Pro چه کرد؟ این مدل به اولین مدل هوش مصنوعی تبدیل شد که این مسئله را حل می‌کند. به گفته ریاضیدانان مستقلی که این مدل را آزمایش کردند، GPT-5 Pro یک اثبات کامل را تنها در ۱۵ دقیقه و بدون دسترسی به اینترنت ارائه داد.

چرا این موضوع اهمیت دارد؟ این یک معیار مستقیم برای سنجش پیشرفت است. تنها چند ماه پیش، یک مقاله پژوهشی با عنوان «هیچ مدل زبان بزرگی مسئله ۵۵۴ یو تسومورا را حل نکرده است» استدلال می‌کرد که مدل‌های فعلی فاقد توانایی لازم برای چنین وظایفی هستند. موفقیت GPT-5 Pro سرعت فوق‌العاده سریع پیشرفت در مهارت‌های استدلال هوش مصنوعی را نشان می‌دهد.

۲. دستاورد بزرگ در نظریه اطلاعات: رد بهینگی اکثریت

این مسئله چیست؟ این مسئله که با عنوان «بهینگی اکثریت NICD-با-حذف» (NICD-with-erasures majority optimality) شناخته می‌شود، از حوزه نظریه اطلاعات می‌آید. تصور کنید دو نفر نسخه‌های مخدوش شده‌ای از یک سیگنال یکسان را دریافت می‌کنند. هر یک از آن‌ها تلاش می‌کند تا بر اساس داده‌های ناقص خود تابعی را حدس بزند، با این هدف که شانس حدس زدن یک چیز یکسان توسط هر دو نفر به حداکثر برسد. برای مدت طولانی، کارشناسان معتقد بودند که بهترین استراتژی «تابع اکثریت» است (که اساساً به منزله یک رأی‌گیری دموکراتیک میان نقاط داده است).

GPT-5 Pro چه کرد؟ این مدل ثابت کرد که این باور دیرینه اشتباه است. GPT-5 Pro به جای حل مسئله برای یافتن بهترین تابع، یک مثال نقض مشخص پیدا کرد—یک تابع متفاوت که تحت شرایط خاصی، عملکردی اندک اما قطعی بهتر از قاعده اکثریت دارد.

در اینجا مثال نقضی که برای یک تنظیمات خاص (p=0.4, n=5) پیدا کرد، آمده است: f(x) = sign(x_1 - 3x_2 + x_3 - x_4 + 3x_5)

این تابع به امتیاز ۰.۴۳۰۲۴ دست یافت و امتیاز بهترین تابع اکثریت یعنی ۰.۴۲۹۰۴ را شکست داد.

چرا این موضوع اهمیت دارد؟ این یک مسئله بنیادی با کاربردهای عملی گسترده است. یافتن توابع بهینه برای بازیابی سیگنال، مستقیماً بر نحوه طراحی کدهای تصحیح خطا برای ذخیره‌سازی داده، کانال‌های ارتباطی و بازیابی اطلاعات تأثیر می‌گذارد. GPT-5 Pro با رد کردن فرض قدیمی، فصل جدیدی را برای تحقیقات در این زمینه گشوده است.

دسته‌بندی شده در News

دیدگاهی بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *