تمكن برنامجان للذكاء الاصطناعي من مختبر "غوغل ديب مايند" من حل عدد من مسائل الأولمبياد الدولي للرياضيات 2024 التي أُقيمت لتلاميذ المدارس من مئة دولة في المملكة المتحدة.
تمكن برنامجا ذكاء اصطناعي من مختبر "غوغل ديب مايند" للأبحاث التابع لشركة غوغل الأمريكية من حلّ عدد من مسائل الأولمبياد الدولي للرياضيات 2024، مع أن الأنظمة المماثلة لم تثبت بعد فعاليتها في ما يتعلق بالتفكير المنطقي.
وتولى نموذجا "ألفا بروف" (AlphaProof) و"ألفا جيومتري 2" (AlphaGeometry 2) حلّ أربع من المسائل الست التي تضمنتها هذه السنة هذه المسابقة الدولية المخصصة لتلاميذ المدارس الثانوية، ووصلا إلى مستوى الفائز بالميدالية الفضية، محققَين سابقة، بحسب غوغل في بيان له الخميس (25 يوليو/ تموز 2024). وفي التفاصيل أن "ألفا بروف" حلّ مسألتين جبريتين ومسألة حسابية واحدة، بينما تولى "ألفا جيومتري 2" حل مسألة هندسية واحدة.
وأُقيمت الدورة الخامسة والستون من الأولمبياد الدولي للرياضيات في المملكة المتحدة في الفترة من 11 إلى 22 تموز/ يوليو. وتضم هذه المسابقة التي تقام منذ عام 1959 تلاميذ المدارس الثانوية (وأحياناً عدداً قليلاً من طلاب الجامعات) يجري اختيارهم من نحو مئة دولة.
وسبق أن نجحت النسخة الأولى من "ألفا جيومتري" في حل 25 مسألة هندسية في الدورات السابقة من الأولمبياد من إجمالي 30 مسألة، وفق ما ذكرت مجلة "نيتشر" العلمية في كانون الثاني/ يناير. ورأت "غوغل" في بيان أن "هذه النتائج تفتح آفاقاً جديدة في مجال التفكير الرياضي وتقترح مستقبلاً يتعاون فيه علماء الرياضيات والذكاء الاصطناعي لحل المسائل المعقدة".
وتواجه النماذج اللغوية الكبيرة، وهي المنتجات الرئيسية للذكاء الاصطناعي، صعوبة كبيرة في التفكير عند تقديم اختبارات منطق إليها، بحسب دراسة نشرت في حزيران/ يونيو في مجلة "أوبن ساينس" التابعة لمؤسسة "رويال سوساييتي" البريطانية.
ولاحظت هذه الدراسة أن برنامجَي "تشات جي بي تي 3,5" و"تشات جي بي تي 4" من "أوبن إيه آي"، و"بارد" من "غوغل" و"كلود 2" من "أنثروبيك" وثلاث نسخ من برنامج "لاما" من "ميتا"، استجابت بطرق متفاوتة واستندت إلى تفكير غير منطقي في كثير من الأحيان. حسب dw
اضافةتعليق
التعليقات