أعلنت شركة أوبن إيه آي يوم الأربعاء أنها تتصدى للهلوسة ضد الذكاء الاصطناعي ، وذلك باستخدام طريقة جديدة لتدريب نماذج الذكاء الاصطناعي.
يأتي البحث في وقت أصبحت فيه المعلومات المضللة النابعة من أنظمة الذكاء الاصطناعي أكثر إثارة للجدل من أي وقت مضى ، وسط طفرة الذكاء الاصطناعي التوليدية والتحضير للانتخابات الرئاسية الأمريكية عام 2024. قامت شركة OpenAI بتسريع طفرة الذكاء الاصطناعي التوليدية العام الماضي عندما أصدرت ChatGPT ، روبوت الدردشة الخاص بها المدعوم من GPT-3 و GPT-4 ، وتجاوز 100 مليون مستخدم شهريًا في شهرين ، ويقال إنه سجل رقمًا قياسيًا للتطبيق الأسرع نموًا. ان يذهب في موعد، مايكروسوفت استثمرت أكثر من 13 مليار دولار في OpenAI ، وبلغت قيمة الشركة الناشئة حوالي 29 مليار دولار.
تحدث الهلوسة بالذكاء الاصطناعي عندما تحدث نماذج مثل ChatGPT أو جوجليقوم Bard بتلفيق المعلومات بالكامل ، ويتصرف كما لو كانوا ينفثون بالحقائق. أحد الأمثلة: في مقطع الفيديو الترويجي الخاص بشهر فبراير من Google لـ Bard ، يقوم برنامج الدردشة الآلي بعمل ملف مطالبة غير صحيحة حول تلسكوب جيمس ويب الفضائي. وفي الآونة الأخيرة ، استشهد موقع ChatGPT بقضايا “وهمية” في ملف محكمة فيدرالية بنيويورك ، وقد يواجه محامو نيويورك المعنيون عقوبات.
كتب باحثو أوبن إيه آي في التقرير: “حتى النماذج الحديثة تميل إلى إنتاج الأكاذيب – فهي تظهر ميلًا لاختراع الحقائق في لحظات عدم اليقين”. “هذه الهلوسة مشكلة بشكل خاص في المجالات التي تتطلب تفكيرًا متعدد الخطوات ، لأن خطأ منطقيًا واحدًا يكفي لعرقلة حل أكبر بكثير.”
استراتيجية OpenAI الجديدة المحتملة لمحاربة الافتراءات: تدريب نماذج الذكاء الاصطناعي لمكافأة أنفسهم على كل خطوة فردية صحيحة من التفكير عندما يصلون إلى إجابة ، بدلاً من مجرد مكافأة النتيجة النهائية الصحيحة. يُطلق على هذا النهج “الإشراف على العملية” ، بدلاً من “الإشراف على النتائج” ، ويمكن أن يؤدي إلى ذكاء اصطناعي قابل للتفسير بشكل أفضل ، وفقًا للباحثين ، حيث تشجع الاستراتيجية النماذج على اتباع نهج سلسلة من “الأفكار” الشبيهة بالإنسان.
“يعد اكتشاف الأخطاء المنطقية أو الهلوسة في النموذج والتخفيف من حدتها خطوة حاسمة نحو بناء الذكاء الاصطناعي العام المتوافق [or artificial general intelligence]، قال كارل كوب ، الباحث في الرياضيات في أوبن إيه آي ، لشبكة سي إن بي سي ، مشيرًا إلى أنه على الرغم من أن أوبن إيه آي لم تخترع نهج الإشراف على العمليات ، إلا أن الشركة تساعد في دفعه إلى الأمام. “الدافع وراء هذا البحث هو معالجة الهلوسة من أجل صنع نماذج أكثر قادرة على حل مشاكل التفكير الصعبة “.
قال كوب إن أوبن إيه آي أصدرت مجموعة بيانات مصاحبة من 800 ألف تسمية بشرية استخدمتها لتدريب النموذج المذكور في الورقة البحثية.
أعرب بن وينترز ، كبير المستشارين في مركز معلومات الخصوصية الإلكترونية وقائد مشروع الذكاء الاصطناعي وحقوق الإنسان ، عن شكوكه ، وقال لقناة CNBC إنه سيكون مهتمًا برؤية مجموعة البيانات الكاملة والأمثلة المصاحبة لها.
قال وينترز: “لا أعتقد أن هذا بمفرده يؤدي إلى تخفيف كبير للمخاوف بشأن المعلومات الخاطئة والنتائج غير الصحيحة … عندما يتم استخدامها بالفعل في البرية”. وأضاف: “من المهم بالتأكيد ما إذا كانوا يخططون لتنفيذ ما وجدوه من خلال أبحاثهم هنا [into their products]، وإذا لم يكونوا كذلك ، فإن ذلك يجلب بعض الأسئلة الجادة إلى حد ما حول ما هم على استعداد لنشره للجمهور “.
نظرًا لأنه ليس من الواضح ما إذا كانت ورقة OpenAI قد تمت مراجعتها أو مراجعتها من قِبل الأقران بتنسيق آخر ، قال سوريش فينكاتاسوبرامانيان ، مدير مركز المسؤولية التقنية في جامعة براون ، لشبكة CNBC إنه ينظر إلى البحث باعتباره ملاحظة أولية أكثر من أي شيء آخر.
قال فينكاتاسوبرامانيان: “هذا سيحتاج إلى تغيير في مجتمع البحث قبل أن نتمكن من قول أي شيء مؤكد حول هذا”. “في هذا العالم ، هناك الكثير من النتائج التي تظهر بشكل منتظم جدًا ، وبسبب عدم الاستقرار العام في كيفية عمل النماذج اللغوية الكبيرة ، فإن ما قد ينجح في أحد الإعدادات والنموذج والسياق قد لا يعمل في إعداد ونموذج وسياق آخر . ”
وأضاف فينكاتاسوبرامانيان: “بعض الأشياء المهلوسة التي كان الناس قلقون بشأنها هي [models] تكوين الاستشهادات والمراجع. لا يوجد دليل في هذه الورقة على أن هذا سيعمل من أجل ذلك … لا أقول إنه لن ينجح ؛ أنا أقول إن هذه الورقة لا تقدم هذا الدليل “.
لم ترد شركة OpenAI على طلب للتعليق يسأل عما إذا كان البحث قد تمت مراجعته خارجيًا بأي صفة ، أو متى تخطط الشركة ، إن وجدت ، لتنفيذ الاستراتيجية الجديدة في ChatGPT ومنتجاتها الأخرى.
“إنه أمر مرحب به بالتأكيد أن ترى الشركات تحاول العبث بتطوير أنظمتها لمحاولة تقليل هذه الأنواع من الأخطاء – أعتقد أن المفتاح هو تفسير هذا على أنه بحث مشترك ، في ضوء العوائق العديدة الموجودة أمام أشكال أعمق من المساءلة ، قالت سارة مايرز ويست ، المديرة الإدارية لمعهد AI Now ، لشبكة CNBC.
وأضاف الغرب ، “[OpenAI is] إصدار مجموعة بيانات صغيرة من التعليقات على مستوى الإنسان مع هذه الورقة ، لكنها لم تقدم تفاصيل أساسية حول البيانات المستخدمة لتدريب واختبار GPT-4. لذلك لا يزال هناك قدر هائل من التعتيم الذي يتحدى أي جهود ذات مغزى للمساءلة في مجال الذكاء الاصطناعي ، حتى مع تأثير هذه الأنظمة بشكل مباشر على الأشخاص بالفعل “.
“متحمس لوسائل التواصل الاجتماعي. مهووس بالجعة. متواصل شرير. عاشق لثقافة البوب. عرضة لنوبات اللامبالاة.”
More Stories
هذا الشاحن المصنوع من GaN بقوة 100 واط رقيق وقابل للطي
كو: ترقية ذاكرة الوصول العشوائي إلى 12 جيجابايت في العام المقبل ستقتصر على iPhone 17 Pro Max
تعود Verdansk أخيرًا إلى Call of Duty Warzone، والمعجبون سعداء بذلك