يونيو 16, 2024

مواطن دوت كوم

تقدم ArabNews أخبارًا إقليمية من أوروبا وأمريكا والهند وباكستان والفلبين ودول الشرق الأوسط الأخرى باللغة الإنجليزية لغير المتجانسين.

وعدت شركة OpenAI بتخصيص 20% من قوتها الحاسوبية لمكافحة أخطر أنواع الذكاء الاصطناعي، لكنها لم تحقق ذلك مطلقًا

وعدت شركة OpenAI بتخصيص 20% من قوتها الحاسوبية لمكافحة أخطر أنواع الذكاء الاصطناعي، لكنها لم تحقق ذلك مطلقًا

في يوليو 2023، كشفت OpenAI عن فريق جديد مخصص لضمان إمكانية التحكم بأمان في أنظمة الذكاء الاصطناعي المستقبلية التي قد تكون أكثر ذكاءً من جميع البشر مجتمعين. وللإشارة إلى مدى جدية الشركة بشأن هذا الهدف، وعدت علنًا بتخصيص 20% من مواردها الحاسوبية المتاحة في ذلك الوقت لهذا الجهد.

الآن، وبعد أقل من عام، تم حل هذا الفريق، الذي كان يسمى Superalignment، وسط استقالات الموظفين واتهامات بأن OpenAI تعطي الأولوية لإطلاق المنتجات على سلامة الذكاء الاصطناعي. وفقًا لستة مصادر مطلعة على عمل فريق OpenAI Superalignment، لم تف OpenAI أبدًا بالتزامها بتزويد الفريق بنسبة 20% من قوة الحوسبة الخاصة به.

بدلاً من ذلك، وفقًا للمصادر، رأى الفريق مرارًا وتكرارًا طلباته للوصول إلى وحدات معالجة الرسومات، ورقائق الكمبيوتر المتخصصة اللازمة لتدريب وتشغيل تطبيقات الذكاء الاصطناعي، والتي رفضتها قيادة OpenAI، على الرغم من أن ميزانية الحوسبة الإجمالية للفريق لم تقترب أبدًا من الميزانية المطلوبة. ووعد عتبة 20٪.

تثير هذه الاكتشافات تساؤلات حول مدى جدية شركة OpenAI في احترام تعهدها العام، وما إذا كان ينبغي الوثوق بالالتزامات العامة الأخرى التي تتعهد بها الشركة. لم يستجب OpenAI لطلبات التعليق على هذه القصة.

تواجه الشركة حاليًا رد فعل عنيفًا بسبب استخدامها للصوت في ميزات إنشاء الكلام المستندة إلى الذكاء الاصطناعي والتي تشبه بشكل لافت للنظر ميزات الممثلة سكارليت جوهانسون. وفي هذه الحالة، أثيرت تساؤلات حول مصداقية التصريحات العامة لشركة OpenAI بأن التشابه بين صوت الذكاء الاصطناعي الذي تسميه “Sky” وصوت جوهانسون هو من قبيل الصدفة البحتة. تقول جوهانسون إن سام ألتمان، المؤسس المشارك والرئيس التنفيذي لشركة OpenAI، اتصل بها في سبتمبر الماضي، عندما ظهر صوت Sky لأول مرة، وطلب الإذن باستخدام صوتها. لقد رفضت. وتقول إن ألتمان طلبت الإذن مرة أخرى لاستخدام صوتها في الأسبوع الماضي، مباشرة قبل عرض توضيحي لأحدث طراز GPT-4o، والذي يستخدم صوت Sky. ونفت شركة OpenAI استخدام صوت جوهانسون دون إذنها، قائلة إنها دفعت لممثلة محترفة، تقول إنها لا تستطيع الكشف عن اسمها قانونيًا، لإنشاء Sky. لكن ادعاءات جوهانسون ألقت الآن بظلال من الشك على هذا الأمر، حيث تكهن البعض على وسائل التواصل الاجتماعي بأن OpenAI قامت في الواقع باستنساخ صوت جوهانسون أو ربما مزجت صوت ممثلة أخرى مع صوت يوهانسون بطريقة ما لإنشاء Sky.

تم إنشاء فريق OpenAI Superalignment تحت قيادة إيليا سوتسكيفر، المؤسس المشارك لـ OpenAI وكبير العلماء السابق، والذي أُعلن عن رحيله عن الشركة الأسبوع الماضي. شارك جان لايكي، وهو باحث قديم في OpenAI، في قيادة الفريق. وأعلن استقالته الجمعة، بعد يومين من رحيل سوتسكيفر. ثم أبلغت الشركة باقي الموظفين في الفريق، والذين يبلغ عددهم نحو 25 شخصاً، أنه جارٍ حله، وأنه سيتم إعادة تعيينهم داخل الشركة.

READ  ارتفاع العقود الآجلة لمؤشر داو جونز قبل أرباح Nvidia – تحديثات حية

لقد كان ذلك بمثابة سقوط سريع للفريق الذي اعتبرت OpenAI عمله قبل أقل من عام أمرًا حيويًا للشركة ومهمًا لمستقبل الحضارة. الذكاء الفائق هو فكرة نظام الذكاء الاصطناعي الافتراضي المستقبلي الذي سيكون أكثر ذكاءً من جميع البشر مجتمعين. إنها تقنية من شأنها أن تتجاوز الهدف المعلن للشركة المتمثل في إنشاء ذكاء اصطناعي عام، أو AGI – نظام ذكاء اصطناعي واحد ذكي مثل أي شخص.

الذكاء الخارق، الشركة قال عند الإعلان عن الفريقيمكن أن يشكل خطراً وجودياً على الإنسانية من خلال السعي لقتل الناس أو استعبادهم. وقالت OpenAI في إعلانها: “ليس لدينا حل لتوجيه والتحكم في الذكاء الاصطناعي الذي يحتمل أن يكون فائق الذكاء، ومنعه من أن يصبح مارقًا”. كان من المفترض أن يقوم فريق Superalignment بالبحث في هذه الحلول.

لقد كانت مهمة بالغة الأهمية لدرجة أن الشركة قالت في إعلانها إنها ستخصص “20% من الحوسبة التي حصلنا عليها حتى الآن على مدار السنوات الأربع المقبلة” لهذا الجهد.

لكن ستة مصادر مطلعة على عمل فريق Superalignment قالت إنه لم يتم تخصيص هذه الحوسبة للمجموعة مطلقًا. وبدلاً من ذلك، حصلت على مبلغ أقل بكثير من ميزانية تخصيص الحوسبة العادية للشركة، والتي يتم إعادة تقييمها كل ثلاثة أشهر.

قال أحد المصادر المطلعة على عمل فريق Superalignment إنه لم تكن هناك أي مقاييس واضحة حول كيفية حساب نسبة الـ 20% بالضبط، مما يجعلها عرضة لتفسير واسع النطاق. على سبيل المثال، قال المصدر إنه لم يتم إخبار الفريق أبدًا ما إذا كان الوعد يعني “20% سنويًا لمدة أربع سنوات” أو “5% سنويًا لمدة أربع سنوات” أو بعض المبلغ المتغير الذي يمكن أن ينتهي به الأمر إلى “1% أو 2% لمدة أربع سنوات” السنوات الثلاث الأولى، ثم الجزء الأكبر من الالتزام في السنة الرابعة. على أية حال، جميع المصادر حظ أكدت هذه القصة أن فريق Superalignment لم يحصل أبدًا على أي شيء يقترب من 20% من الحوسبة الآمنة لـ OpenAI اعتبارًا من يوليو 2023.

يمكن لباحثي OpenAI أيضًا تقديم طلبات لما يُعرف بالحوسبة “المرنة” – الوصول إلى سعة وحدة معالجة الرسومات الإضافية بما يتجاوز ما تم إدراجه في الميزانية – للتعامل مع المشاريع الجديدة بين اجتماعات الميزانية ربع السنوية. لكن هذه المصادر قالت إن الطلبات المرنة المقدمة من فريق Superalignment تم رفضها بشكل روتيني من قبل كبار المسؤولين.

READ  أرخص بعد تجزئة الأسهم، لكنها لا تقدر بثمن

وقالت المصادر إن بوب ماكجرو، نائب رئيس الأبحاث في OpenAI، هو المسؤول التنفيذي الذي أبلغ الفريق برفض هذه الطلبات، لكن آخرين في الشركة، بما في ذلك رئيس قسم التكنولوجيا ميرا موراتي، شاركوا في اتخاذ القرارات. لم يستجب ماكجرو ولا موراتي لطلبات التعليق على هذه القصة.

بينما أجرى الفريق بعض الأبحاث، تم إصداره ورقة وقال المصدر إنه يعرض تفاصيل تجاربه في الحصول بنجاح على نموذج ذكاء اصطناعي أقل قوة للتحكم في نموذج أكثر قوة في ديسمبر 2023، وقد أدى الافتقار إلى الحوسبة إلى إحباط أفكار الفريق الأكثر طموحًا.

بعد استقالته، نشر لايكي يوم الجمعة سلسلة من المنشورات على موقع X (تويتر سابقًا) انتقد فيها صاحب العمل السابق، قائلاً: “لقد اتخذت ثقافة وعمليات السلامة المقعد الخلفي أمام المنتجات اللامعة”. وقال أيضًا: “على مدى الأشهر القليلة الماضية، كان فريقي يبحر ضد الريح. في بعض الأحيان كنا نكافح من أجل الحوسبة وكان إنجاز هذا البحث المهم يزداد صعوبة.

دعمت خمسة مصادر مطلعة على عمل فريق Superalignment حساب Leike، قائلين إن مشاكل الوصول إلى الحوسبة تفاقمت في أعقاب المواجهة التي سبقت عيد الشكر بين Altman ومجلس إدارة مؤسسة OpenAI غير الربحية.

كان سوتسكيفر، الذي كان عضوًا في مجلس الإدارة، قد صوت لصالح إقالة ألتمان وكان الشخص الذي اختاره مجلس الإدارة لإبلاغ ألتمان بالأخبار. وعندما تمرد موظفو OpenAI رداً على القرار، نشر سوتسكيفر في وقت لاحق على موقع X أنه “يأسف بشدة” لمشاركته في إقالة ألتمان. في النهاية، تمت إعادة تعيين ألتمان، وتنحى سوتسكيفر والعديد من أعضاء مجلس الإدارة الآخرين الذين شاركوا في إقالته من مجلس الإدارة. لم يعد Sutskever أبدًا للعمل في OpenAI بعد إعادة تعيين Altman، لكنه لم يترك الشركة رسميًا حتى الأسبوع الماضي.

عارض أحد المصادر طريقة المصادر الأخرى حظ تحدثت عن مشاكل الحوسبة التي واجهها فريق Superalignment، قائلة إنها سبقت مشاركة Sutskever في الانقلاب الفاشل، الذي ابتليت به المجموعة منذ البداية.

وبينما كانت هناك بعض التقارير التي تفيد بأن Sutskever كان يواصل المشاركة في قيادة فريق Superalignment عن بعد، قالت مصادر مطلعة على عمل الفريق إن الأمر لم يكن كذلك وأن Sutskever لم يكن لديه إمكانية الوصول إلى عمل الفريق ولم يلعب أي دور في توجيه الفريق بعد ذلك. عيد الشكر.

قالت المصادر إنه مع رحيل Sutskever، فقد فريق Superalignment الشخص الوحيد في الفريق الذي كان لديه رأس مال سياسي كافٍ داخل المنظمة ليجادل بنجاح من أجل تخصيص الحوسبة الخاصة به.

READ  ماكدونالدز تغلق مؤقتا المطاعم الروسية

بالإضافة إلى Leike وSutskever، فقدت OpenAI ما لا يقل عن ستة باحثين آخرين في مجال سلامة الذكاء الاصطناعي من فرق مختلفة في الأشهر الأخيرة. قال أحد الباحثين، دانييل كوكوتايلو، لموقع Vox الإخباري إنه “فقد الثقة تدريجيًا في قيادة OpenAI وقدرتهم على التعامل بشكل مسؤول مع الذكاء الاصطناعي العام، لذلك استقلت”.

ردًا على تعليقات Leike، نشر ألتمان والمؤسس المشارك جريج بروكمان، وهو رئيس OpenAI، على X أنهم “ممتنون لـ [Leike] على كل ما فعله من أجل OpenAI. ومضى الاثنان في الكتابة: “نحن بحاجة إلى مواصلة رفع مستوى عمل السلامة لدينا لتتناسب مع مخاطر كل نموذج جديد.”

ثم عرضوا وجهة نظرهم حول نهج الشركة فيما يتعلق بسلامة الذكاء الاصطناعي في المستقبل، والذي سيتضمن تركيزًا أكبر بكثير على اختبار النماذج قيد التطوير حاليًا بدلاً من محاولة تطوير مناهج نظرية حول كيفية جعل النماذج المستقبلية الأكثر قوة آمنة. كتب بروكمان وألتمان: “نحن بحاجة إلى حلقة ردود فعل ضيقة للغاية، واختبارات صارمة، ودراسة متأنية في كل خطوة، وأمن على مستوى عالمي، وتناغم بين السلامة والقدرات”، مضيفين أن “الفهم التجريبي يمكن أن يساعد في تحديد الطريق للمضي قدمًا. “

الأشخاص الذين تحدثوا إليهم حظ لقد فعلوا ذلك دون الكشف عن هويتهم، إما لأنهم قالوا إنهم يخشون فقدان وظائفهم، أو لأنهم يخشون فقدان الأسهم المكتسبة في الشركة، أو كليهما. أُجبر الموظفون الذين تركوا OpenAI على التوقيع على اتفاقيات الانفصال التي تتضمن بندًا صارمًا بعدم الاستخفاف ينص على أن الشركة يمكنها استرداد أسهمهم المكتسبة إذا انتقدوا الشركة علنًا، أو حتى إذا اعترفوا بوجود البند. وقد تم إخبار الموظفين أن أي شخص يرفض التوقيع على اتفاقية الانفصال سوف يفقد أسهمه أيضًا.

بعد فوكس ذكرت فيما يتعلق بشروط الانفصال هذه، نشر ألتمان على موقع X أنه لم يكن على علم بهذا الشرط وكان “محرجًا حقًا” من هذه الحقيقة. وقال إن OpenAI لم تحاول أبدًا تطبيق البند واستعادة الأسهم المكتسبة لأي شخص. وقال إن الشركة كانت بصدد تحديث أوراق الخروج الخاصة بها “لإصلاح” المشكلة وأن أي موظف سابق يشعر بالقلق بشأن الأحكام الواردة في أوراق الخروج التي وقعوا عليها يمكنه التواصل معه مباشرة بشأن هذا الأمر وسيتم تغييرها.