ديسمبر 26, 2024

مواطن دوت كوم

تقدم ArabNews أخبارًا إقليمية من أوروبا وأمريكا والهند وباكستان والفلبين ودول الشرق الأوسط الأخرى باللغة الإنجليزية لغير المتجانسين.

يرأس فريق السلامة الجديد في OpenAI أعضاء مجلس الإدارة، بما في ذلك الرئيس التنفيذي سام التمان

يرأس فريق السلامة الجديد في OpenAI أعضاء مجلس الإدارة، بما في ذلك الرئيس التنفيذي سام التمان

OpenAI لديه مخلوق تم تشكيل لجنة جديدة للسلامة والأمن بعد أقل من أسبوعين من حل الشركة للفريق المكلف بحماية البشرية من التهديدات الوجودية للذكاء الاصطناعي. سيشمل هذا التكرار الأخير للمجموعة المسؤولة عن حواجز السلامة في OpenAI عضوين من مجلس الإدارة والرئيس التنفيذي Sam Altman، مما يثير تساؤلات حول ما إذا كانت هذه الخطوة ليست أكثر من مجرد مسرح للشرطة الذاتية وسط سباق محموم لتحقيق الربح والهيمنة جنبًا إلى جنب مع شريك Microsoft.

لجنة السلامة والأمن، التي شكلها مجلس إدارة OpenAI، سيرأسها أعضاء مجلس الإدارة بريت تايلور (الرئيس)، ونيكول سيليجمان، وآدم دانجيلو، وسام ألتمان (الرئيس التنفيذي). يتبع الفريق الجديد استقالة المؤسس المشارك إيليا سوتسكيفر وجان ليك رفيعة المستوى، والتي أثارت الكثير من الدهشة. تم إنشاء “فريق Superalignment” السابق الخاص بهم في يوليو الماضي فقط.

بعد استقالته لايك كتب في سلسلة رسائل X (على تويتر) بتاريخ 17 مايو، قال إنه على الرغم من إيمانه بالمهمة الأساسية للشركة، فقد غادر لأن الجانبين (المنتج والسلامة) “وصلا إلى نقطة الانهيار”. وأضاف لايكي أنه “يشعر بالقلق من أننا لسنا على مسار” لمعالجة القضايا المتعلقة بالسلامة بشكل مناسب مع نمو الذكاء الاصطناعي بشكل أكثر ذكاءً. لقد نشر أن فريق Superalignment كان مؤخرًا “يبحر ضد الريح” داخل الشركة وأن “ثقافة السلامة والعمليات قد تراجعت أمام المنتجات اللامعة”.

قد يكون الأمر الساخر هو أن الشركة التي تركز في المقام الأول على “المنتجات اللامعة” – بينما تحاول درء ضربة العلاقات العامة المتمثلة في مغادرة مسؤولين رفيعي المستوى للسلامة – قد تنشئ فريق سلامة جديدًا بقيادة نفس الأشخاص الذين يسرعون نحو تلك المنتجات اللامعة.

صورة لرئيس قسم المحاذاة السابق في OpenAI، جان ليك.  يبتسم على خلفية بنية رمادية.صورة لرأس رئيس قسم المحاذاة السابق في OpenAI، جان ليك.  يبتسم على خلفية بنية رمادية.

رئيس قسم المحاذاة السابق في OpenAI جان ليك (جان لايكي/X)

لم تكن عمليات المغادرة المتعلقة بالسلامة في وقت سابق من هذا الشهر هي الأخبار الوحيدة المثيرة للقلق من الشركة مؤخرًا. كما أطلقت (وسحبت بسرعة) نموذجًا صوتيًا جديدًا بدا بشكل ملحوظ مثل المرشحة لجائزة الأوسكار مرتين سكارليت جوهانسون. ال جوجو أرنب كشفت الممثلة بعد ذلك أن OpenAI Sam Altman طلبت موافقتها على استخدام صوتها لتدريب نموذج للذكاء الاصطناعي لكنها رفضت.

READ  تنخفض قيمة صادرات الصين بشكل حاد بسبب انخفاض الأسعار

وفي تصريح لموقع Engadget، قال فريق جوهانسون إنها صدمت من أن OpenAI ستلقي موهبة صوتية “بدت مشابهة لها بشكل مخيف” بعد الحصول على ترخيصها. وأضاف البيان أن “أقرب أصدقاء يوهانسون ووسائل الإعلام لم يتمكنوا من معرفة الفرق”.

تراجعت شركة OpenAI أيضًا عن اتفاقيات عدم الاستخفاف التي كانت تطلبها من المديرين التنفيذيين المغادرين، وغيرت لهجتها لتقول إنها لن تنفذها. قبل ذلك، أجبرت الشركة الموظفين المغادرين على الاختيار بين القدرة على التحدث ضد الشركة والحفاظ على الأسهم المكتسبة التي اكتسبوها.

وتخطط لجنة السلامة والأمن “لتقييم ومواصلة تطوير” عمليات الشركة وضماناتها خلال التسعين يومًا القادمة. بعد ذلك، ستقوم المجموعة بمشاركة توصياتها مع مجلس الإدارة بأكمله. وبعد أن يقوم فريق القيادة بأكمله بمراجعة استنتاجاته، فإنه “سوف يقوم بمشاركة تحديث التوصيات المعتمدة بشكل علني بطريقة تتفق مع السلامة والأمن”.

في منشور مدونتها للإعلان عن لجنة السلامة والأمن الجديدة، أكدت OpenAI أن الشركة تقوم حاليًا بتدريب نموذجها التالي، والذي سيخلف GPT-4. وكتبت الشركة: “في حين أننا فخورون ببناء وإصدار نماذج رائدة في الصناعة من حيث القدرات والسلامة، فإننا نرحب بالنقاش القوي في هذه اللحظة المهمة”.