ديسمبر 29, 2024

مواطن دوت كوم

تقدم ArabNews أخبارًا إقليمية من أوروبا وأمريكا والهند وباكستان والفلبين ودول الشرق الأوسط الأخرى باللغة الإنجليزية لغير المتجانسين.

قدمت “60 دقيقة” ادعاءً سيئًا للغاية حول روبوت الدردشة من Google AI

قدمت “60 دقيقة” ادعاءً سيئًا للغاية حول روبوت الدردشة من Google AI

منذ أن أطلقت OpenAI العنان لـ ChatGPT في العالم ، رأينا أنها تأخذك لن يصدقها أشخاص. ادعى بعض الأشخاص أن برامج الدردشة الآلية لديها أجندة مستيقظة. غرد السناتور الأمريكي كريس مورفي أن ChatGPT “علمت” نفسها كيمياء متقدمة. حتى صحفيو التكنولوجيا المخضرمون كتبوا قصصًا عن كيفية عمل وقع chatbot في حبهم. يبدو كما لو أن العالم يتفاعل مع الذكاء الاصطناعي بنفس الطريقة التي تفاعل بها رجال الكهوف على الأرجح عندما رأوا النار لأول مرة: بارتباك مطلق ومناغاة غير متماسكة.

يأتي أحد أحدث الأمثلة من 60 دقيقة، الذي ألقى صوته في الحلبة بحلقة جديدة ركزت على الابتكارات في مجال الذكاء الاصطناعي التي تم بثها على قناة CBS Sunday. تضمنت الحلقة مقابلات مع أمثال سوندار بيتشاي ، الرئيس التنفيذي لشركة Google ، وشملت مشكوكًا فيها ادعاءات حول أحد نماذج اللغات الكبيرة للشركة (LLM).

يدور موضوع المقطع حول السلوك الناشئ ، والذي يصف أثرًا جانبيًا غير متوقع لنظام ذكاء اصطناعي لم يقصده بالضرورة مطورو النموذج. لقد رأينا بالفعل ظهور سلوك ناشئ في مشاريع الذكاء الاصطناعي الحديثة الأخرى. على سبيل المثال ، استخدم الباحثون مؤخرًا ChatGPT لإنشاء شخصيات رقمية ذات أهداف وخلفية في دراسة نُشرت على الإنترنت الأسبوع الماضي. لقد لاحظوا أن النظام يقوم بسلوكيات ناشئة متعددة مثل مشاركة معلومات جديدة من شخصية إلى أخرى وحتى تكوين علاقات مع بعضها البعض – وهو أمر لم يخطط له المؤلفون في البداية للنظام.

يعد السلوك الناشئ بالتأكيد موضوعًا جديرًا بالاهتمام لمناقشته في برنامج إخباري. أين ال 60 دقيقة يأخذ مقطع الفيديو منعطفًا ، على الرغم من ذلك ، عندما نتعرف على مزاعم أن روبوت الدردشة الخاص بـ Google كان قادرًا بالفعل على تعليم نفسه لغة لم تكن تعرفها من قبل بعد أن طُلب منها بهذه اللغة. قال سكوت بيلي ، مراسل شبكة سي بي إس نيوز ، في مقطع الفيديو: “على سبيل المثال ، تكيف أحد برامج الذكاء الاصطناعي من Google من تلقاء نفسه بعد أن طُلب منه ذلك بلغة بنغلاديش ، والتي لم يتم تدريبها على معرفتها”.

READ  الآن يمكن لجميع كاميرات Google Nest دفق الفيديو إلى التلفزيون الخاص بك

يقول خبراء منظمة العفو الدولية أن هذه شهادة بكالوريوس كاملة. لا يقتصر الأمر على عدم تمكن الروبوت من تعلم لغة أجنبية “لم يتدرب على معرفتها أبدًا” ، ولكنه لم يعلم نفسه مهارة جديدة. دفع المقطع بأكمله باحثي وخبراء الذكاء الاصطناعي إلى انتقاد الإطار المضلل للبرنامج الإخباري على تويتر.

“آمل بالتأكيد أن يقوم بعض الصحفيين بمراجعة مقطع @ 60 دقيقة بالكامل على Google Bard كدراسة حالة حول كيفية * عدم * تغطية الذكاء الاصطناعي” ، قالت ميلاني ميتشل ، باحثة في الذكاء الاصطناعي وأستاذة في معهد سانتا في ، كتب في تغريدة.

“توقف عن التفكير السحري في التكنولوجيا! ليس من الممكن لـ #AI للرد باللغة البنغالية ، ما لم تكن بيانات التدريب ملوثة باللغة البنغالية أو تم تدريبها على لغة تتداخل مع البنغالية ، مثل الأسامية أو الأوريا أو الهندية ، “إم. أليكس أو. باحث في معهد ماساتشوستس للتكنولوجيا ، أضيفت في وظيفة أخرى.

من الجدير بالذكر ذلك 60 دقيقة المقطع لم يذكر بالضبط ما هو الذكاء الاصطناعي الذي استخدموه. قال متحدث باسم شبكة سي بي إس لصحيفة ديلي بيست إن المقطع لم يكن نقاشًا على بارد ولكنه برنامج منفصل للذكاء الاصطناعي. ومع ذلك ، فإن الأسباب التي جعلت هذا الجزء محبطًا جدًا لهؤلاء الخبراء هو أنه يتجاهل ويتلاعب بحقيقة ما يمكن أن يفعله الذكاء الاصطناعي التوليدي بالفعل. لا يمكنها “تعليم” نفسها لغة إذا لم يكن لها حق الوصول إليها في المقام الأول. سيكون هذا بمثابة محاولة لتعليم نفسك لغة الماندرين ولكنك لم تسمعها إلا بعد أن سألك أحدهم لغة الماندرين مرة واحدة.

بعد كل شيء ، اللغة معقدة بشكل لا يصدق – مع الفروق الدقيقة والقواعد التي تتطلب درجة لا تصدق من السياق لفهمها والتواصل معها. لا توجد طريقة حتى لـ LLM الأكثر تقدمًا للتعامل مع كل ذلك وتعلمه من خلال بعض المطالبات.

علاوة على ذلك ، ربما تم تدريب برنامج الذكاء الاصطناعي بالفعل على معرفة اللغة البنغالية ، اللغة السائدة في بنغلاديش. شرحت مارغريت ميتشل (لا علاقة لها) ، الباحثة في مختبر بدء التشغيل في AT HuggingFace والتي كانت تعمل سابقًا في Google ، هذا في سقسقة الموضوع جعل حجة لماذا 60 دقيقة كان من المحتمل أن يكون خطأ.

READ  رد معجبو Pokémon على تصميمات Pal "الكسولة" لـ Palworld

أشار ميتشل إلى أن Bard – برنامج الدردشة الآلي الذي تم طرحه مؤخرًا والمتاح للجمهور من Google – يتضمن عملاً من التكرار المبكر لنموذجها المسمى PaLM. في عرض توضيحي لعام 2022 ، أظهرت Google أن PaLM يمكنها التواصل والاستجابة للمطالبات باللغة البنغالية. ال ورق خلف PaLM كشفت في ورقة بيانات أن النموذج تم تدريبه بالفعل على اللغة مع ما يقرب من 194 مليون رمز في الأبجدية البنغالية.

على الرغم من أننا لا نعرف ما هو برنامج الذكاء الاصطناعي الغامض المنفصل ، فمن المحتمل أنه اعتمد على نفس العمل من PaLM – والذي من شأنه أن يفسر وجود البنغالية في مجموعة البيانات.

من غير الواضح لماذا جلس بيتشاي ، الرئيس التنفيذي لشركة Google ، للمقابلة وسمح لهذه الادعاءات بالاستمرار دون أي معارضة. (لم تستجب Google لطلبات التعليق.) منذ بث الحلقة ، ظل صامتًا على الرغم من إشارة الخبراء إلى الادعاءات المضللة والكاذبة المقدمة في المقطع. على تويتر مارجريت ميتشل مقترح قد يكون السبب وراء ذلك مزيجًا من قادة Google الذين لا يعرفون كيفية عمل منتجاتهم وأيضًا أنه يسمح بنشر الرسائل الرديئة من أجل معالجة الضجيج الحالي حول الذكاء الاصطناعي التوليدي.

“أظن [Google executives] حرفيا لا أفهم كيف يعمل ، ميتشل غرد. “ما كتبته أعلاه هو على الأرجح أخبار لهم. ويتم تحفيزهم على عدم الفهم (أغمض عينيك عن ورقة البيانات هذه !!) “.

يمكن أيضًا أن يُنظر إلى النصف الثاني من الفيديو على أنه إشكالي حيث ناقش بيتشاي وبيلي قصة قصيرة ابتكرها بارد والتي “بدت بشريًا للغاية” ، وتركت الرجلين في حالة اهتزاز إلى حد ما.

الحقيقة هي أن هذه المنتجات ليست سحرية. إنهم غير قادرين على أن يكونوا “بشرًا” لأنهم ليسوا بشرًا. إنها متنبئات نصية مثل تلك الموجودة على هاتفك ، وقد تم تدريبها على ابتكار أكثر الكلمات والعبارات احتمالية بعد سلسلة من الكلمات في العبارات. إن القول بأنهم موجودون قد يمنحهم مستوى من السلطة يمكن أن يكون خطيرًا بشكل لا يصدق.

READ  عرض فيلم Final Super Mario Bros. لأول مرة في Nintendo Direct

بعد كل شيء ، يمكن للمستخدمين استخدام أنظمة الذكاء الاصطناعي التوليدية هذه للقيام بأشياء مثل نشر المعلومات الخاطئة. لقد رأينا بالفعل هذا الأمر يتلاعب بتشابهات الأشخاص وحتى أصواتهم.

حتى روبوت المحادثة من تلقاء نفسه يمكن أن يسبب ضررًا إذا انتهى بإنتاج نتائج متحيزة – وهو شيء رأيناه بالفعل مع أمثال ChatGPT و Bard. بمعرفة نزوع روبوتات المحادثة هذه إلى الهلوسة واختلاق النتائج ، فقد تكون قادرة على نشر معلومات خاطئة للمستخدمين المطمئنين.

البحث يحمل هذا أيضا. دراسة حديثة نشرت في التقارير العلمية وجد أن الردود البشرية على الأسئلة الأخلاقية يمكن أن تتأثر بسهولة بالحجج التي قدمتها ChatGPT – وحتى أن المستخدمين قللوا بشكل كبير من مدى تأثرهم بالروبوتات.

الادعاءات المضللة بشأن 60 دقيقة هي في الحقيقة مجرد عرض لحاجة أكبر لمحو الأمية الرقمية في وقت نحن في أمس الحاجة إليه. يقول العديد من خبراء الذكاء الاصطناعي إنه الآن ، أكثر من أي وقت مضى ، هو الوقت الذي يحتاج فيه الناس إلى إدراك ما يمكن للذكاء الاصطناعي فعله وما لا يمكنه فعله. يجب أيضًا توصيل هذه الحقائق الأساسية حول الروبوتات بشكل فعال للجمهور الأوسع.

هذا يعني أن الأشخاص الذين لديهم أكبر المنصات وأصواتهم عالية (أي وسائل الإعلام والسياسيون والمديرين التنفيذيين في شركات التكنولوجيا الكبرى) يتحملون أكبر قدر من المسؤولية في ضمان مستقبل أكثر أمانًا وتعليمًا فيما يتعلق بالذكاء الاصطناعي. إذا لم نفعل ذلك ، فقد ينتهي بنا الحال مثل رجال الكهوف المذكورين أعلاه ، نلعب بسحر النار – ونحرق في هذه العملية.

ملاحظة المحرر: ذكرت نسخة سابقة من هذه القصة أن الذكاء الاصطناعي الذي تمت مناقشته في مقطع 60 دقيقة كان Bard عندما كان عبارة عن Google AI منفصل.