نوفمبر 22, 2024

مواطن دوت كوم

تقدم ArabNews أخبارًا إقليمية من أوروبا وأمريكا والهند وباكستان والفلبين ودول الشرق الأوسط الأخرى باللغة الإنجليزية لغير المتجانسين.

لماذا تخبر روبوتات الدردشة بالذكاء الاصطناعي الأكاذيب وتتصرف بغرابة؟  أنظر في المرآة.

لماذا تخبر روبوتات الدردشة بالذكاء الاصطناعي الأكاذيب وتتصرف بغرابة؟ أنظر في المرآة.

عندما أضافت Microsoft روبوت محادثة إلى محرك بحث Bing الخاص بها هذا الشهر ، لاحظ الناس أنه يقدم جميع أنواع المعلومات الزائفة حول Gap والحياة الليلية المكسيكية والمغنية Billie Eilish.

بعد ذلك ، عندما دخل الصحفيون وغيرهم من المختبرين الأوائل في محادثات مطولة مع روبوت الذكاء الاصطناعي من Microsoft ، انزلق الأمر إلى سلوك فظ ومخيف ومثير للقلق.

في الأيام التي انقضت منذ أن أصبح سلوك روبوت Bing ضجة كبيرة في جميع أنحاء العالم ، كافح الناس لفهم غرابة هذا الإبداع الجديد. في كثير من الأحيان ، قال العلماء إن البشر يستحقون الكثير من اللوم.

ولكن لا يزال هناك القليل من الغموض حول ما يمكن أن يفعله برنامج الدردشة الجديد – ولماذا سيفعله. يجعل تعقيدها من الصعب تشريحها وحتى التنبؤ بها ، والباحثون ينظرون إليها من خلال عدسة فلسفية بالإضافة إلى الشفرة الصلبة لعلوم الكمبيوتر.

مثل أي طالب آخر ، يمكن لنظام الذكاء الاصطناعي تعلم المعلومات السيئة من المصادر السيئة. وهذا السلوك الغريب؟ قال تيري سيجنوفسكي ، عالم الأعصاب وعالم النفس وعالم الكمبيوتر الذي ساعد في وضع الأساس الفكري والتقني للذكاء الاصطناعي الحديث ، إنه قد يكون انعكاسًا مشوهًا لبرنامج الدردشة الآلي لكلمات ونوايا الأشخاص الذين يستخدمونه.

قال الدكتور سيجنوفسكي ، الأستاذ في معهد سالك للدراسات البيولوجية وجامعة كاليفورنيا ، سان دييغو ، الذي نشر تقريرًا: “يحدث هذا عندما تتعمق في هذه الأنظمة. ورقة ابحاث حول هذه الظاهرة هذا الشهر في المجلة العلمية Neural Computation. “كل ما تبحث عنه – كل ما تريد – سوف يقدمونه.”

جوجل أيضا تباهى روبوت محادثة جديد ، Bard ، هذا الشهر ، لكن العلماء والصحفيين سرعان ما أدركوا أنه كان يكتب هراء حول تلسكوب جيمس ويب الفضائي. أطلقت شركة OpenAI ، وهي شركة ناشئة في سان فرانسيسكو ، طفرة chatbot في نوفمبر عندما قدمت ChatGPT ، والتي لا تقول الحقيقة دائمًا.

يتم تشغيل روبوتات المحادثة الجديدة بواسطة تقنية يطلق عليها العلماء نموذج لغة كبير ، أو LLM تتعلم هذه الأنظمة من خلال تحليل كميات هائلة من النصوص الرقمية المستخرجة من الإنترنت ، والتي تتضمن كميات من المواد غير الموثوقة والمتحيزة وغير ذلك من المواد السامة. كما أن النص الذي تتعلم منه برامج الدردشة أصبح قديمًا بعض الشيء ، لأنه يجب أن يقضوا شهورًا في تحليله قبل أن يتمكن الجمهور من استخدامه.

READ  احصل على جهاز كمبيوتر للألعاب Alienware Aurora R16 RTX 4090 المجهز بالكامل بسعر لا يصدق يبلغ 2520 دولارًا

بينما يحلل هذا البحر من المعلومات الجيدة والسيئة عبر الإنترنت ، يتعلم LLM القيام بشيء معين: تخمين الكلمة التالية في سلسلة من الكلمات.

إنه يعمل كنسخة عملاقة من تقنية الإكمال التلقائي التي تقترح الكلمة التالية أثناء كتابة رسالة بريد إلكتروني أو رسالة فورية على هاتفك الذكي. بالنظر إلى التسلسل “Tom Cruise هو ____ ،” قد يخمن “ممثل”.

عندما تدردش مع روبوت محادثة ، فإن الروبوت لا يعتمد فقط على كل ما تعلمه من الإنترنت. إنه يعتمد على كل ما قلته له وكل ما قاله. إنها ليست مجرد تخمين الكلمة التالية في جملتها. إنه تخمين الكلمة التالية في الجزء الطويل من النص الذي يتضمن كلاً من كلماتك وكلماتها.

كلما طالت مدة المحادثة ، زاد تأثير المستخدم عن غير قصد على ما يقوله برنامج الدردشة الآلي. قال الدكتور سيجنوفسكي: إذا كنت تريد أن يغضب ، فإنه يغضب. إذا قمت بإقناعها لتصبح مخيفة ، فإنها تصبح زاحفة.

لقد طغت ردود الفعل المقلقة على السلوك الغريب لروبوت الدردشة الخاص بـ Microsoft على نقطة مهمة: إن chatbot ليس له شخصية. إنها تقدم نتائج فورية من خلال خوارزمية حاسوبية معقدة بشكل لا يصدق.

يبدو أن Microsoft تقوم بتقليص أغرب سلوك عندما وضعت حدًا لأطوال المناقشات مع Bing chatbot. كان ذلك بمثابة التعلم من سائق اختبار السيارة أن السير بسرعة كبيرة لفترة طويلة سيؤدي إلى حرق محركها. يستكشف شريك Microsoft ، OpenAI و Google أيضًا طرقًا للتحكم في سلوك برامج الروبوت الخاصة بهم.

ولكن هناك تحذير من هذا الطمأنينة: نظرًا لأن برامج الدردشة الآلية تتعلم من الكثير من المواد وتجمعها معًا بطريقة معقدة ، فإن الباحثين ليسوا واضحين تمامًا في كيفية إنتاج روبوتات المحادثة لنتائجها النهائية. يراقب الباحثون ما تفعله الروبوتات ويتعلمون وضع قيود على هذا السلوك – غالبًا بعد حدوثه.

READ  أبل ، أتاري ، وكومودور ، يا إلهي! استكشف عرين الكمبيوتر المنزلي الفاخر - Ars Technica

قررت Microsoft و OpenAI أن الطريقة الوحيدة التي يمكنهم من خلالها اكتشاف ما ستفعله روبوتات الدردشة في العالم الحقيقي هي عن طريق السماح لهم بالضياع – ولفهم عندما يبتعدون. إنهم يعتقدون أن تجربتهم العامة الكبيرة تستحق المخاطرة.

قارن الدكتور Sejnowski سلوك روبوت الدردشة الخاص بشركة Microsoft بـ Mirror of Erised ، وهي قطعة أثرية غامضة في روايات هاري بوتر لـ JK Rowling والعديد من الأفلام التي تستند إلى عالمها الإبداعي من السحرة الشباب.

“المنشق” هو ​​”الرغبة” تهجى إلى الوراء. عندما يكتشف الناس المرآة ، يبدو أنها توفر الحقيقة والفهم. لكنها لا تفعل ذلك. إنه يُظهر الرغبات العميقة الجذور لأي شخص يحدق فيها. ويصاب بعض الناس بالجنون إذا حدقوا لفترة طويلة.

قال الدكتور Sejnowski: “لأن الإنسان و LLM كلاهما يعكسان بعضهما البعض ، بمرور الوقت سوف يميلون نحو حالة مفاهيمية مشتركة”.

وقال إنه لم يكن مفاجئًا أن يبدأ الصحفيون في رؤية سلوك مخيف في روبوت دردشة Bing. سواء بوعي أو بغير وعي ، كانوا يحثون النظام في اتجاه غير مريح. نظرًا لأن روبوتات المحادثة تأخذ كلماتنا وتعكسها علينا ، يمكنها تعزيز معتقداتنا وتضخيمها وإقناعنا بتصديق ما يخبروننا به.

كان الدكتور Sejnowski من بين مجموعة صغيرة من الباحثين في أواخر السبعينيات وأوائل الثمانينيات من القرن الماضي الذين بدأوا بجدية في استكشاف نوع من الذكاء الاصطناعي يسمى الشبكة العصبية ، والتي تقود روبوتات المحادثة الحالية.

الشبكة العصبية هي نظام رياضي يتعلم المهارات من خلال تحليل البيانات الرقمية. هذه هي نفس التقنية التي تسمح لـ Siri و Alexa بالتعرف على ما تقوله.

حوالي عام 2018 ، بدأ الباحثون في شركات مثل Google و OpenAI في بناء شبكات عصبية تعلمت من كميات هائلة من النصوص الرقمية ، بما في ذلك الكتب ومقالات ويكيبيديا وسجلات الدردشة وغيرها من الأشياء المنشورة على الإنترنت. من خلال تحديد مليارات الأنماط في كل هذا النص ، تعلمت LLMs إنشاء نص بمفردها ، بما في ذلك التغريدات ومشاركات المدونات والخطب وبرامج الكمبيوتر. يمكنهم حتى إجراء محادثة.

READ  نتائج Splatoon 3 Splatfest - الآيس كريم

هذه الأنظمة هي انعكاس للإنسانية. يتعلمون مهاراتهم من خلال تحليل النص الذي نشره البشر على الإنترنت.

قالت ميلاني ميتشل ، باحثة الذكاء الاصطناعي في معهد سانتا في ، وهو مختبر مستقل في نيو مكسيكو ، إن هذا ليس السبب الوحيد الذي يجعل روبوتات المحادثة تولد لغة إشكالية.

عند إنشاء نص ، لا تكرر هذه الأنظمة ما هو موجود على الإنترنت كلمة بكلمة. إنهم ينتجون نصًا جديدًا بمفردهم من خلال الجمع بين بلايين الأنماط.

حتى لو قام الباحثون بتدريب هذه الأنظمة فقط على المؤلفات العلمية التي راجعها الأقران ، فقد يستمرون في إنتاج عبارات كانت سخيفة من الناحية العلمية. حتى لو تعلموا من النص الذي كان صحيحًا فقط ، فقد يستمرون في إنتاج الأكاذيب. حتى لو تعلموا فقط من النص النافع ، فقد يظلون قادرين على توليد شيء زاحف.

قال الدكتور ميتشل: “لا يوجد شيء يمنعهم من القيام بذلك”. “إنهم يحاولون فقط إنتاج شيء يبدو كلغة بشرية.”

لطالما عرف خبراء الذكاء الاصطناعي أن هذه التكنولوجيا تعرض جميع أنواع السلوك غير المتوقع. لكن لا يمكنهم دائمًا الاتفاق على كيفية تفسير هذا السلوك أو مدى سرعة تحسن روبوتات المحادثة.

نظرًا لأن هذه الأنظمة تتعلم من بيانات أكثر بكثير مما يمكن أن نلفه نحن البشر ، لا يستطيع حتى خبراء الذكاء الاصطناعي فهم سبب قيامهم بإنشاء جزء معين من النص في أي لحظة.

قال الدكتور سيجكوفسكي إنه يعتقد أنه على المدى الطويل ، تتمتع برامج الدردشة الجديدة بالقدرة على جعل الأشخاص أكثر كفاءة ومنحهم طرقًا لأداء وظائفهم بشكل أفضل وأسرع. ولكن هذا يأتي مع تحذير لكل من الشركات التي تبني روبوتات المحادثة هذه والأشخاص الذين يستخدمونها: يمكنهم أيضًا أن يقودونا بعيدًا عن الحقيقة إلى بعض الأماكن المظلمة.

قال الدكتور سيجكوفسكي: “هذه أرض مجهولة”. “لم يختبر البشر هذا من قبل.”