ديسمبر 28, 2024

مواطن دوت كوم

تقدم ArabNews أخبارًا إقليمية من أوروبا وأمريكا والهند وباكستان والفلبين ودول الشرق الأوسط الأخرى باللغة الإنجليزية لغير المتجانسين.

يقول موظفو Google إن Bard AI “أسوأ من عديم الفائدة” ، وتم تجاهل المخاوف الأخلاقية – Ars Technica

يقول موظفو Google إن Bard AI “أسوأ من عديم الفائدة” ، وتم تجاهل المخاوف الأخلاقية – Ars Technica

يقول موظفو Google إن Bard AI “أسوأ من عديم الفائدة” ، وتم تجاهل المخاوف الأخلاقية – Ars Technica

من الخارج ، يبدو Google Bard وكأنه منتج مستعجل لمحاولة التنافس مع ChatGPT ، ويشارك بعض موظفي Google هذه المشاعر. تقرير جديد من بلومبرج أجرى مقابلات مع 18 عاملاً حاليًّا وسابقًا وخرجوا بكومة من التعليقات والمخاوف بشأن فرق أخلاقيات الذكاء الاصطناعي التي كانت “محبطة ومعنويات” حتى تتمكن Google من إخراج بارد من الباب.

وفقًا للتقرير ، طُلب من موظفي Google اختبار إصدار Bard المسبق للحصول على تعليقاتهم ، والتي تم تجاهلها في الغالب حتى يتمكن Bard من التشغيل بشكل أسرع. وصفت المناقشات الداخلية التي شاهدتها بلومبرج أن بارد “يستحق التراجع” و “كاذب مرضي”. عندما سئل عن كيفية الهبوط بالطائرة ، أعطى تعليمات خاطئة من شأنها أن تؤدي إلى تحطم الطائرة. طلب أحد الموظفين تعليمات الغوص وحصل على إجابة قالوا “من المحتمل أن تؤدي إلى إصابة خطيرة أو الوفاة”. اختتم أحد الموظفين مشاكل بارد في منشور في فبراير بعنوان “بارد أسوأ من عديم الفائدة: من فضلك لا تطلق.” تم إطلاق Bard في مارس.

ربما يمكنك أن تقول الكثير من الأشياء نفسها حول منافس الذكاء الاصطناعي الذي تطارده Google ، ChatGPT من OpenAI. كلاهما يمكن أن يعطي معلومات متحيزة أو خاطئة ويهلوس بإجابات غير صحيحة. تتخلف Google كثيرًا عن ChatGPT ، وتشعر الشركة بالذعر من قدرة ChatGPT على الإجابة عن الأسئلة التي قد يكتبها الأشخاص بطريقة أخرى في بحث Google. تعرض OpenAI ، مبتكر ChatGPT ، لانتقادات لاتباعه نهجًا متساهلًا تجاه سلامة وأخلاقيات الذكاء الاصطناعي. الآن تجد Google نفسها في موقف صعب. إذا كان الشاغل الوحيد للشركة هو استرضاء سوق الأسهم واللحاق بـ ChatGPT ، فمن المحتمل ألا تكون قادرة على القيام بذلك إذا تباطأت للنظر في القضايا الأخلاقية.

READ  حصري - حلقة اللعب الماراثونية من Bungie والميزات والتقدم والمزيد

أخبرت ميريديث ويتاكر ، مديرة Google السابقة ورئيسة مؤسسة Signal Foundation ، بلومبرج أن “أخلاقيات الذكاء الاصطناعي قد احتلت مقعدًا خلفيًا” في Google وتقول إنه “إذا لم تكن الأخلاقيات في وضع يسمح لها بأولوية على الربح والنمو ، فلن تكون في النهاية عمل.” تم فصل العديد من قادة أخلاقيات الذكاء الاصطناعي في Google أو تركوا الشركة في السنوات الأخيرة. تقول بلومبيرج إن مراجعات أخلاقيات الذكاء الاصطناعي اليوم هي “طوعية بالكامل تقريبًا” في Google.

على الرغم من أنه يمكنك القيام بشيء ما في Google لمحاولة إبطاء الإصدارات بسبب مشكلات أخلاقية ، فمن المحتمل ألا يكون ذلك مفيدًا لحياتك المهنية. يقول التقرير: “قال أحد الموظفين السابقين إنهم طلبوا العمل على تحقيق العدالة في التعلم الآلي وكانوا محبطين بشكل روتيني – لدرجة أن ذلك أثر على مراجعة أدائهم. واحتج المدراء على أن ذلك كان يعيق” عملهم الحقيقي “. “