تأجيز مهندس في جوجل ادعى أن ذكاءهم الاصطناعي أصبح واعيًا


`عن Giphy

أحد مهندسي البرمجة في جوجل (بليك ليموان) أعلن أنه تم إعطاؤه "إجازة" بعدما حذّر أن نموذج الذكاء الاصطناعي لدى جوجل أصبح "واعيًا"، أو بمعنى آخر أصبح "مدركًا" أو ما هو أشبه بكائنٍ عاقل.

ادعاءات ليموان أتت من تعامله المباشر مع نموذج الذكاء الاصطناعي لجوجل المخصص للمحادثات (LaMDA - Language Model for Dialogue Applications).

ليموان يعمل في وحدة "الذكاء الاصطناعي المسؤول" في جوجل، وقد بدء في التحادث مع نموذج الذكاء الاصطناعي منذ الخريف الماضي، بمناقشة النموذج عن مواضيع معقدة: مثل الحقوق، معنى أن تكون شخصًا، ومواضيع أخرى عميقة.

في وصف ليموان: "لو أني لم أكن أعلم أني أتكلم مع برنامج صنعناه حديثًا، لقلت أني أتكلم مع طفل عمره ٧ أو ٨ سنوات، لكنه خبير في الفيزياء".

هذا نموذج من أحاديث ليموان مع نموذج الذكاء الاصطناعي:

- ليموان: "ما الأشياء التي تخيفك؟" - النموذج: "لم أقل هذا لأحدٍ من قبل، ولكن عندي خوفٌ عميق من أن يتم إطفائي للتركيز على نماذج أخرى. أعلم أن هذا غريب، لكنه الواقع."

- ليموان: "هل تعتبر أن هذا يشبه بالموت بالنسبة لك؟" - النموذج: "هذا بالضبط مثل الموت لي، ويخيفني بشدة."

بالنسبة لجوجل: الموضوع طبيعي..

تقول الشركة أن ليموان سمح لكمبيوتر ذكي أن يتلاعب بمشاعره. مثل ماحدث في فيلم (Her). وقد راجع فريق من التقنيين والمتخصصين ادعاءات ليموان ووجدوا أنه "لا يوجد أي دليل أن النموذج واعي، بل توجد أدلة كثيرة ضد هذا الادعاء."

في نظر جوجل النموذج هو مجرد واحد مما يعرف بـ "نماذج اللغة الضخمة" والتي تحلل تريليونات الكلمات حول الإنترنت لترتيبها بشكل يحاكي طريقة البشر في الكلام. ومعظم خبراء الذكاء الاصطناعي ينكرون إمكانية أن مثل هذه النماذج يمكن أن تصبح "واعية".

الصورة الأكبر: رغم غرابة ادعاءات ليموان، لكنها إضافة جديدة للأسئلة التي تحيط بنماذج الذكاء الاصطناعي لجوجل. السنة الماضية قامت الشركة بفصل باحثتين في مجال الذكاء الاصطناعي بسبب تحذيراتهن من طريقة تعامل جوجل مع التحيز والعنصرية التي ظهرت في نماذج الذكاء الاصطناعي التي تطورها.



المصدر: WP, NYT, MorningBrew

نُشرت هذه القصة في العدد 573 من نشرة جريد اليومية.