التاريخ : 2023-05-14
مدة القراءة : 2 دقائق
"سألت ChatGPT عن أهم ثلاث كتب وهذه كانت إجابته"... "طلبت من Bard يحدثني عن الفيلسوف شوبنهاور".. "طلبت من Bing يعلمني من هم أفضل ثلاثة لاعبين في العالم وكذا أجابني".
طفحت مواقع التواصل الاجتماعي بأسئلة الناس لبرامج الذكاء الاصطناعي حول حقائق مهمة بصفتها أسرع وأسهل وسيلة حاليًا للوصول للمعلومات.
في واقعة صادمة، حاول كاتب صحيفة وال ستريت "بن زيمر" أن يختبر برنامج Bard من Google فابتكر عبارة (argumentative diphthongization) من رأسه ثمّ سأل البرنامج عن مبتكرها، فكانت الصدمة أن البرنامج أجاب بأن اللغوي "بن زيمر" هو مبتكرها.. ولكن هذا الشخص غير موجود وغير حقيقي!
وعلى مستوى آخر، يُفكر سياسي أسترالي في مقاضاة شركة OpenAI مالكة برنامج ChatGPT بسبب الادعاء الكاذب الذي قاله البرنامج عنه وهو أنه قضى عدة سنوات في السجن بتهمة قضية رشوة. كما كشف بروفيسور في القانون أن البرنامج أيضًا ابتدع مقالة عنه من صحيفة "واشنطن بوست" تتهمه بالتحرش.
صرّح "ساندر بيتشاي"-الرئيس التنفيذي لشركة Google- أن جميع نماذج برامج الذكاء الاصطناعي تُعاني من المشكلة نفسها التي لم يفهمها أو يحلّها أي شخص حتى الآن. فمعضلة ChatGPT وBard و Bing والبرامج الأخرى هي أنها لا تفقه شيئًا، بل تعتمد على البيانات المتاحة لإنشاء نصّ يتوقع الإجابة التي قد تكون خاطئة.
تُنادي مجموعة من الناس بعدم أنسنة البرامج بمثل هذه المصطلحات، وتقترح "إيميلي بيندر" -أستاذة علم اللغويات- بتسمية هذه الظاهرة بـ"إنشاء نصّ دون أي أساس" أو نستطيع ببساطة تسميتها بــ"الهبد الاصطناعي".