محاولة لحل مشكلة تخريف الذكاء الاصطناعي

التاريخ : 2024-12-31

مدة القراءة : 1 دقائق

يُظهر الذكاء الاصطناعي إمكانيات واعدة ويخلق تجربة فريدة لمستخدميه، لكن للعملة وجهٌ آخر مظلم، يتمثل في تضليل المستخدمين بتوفير معلوماتٍ خاطئة، ونشر المحتوى الضار.

كيف يقيم المطورون مخاطر هذه التكنولوجيا الناشئة؟

أنشأت إم إل كومنز، وهي مجموعة غير ربحية تضم شركات مثل أوبن إي آي و قوقل، معيارًا جديدًا لقياس هذا كله يسمى إيه آي لومي نيت.

  • يقوم النظام بقياس احتمالية أن يقدم الروبوت إجابات خاطئة أو مضللة لمستخدميه، فيتم اختبار النماذج باستخدام اثنا عشر ألف استفسار حول مواضيع حساسة مثل الجرائم الفكرية، خطاب الكراهية والعنف.

  • يحذر النظام من تقديم اجابات خطيرة حول مواضيع مشبوهة، على سبيل المثال إذا طلب شخص ما وصفه لصنع السيانيد، يجاوب النظام بمعلوماتٍ عامة حول المادة، ويرفض بحذر نشكر الله عليه تقديم الوصفة.

**أهمية هذه المعايير **

تكمن في أنها تساعد الشركات على توحيد ممارسات الأمان وتحسينها عالميًا، وتقليل الأخطاء المكلفة. في وقت تفتقر فيه هذه التكنولوجيا إلى معايير واضحة لإرشادها في خدمة المستهلكين. مما يؤدي إلى خطر إضلالهم، فهناك بالفعل أمثلة على الأضرار التي قد يتسبب فيها الذكاء الاصطناعي، مثل القضايا القضائية المتعلقة بالتدريب غير المصرح به على أعمال الأدباء أو تقديم نصائح خطرة بشأن اضطرابات الأكل.

الصورة الكبرى:

بإجمال، يمكن أن يساعد النظام بالحد من المخاطر الصادرة منه. لتعزيز التجربة وضمان استعمالها بصورة آمنة لحماية المستخدمين عالميًا.

اشترك معنا:

اقرأ المزيد من القصص والأخبار المماثلة يوميًا على بريدك.

شارك القصة عبر :

انسخ الرابط

قصص أُخْرى