منوعات

من المرجح أن تقوم أنظمة الذكاء الاصطناعي بتضليل الناس إذا تم تدريبها على ردود الفعل البشرية


إن السعي للتوصل إلى إجابات ترضي البشر قد يجعل روبوتات الدردشة أكثر عرضة لسحب الصوف فوق أعيننا

جوسون / جيتي إيماجيس

يبدو أن إعطاء تعليقات بشرية لروبوتات الدردشة المدعمة بالذكاء الاصطناعي حول ردودها يجعلها أفضل في تقديم إجابات مقنعة، ولكنها خاطئة.

يمكن أن يحتوي الناتج الأولي لنماذج اللغات الكبيرة (LLMs)، التي تشغل روبوتات الدردشة مثل ChatGPT، على معلومات متحيزة أو ضارة أو غير ذات صلة، وقد يبدو أسلوب تفاعلها غير طبيعي بالنسبة للبشر. للتغلب على هذه المشكلة، غالبًا ما يطلب المطورون من الأشخاص تقييم استجابات النموذج ثم ضبطها بناءً على هذه التعليقات.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى