Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
منوعات

هل يمكن كبح جماح روبوتات الدردشة المدعمة بالذكاء الاصطناعي من خلال واجب قانوني يتمثل في قول الحقيقة؟


يتم طرح روبوتات الدردشة المدعمة بالذكاء الاصطناعي بسرعة لمجموعة واسعة من الوظائف

أندريه أونوفرينكو / غيتي إميجز

هل يمكن جعل الذكاء الاصطناعي يقول الحقيقة؟ ربما لا، لكن مطوري روبوتات الدردشة ذات النماذج اللغوية الكبيرة (LLM) يجب أن يكونوا مطالبين قانونيًا بالتقليل من مخاطر الأخطاء، كما يقول فريق من علماء الأخلاق.

يقول برنت ميتلشتات من جامعة أكسفورد: “ما نحاول القيام به هو إنشاء هيكل حوافز لحمل الشركات على التركيز بشكل أكبر على الحقيقة أو الدقة عندما تقوم بإنشاء الأنظمة”.

تقوم روبوتات الدردشة LLM، مثل ChatGPT، بإنشاء استجابات شبيهة بالردود البشرية على أسئلة المستخدمين، بناءً على التحليل الإحصائي لكميات هائلة من النصوص. ولكن على الرغم من أن إجاباتهم عادة ما تبدو مقنعة، إلا أنهم أيضًا عرضة للأخطاء – وهو خلل يشار إليه باسم “الهلوسة”.

يقول ميتلشتات: “لدينا أنظمة ذكاء اصطناعي توليدية مثيرة للإعجاب حقًا، لكنها تخطئ في كثير من الأحيان، وبقدر ما نستطيع فهم الأداء الأساسي للأنظمة، لا توجد طريقة أساسية لإصلاح ذلك”.

هذه “مشكلة كبيرة جدًا” لأنظمة LLM، نظرًا لأنه يتم نشرها لاستخدامها في مجموعة متنوعة من السياقات، مثل القرارات الحكومية، حيث من المهم أن تنتج إجابات صحيحة وصادقة وصادقة بشأن القيود من معرفتهم، كما يقول.

ولمعالجة هذه المشكلة، يقترح هو وزملاؤه مجموعة من التدابير. يقولون أن نماذج اللغة الكبيرة يجب أن تتفاعل بطريقة مماثلة لكيفية تفاعل الأشخاص عندما تُطرح عليهم أسئلة واقعية.

وهذا يعني أن تكون صادقًا بشأن ما تفعله وما لا تعرفه. يقول ميتلشتات: “يتعلق الأمر باتخاذ الخطوات اللازمة لتوخي الحذر فيما تطالب به”. “إذا لم تكن متأكدًا من شيء ما، فلن تقوم فقط باختلاق شيء ما لكي تكون مقنعًا. بل قد تقول: “مهلا، هل تعلم ماذا؟” لا أعرف. اسمحوا لي أن ننظر في ذلك. سأعود إليك.”

ويبدو هذا هدفًا جديرًا بالثناء، لكن إيرك بويتن من جامعة دي مونتفورت بالمملكة المتحدة يتساءل عما إذا كان مطلب علماء الأخلاق ممكنًا من الناحية الفنية. تحاول الشركات إقناع حاملي شهادة الماجستير في القانون بالالتزام بالحقيقة، ولكن حتى الآن ثبت أن هذا الأمر يتطلب عمالة كثيفة لدرجة أنه غير عملي. ويقول: “لا أفهم كيف يتوقعون أن تفرض المتطلبات القانونية ما أعتبره مستحيلًا من الناحية التكنولوجية بشكل أساسي”.

يقترح ميتلشتات وزملاؤه بعض الخطوات الأكثر وضوحًا التي يمكن أن تجعل حاملي الماجستير في القانون أكثر صدقًا. ويقول إن النماذج يجب أن ترتبط بالمصادر، وهو أمر يفعله الكثير منهم الآن لإثبات ادعاءاتهم، في حين أن الاستخدام الأوسع لتقنية تعرف باسم الاسترجاع المعزز للتوصل إلى إجابات يمكن أن يحد من احتمالية الهلوسة.

ويرى أيضًا أنه ينبغي تقليص عدد LLMs المنتشر في المناطق عالية المخاطر، مثل صنع القرار الحكومي، أو تقييد المصادر التي يمكنهم الاعتماد عليها. ويقول: “إذا كان لدينا نموذج لغوي أردنا استخدامه في الطب فقط، فربما نقوم بتقييده بحيث لا يتمكن إلا من البحث في المقالات الأكاديمية المنشورة في المجلات الطبية عالية الجودة”.

يقول ميتلشتات إن تغيير المفاهيم مهم أيضًا. “إذا تمكنا من الابتعاد عن فكرة ذلك [LLMs] يقول: “إنهم جيدون في الإجابة على الأسئلة الواقعية، أو على الأقل سيعطونك إجابة موثوقة على الأسئلة الواقعية، وبدلاً من ذلك ينظرون إليها على أنها شيء يمكن أن يساعدك في الحقائق التي تقدمها لهم، سيكون ذلك جيدًا”.

تقول كاتالينا جوانتا من جامعة أوتريخت في هولندا إن الباحثين يركزون كثيرًا على التكنولوجيا، ولا يركزون بدرجة كافية على قضايا الأكاذيب طويلة المدى في الخطاب العام. وتقول: “إن التشهير بحاملي ماجستير إدارة الأعمال وحدهم في مثل هذا السياق يخلق انطباعًا بأن البشر مجتهدون تمامًا، ولن يرتكبوا مثل هذه الأخطاء أبدًا”. “اسأل أي قاض تقابله، في أي ولاية قضائية، وسوف يكون لديه قصص رعب عن إهمال المحامين والعكس صحيح – وهذه ليست مشكلة الآلة”.

المواضيع:

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى