إن طرح منظمة العفو الدولية “المقلقة” يكشف عيوبه. إلى أي مدى يجب أن نكون معنيين؟

حذر الرئيس التنفيذي لشركة Google and Alphabet من أن المجتمع بحاجة إلى التحرك بسرعة للتكيف مع التوسع السريع للذكاء الاصطناعي (AI).
قال سوندار بيتشاي في 16 أبريل: “سيؤثر هذا على كل منتج في كل شركة” في مقابلة مع برنامج “60 دقيقة (يفتح في علامة تبويب جديدة). “في الشهر الماضي ، أطلقت Google برنامج chatbot الخاص بها ، Bard – وهو منافس لـ ChatGPT ، وهو برنامج الدردشة الآلي المعروف على نطاق واسع والذي أنتجته شركة OpenAI – على الرغم من المراجعات اللاذعة في الاختبار الداخلي ، وفقًا لـ البايت (يفتح في علامة تبويب جديدة).
يمكن لبرامج مثل ChatGPT و Bard إنتاج نص يبدو واثقًا ردًا على استفسارات المستخدم ، وهم يجدون بالفعل موطئ قدم في بعض المهام ، مثل الترميز ، كما قال إرنست ديفيس (يفتح في علامة تبويب جديدة)، عالم كمبيوتر في جامعة نيويورك. ومع ذلك ، فهم غالبًا ما يتجاهلون الحقائق الأساسية و “يهلوسون” ، بمعنى أنهم يختلقون المعلومات. في أحد الأمثلة الحديثة ، ChatGPT اخترع فضيحة تحرش جنسي (يفتح في علامة تبويب جديدة) وسمى أستاذ القانون الحقيقي بالجاني ، مع الاستشهادات بمقالات صحفية غير موجودة حول القضية.
إن قوة هذه البرامج – جنبًا إلى جنب مع عيوبها ، تثير قلق الخبراء بشأن الانتشار السريع للذكاء الاصطناعي. في حين أن موقف “Terminator” Skynet بعيد المنال ، فإن برامج الذكاء الاصطناعي لديها القدرة على تضخيم التحيز البشري ، وتجعل من الصعب تمييز المعلومات الحقيقية من الخاطئة ، وتعطيل التوظيف ، كما قال الخبراء لـ Live Science.
متعلق ب: اكتشف DeepMind AI بنية كل بروتين معروف للعلم تقريبًا
فائدة أم تحيز؟
خلال مناقشة “60 دقيقة” ، وصف المحاور سكوت بيلي قدرات روبوت الدردشة Bard بأنها “مقلقة” وقال “يبدو أن بارد يفكر”.
ومع ذلك ، فإن النماذج اللغوية الكبيرة مثل Bard ليست واعية سارة جودارزي (يفتح في علامة تبويب جديدة)، محرر مشارك في التقنيات التخريبية لنشرة علماء الذرة. قال جودارزي: “أعتقد أن هذا يحتاج إلى الوضوح حقًا”.
تنتج روبوتات الدردشة هذه التي تعمل بالذكاء الاصطناعي كتابة تبدو وكأنها إنسان من خلال تقديم استنتاجات إحصائية حول الكلمات التي من المحتمل أن تأتي بعد ذلك في الجملة ، بعد تدريبها على كميات هائلة من النصوص الموجودة مسبقًا. تعني هذه الطريقة أنه على الرغم من أن الذكاء الاصطناعي قد يبدو واثقًا بشأن كل ما يقوله ، إلا أنه لا يفهمه حقًا داميان ويليامز (يفتح في علامة تبويب جديدة)، وهو أستاذ مساعد في كلية علوم البيانات بجامعة نورث كارولينا يدرس التكنولوجيا والمجتمع.
قال ويليامز لـ Live Science إن برامج الدردشة الآلية هذه “لا تحاول إعطائك إجابات صحيحة ؛ إنهم يحاولون إعطائك إجابة تحبها”. أعطى مثالاً على لجنة AI التي حضرها مؤخرًا: طلب المتحدث التمهيدي من ChatGPT إنتاج سيرة ذاتية لها شانون فالور (يفتح في علامة تبويب جديدة)، عالمة أخلاقيات الذكاء الاصطناعي في جامعة إدنبرة في المملكة المتحدة ، حاول البرنامج منح Vallor خلفية تعليمية مرموقة أكثر مما كانت عليه في الواقع ، لأنه ببساطة لم يكن من المحتمل إحصائيًا أن شخصًا من مكانتها في هذا المجال التحق بكلية مجتمع و الجامعات الحكومية.
من السهل على الذكاء الاصطناعي ليس فقط نسخ أي تحيزات بشرية موجودة في بيانات التدريب ، ولكن أيضًا تضخيمها. على سبيل المثال ، في عام 2018 ، أسقطت أمازون أداة لفرز السيرة الذاتية بالذكاء الاصطناعي أظهرت تحيزًا مستمرًا ضد النساء. قال ويليامز إن منظمة العفو الدولية صنفت السير الذاتية بأسماء تبدو وكأنها أنثوية على أنها أقل تأهيلاً من تلك التي تشبه أسماء الذكور.
قال ويليامز: “هذا لأن البيانات التي تم التدريب عليها كانت تصنيف السير الذاتية للبشر”.
تمت برمجة برامج الذكاء الاصطناعي مثل ChatGPT لمحاولة تجنب الاستجابات العنصرية أو الجنسية أو الاستجابات غير المرغوب فيها. لكن ويليامز قال إن الحقيقة هي أنه لا يوجد شيء اسمه ذكاء اصطناعي “موضوعي”. سيشمل الذكاء الاصطناعي دائمًا القيم الإنسانية والتحيزات البشرية ، لأنه صنعه البشر.
قال ويليامز: “بطريقة أو بأخرى ، سيكون لها نوع من المنظور الذي يدعم كيفية بنائه”. “السؤال هو ، هل نريد أن ندع ذلك يحدث بالصدفة كما كنا نفعل … أم أننا نريد أن نكون مقصدين بشأنه؟”
بناء إجراءات وقائية للذكاء الاصطناعي
حذر بيتشاي من أن الذكاء الاصطناعي يمكن أن يزيد من حجم المعلومات المضللة. بالفعل ، تم دبلجة مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي “التزييف العميق“أصبحت أكثر إقناعًا وأصعب تمييزًا عن الواقع. تريد ذلك تحريك “الموناليزا” أو إعادة ماري كوري للحياة؟ يمكن لتكنولوجيا Deepfake القيام بعمل مقنع بالفعل.
قال بيتشاي إن المجتمعات بحاجة إلى تطوير معاهدات التنظيم والقلم لضمان استخدام الذكاء الاصطناعي بشكل مسؤول.
وقال بيتشاي في برنامج “60 دقيقة”: “ليس للشركة أن تقرر”. “هذا هو السبب في أنني أعتقد أن تطوير هذا لا يجب أن يشمل فقط المهندسين ولكن علماء الاجتماع وعلماء الأخلاق والفلاسفة وما إلى ذلك.”
قال ويليامز إنه حتى الآن ، تخضع اللوائح المتعلقة بالذكاء الاصطناعي إلى حد كبير للقوانين المصممة لتغطية التقنيات القديمة. لكن كانت هناك محاولات لبناء هيكل تنظيمي أكثر شمولاً. في عام 2022 ، نشر مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا (OSTP) “منظمة العفو الدولية شرعة الحقوق (يفتح في علامة تبويب جديدة)، “مخطط يهدف إلى تعزيز التطوير الأخلاقي للذكاء الاصطناعي الذي يركز على الإنسان. وتغطي الوثيقة قضايا الإنصاف والضرر المحتمل ، كما قال ويليامز ، لكنها تتجاهل بعض المشكلات المقلقة ، مثل تطوير ونشر الذكاء الاصطناعي من قبل تطبيق القانون والجيش .
قال ويليامز إن المرشحين السياسيين للوكالات والإدارات الفيدرالية يتم اختيارهم بشكل متزايد من أشخاص لديهم إحساس بتكاليف وفوائد الذكاء الاصطناعي. قال ويليامز إن ألفارو بيدويا ، المفوض الحالي للجنة التجارة الفيدرالية ، كان المدير المؤسس لمركز جورج تاون القانوني للخصوصية والتكنولوجيا ولديه خبرة في التكنولوجيا والأخلاق ، في حين أن ألوندرا نيلسون ، المدير المؤقت السابق لـ OSTP ، كان لديه مهنة طويلة في دراسة العلوم والتكنولوجيا وعدم المساواة. وقال ويليامز إن الطريق ما زال طويلاً لبناء محو الأمية التكنولوجية بين السياسيين وصانعي السياسات.
“ما زلنا في فضاء السماح للعديد من الشركات الكبيرة بتوجيه تطوير وتوزيع ما يمكن أن يكون تقنيات قوية جدًا ، ولكن التقنيات غير الشفافة والتي يتم تضمينها في حياتنا اليومية بطرق لا نملك عليها السيطرة “، قال.