كيفية تجنب الانخداع بالمعلومات الخاطئة التي يولدها الذكاء الاصطناعي

تبدو العديد من الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي واقعية حتى تلقي نظرة فاحصة
منتصف الرحلة
هل لاحظت أن الصورة أعلاه تم إنشاؤها بواسطة الذكاء الاصطناعي؟ قد يكون من الصعب اكتشاف الصور ومقاطع الفيديو والصوت والنصوص التي ينتجها الذكاء الاصطناعي في الوقت الذي يجعل فيه التقدم التكنولوجي تمييزها بشكل متزايد عن الكثير من المحتوى الذي أنشأه الإنسان، مما يتركنا عرضة للتلاعب عن طريق المعلومات المضللة. ولكن من خلال معرفة الوضع الحالي لتقنيات الذكاء الاصطناعي المستخدمة لإنشاء معلومات مضللة، ومجموعة العلامات التي تشير إلى أن ما تنظر إليه قد يكون مزيفًا، يمكنك المساعدة في حماية نفسك من الانخداع.
زعماء العالم يشعرون بالقلق. وفقاً لتقرير صادر عن المنتدى الاقتصادي العالمي، فإن المعلومات الخاطئة والمعلومات المضللة قد “تعطل بشكل جذري العمليات الانتخابية في العديد من الاقتصادات على مدى العامين المقبلين”، في حين أن سهولة الوصول إلى أدوات الذكاء الاصطناعي “مكنت بالفعل من حدوث انفجار في المعلومات المزيفة وما يسمى بـ “المعلومات الاصطناعية””. “المحتوى، من استنساخ الصوت المتطور إلى مواقع الويب المزيفة”.
يشير المصطلحان “معلومات مضللة” و”معلومات مضللة” إلى معلومات خاطئة أو غير دقيقة، ولكن المعلومات المضللة هي المعلومات التي تهدف عمدًا إلى الخداع أو التضليل.
يقول هاني فريد من جامعة كاليفورنيا في بيركلي: “إن مشكلة المعلومات المضللة المدعومة بالذكاء الاصطناعي هي الحجم والسرعة والسهولة التي يمكن بها إطلاق الحملات”. “لن تحتاج هذه الهجمات بعد الآن إلى جهات فاعلة ترعاها الدولة أو منظمات جيدة التمويل – يمكن لفرد واحد لديه إمكانية الوصول إلى بعض القوة الحاسوبية المتواضعة إنشاء كميات هائلة من المحتوى المزيف.”
ويقول إن الذكاء الاصطناعي التوليدي (انظر المسرد أدناه) “يلوث النظام البيئي للمعلومات بأكمله، ويلقي الشك على كل ما نقرأه ونراه ونسمعه”. ويقول إن بحثه يشير إلى أنه في كثير من الحالات، لا يمكن تمييز الصور والصوت الناتج عن الذكاء الاصطناعي عن الواقع.
ومع ذلك، يكشف البحث الذي أجراه فريد وآخرون أن هناك استراتيجيات يمكنك اتباعها لتقليل خطر الوقوع في فخ المعلومات الخاطئة على وسائل التواصل الاجتماعي أو المعلومات المضللة التي ينشئها الذكاء الاصطناعي.
كيفية اكتشاف الصور المزيفة بالذكاء الاصطناعي
هل تتذكر رؤية صورة البابا فرانسيس وهو يرتدي سترة منتفخة؟ أصبحت صور الذكاء الاصطناعي المزيفة هذه أكثر شيوعًا حيث أتاحت الأدوات الجديدة المستندة إلى نماذج الانتشار (انظر المسرد أدناه) لأي شخص البدء في إنتاج الصور من خلال مطالبات نصية بسيطة. وجدت إحدى الدراسات التي أجراها نيكولاس دوفور من شركة جوجل وزملاؤه زيادة سريعة في نسبة الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي في ادعاءات المعلومات الخاطئة التي تم التحقق منها منذ أوائل عام 2023 فصاعدًا.
يقول نيجار كمالي من جامعة نورث وسترن في إلينوي: “في الوقت الحاضر، يتطلب محو الأمية الإعلامية محو الأمية في مجال الذكاء الاصطناعي”. وفي دراسة أجريت عام 2024، حددت هي وزملاؤها خمس فئات مختلفة من الأخطاء في الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي (موضحة أدناه) وقدمت إرشادات حول كيفية اكتشاف الأشخاص لهذه الأخطاء بأنفسهم. والخبر السار هو أن أبحاثهم تشير إلى أن الأشخاص حاليًا دقيقون بنسبة 70% تقريبًا في اكتشاف صور الذكاء الاصطناعي المزيفة للأشخاص. يمكنك استخدام اختبار الصور الخاص بهم عبر الإنترنت لتقييم مهاراتك في التجسس.
5 أنواع شائعة من الأخطاء في الصور التي ينشئها الذكاء الاصطناعي:
- التناقضات الاجتماعية والثقافية: هل المشهد يصور سلوكًا نادرًا أو غير عادي أو مفاجئًا لثقافات معينة أو لشخصيات تاريخية معينة؟
- الاستحالة التشريحية: ألقِ نظرة فاحصة: هل أجزاء الجسم مثل الأيدي ذات شكل أو حجم غير عادي؟ هل تبدو العيون أو الأفواه غريبة؟ هل تم دمج أي أجزاء من الجسم؟
- التحف الأسلوبية: هل تبدو الصورة غير طبيعية، أو مثالية للغاية، أو أسلوبية؟ هل تبدو الخلفية غريبة أم أنها تفتقد شيئًا ما؟ هل الإضاءة غريبة أم متغيرة؟
- الاستحالة الوظيفية: هل تبدو أي أشياء غريبة أو قد لا تكون حقيقية أو عملية؟ على سبيل المثال، هل توجد الأزرار أو أبازيم الحزام في أماكن غريبة؟
- مخالفات الفيزياء: هل الظلال تشير إلى اتجاهات مختلفة؟ هل انعكاسات المرآة متوافقة مع العالم الموضح داخل الصورة؟

يمكن أن تكون الأشياء والسلوكيات الغريبة أدلة على أن الصورة قد تم إنشاؤها بواسطة الذكاء الاصطناعي
منتصف الرحلة
كيفية التعرف على مقاطع الفيديو العميقة
أتاحت تقنية الذكاء الاصطناعي المعروفة باسم شبكات الخصومة التوليدية (انظر المسرد أدناه) للأفراد البارعين في التكنولوجيا إنشاء فيديوهات مزيفة بعمق منذ عام 2014 – التلاعب رقميًا بمقاطع الفيديو الحالية لأشخاص لتبادل الوجوه المختلفة وإنشاء تعبيرات وجه جديدة وإدراج صوت منطوق جديد يتماشى مع المطابقة مزامنة الشفاه. وقد مكّن هذا مجموعة متزايدة من المحتالين والمتسللين المدعومين من الدولة ومستخدمي الإنترنت من إنتاج فيديوهات مزيفة بعمق، حيث قد يجد المشاهير مثل تايلور سويفت والأشخاص العاديين على حدٍ سواء أنفسهم معروضين على غير قصد في المواد الإباحية العميقة غير التوافقية وعمليات الاحتيال والمعلومات السياسية المضللة أو المعلومات المضللة.
يمكن تطبيق تقنيات اكتشاف الصور المزيفة المدعومة بالذكاء الاصطناعي (انظر أعلاه) على مقاطع الفيديو المشبوهة أيضًا. بالإضافة إلى ذلك، قام الباحثون في معهد ماساتشوستس للتكنولوجيا وجامعة نورث وسترن في إلينوي بتجميع بعض النصائح حول كيفية اكتشاف مثل هذه التزييفات العميقة، لكنهم أقروا بأنه لا توجد طريقة مضمونة تنجح دائمًا.
6 نصائح لاكتشاف مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي:
- حركات الفم والشفاه: هل هناك لحظات لا تتم فيها مزامنة الفيديو والصوت بشكل كامل؟
- مواطن الخلل التشريحية: هل يبدو الوجه أو الجسم غريبًا أو يتحرك بشكل غير طبيعي؟
- وجه: ابحث عن التناقضات في نعومة الوجه أو التجاعيد حول الجبهة والخدين، بالإضافة إلى شامات الوجه.
- إضاءة: هل الإضاءة غير متناسقة؟ هل تتصرف الظلال كما تتوقع؟ انتبه بشكل خاص إلى عيون الشخص وحواجبه ونظاراته.
- شعر: هل يبدو شعر الوجه غريبًا أم يتحرك بطرق غريبة؟
- وامض: يمكن أن يكون الوميض كثيرًا أو قليلًا جدًا علامة على وجود تزييف عميق.
تعتمد فئة أحدث من مقاطع الفيديو المزيفة بعمق على نماذج الانتشار (انظر المسرد أدناه) – نفس تقنية الذكاء الاصطناعي المستخدمة في العديد من مولدات الصور – والتي يمكنها إنشاء مقاطع فيديو تم إنشاؤها بواسطة الذكاء الاصطناعي بالكامل بناءً على المطالبات النصية. تقوم الشركات بالفعل باختبار وإصدار إصدارات تجارية من مولدات الفيديو المدعومة بالذكاء الاصطناعي والتي يمكن أن تسهل على أي شخص القيام بذلك دون الحاجة إلى معرفة تقنية خاصة. حتى الآن، تميل مقاطع الفيديو الناتجة إلى إظهار وجوه مشوهة أو حركات غريبة للجسم.
يقول كمالي: “من المحتمل أن تكون مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي أسهل على الأشخاص من اكتشاف الصور، لأن هناك الكثير من الحركة وهناك الكثير من الفرص للمصنوعات اليدوية والمستحيلات التي يولدها الذكاء الاصطناعي”.
كيفية التعرف على روبوتات الذكاء الاصطناعي
أصبحت حسابات الوسائط الاجتماعية التي تسيطر عليها روبوتات الكمبيوتر شائعة في العديد من وسائل التواصل الاجتماعي ومنصات المراسلة. يستفيد عدد متزايد من هذه الروبوتات أيضًا من تقنيات الذكاء الاصطناعي التوليدية مثل نماذج اللغة الكبيرة (انظر المسرد أدناه) منذ عام 2022. وهذا يجعل من السهل والرخيص إنتاج محتوى مكتوب بالذكاء الاصطناعي من خلال آلاف الروبوتات التي يتم تحليلها نحويًا. صحيحة ومخصصة بشكل مقنع لمختلف المواقف.
يقول بول برينر من جامعة نوتردام بولاية إنديانا: لقد أصبح من الأسهل كثيرًا «تخصيص هذه النماذج اللغوية الكبيرة لجماهير محددة برسائل محددة».
وقد وجد برينر وزملاؤه في بحثهم أن المتطوعين لم يتمكنوا من التمييز بين الروبوتات التي تعمل بالذكاء الاصطناعي والبشر إلا في حوالي 42% من الوقت، على الرغم من إخبار المشاركين أنهم من المحتمل أن يتفاعلوا مع الروبوتات. يمكنك اختبار مهاراتك في اكتشاف الروبوتات هنا.
يقول برينر إن بعض الاستراتيجيات يمكن أن تساعد في تحديد روبوتات الذكاء الاصطناعي الأقل تطورًا.
5 طرق لتحديد ما إذا كان حساب الوسائط الاجتماعية عبارة عن روبوت يعمل بالذكاء الاصطناعي:
- الرموز التعبيرية والهاشتاجات: الاستخدام المفرط لهذه يمكن أن يكون علامة.
- الصياغة أو اختيار الكلمات أو القياسات غير الشائعة: يمكن أن تشير الصياغة غير المعتادة إلى وجود روبوت يعمل بالذكاء الاصطناعي.
- التكرار والبنية: قد تستخدم الروبوتات صياغة متكررة تتبع أشكالًا متشابهة أو جامدة وقد تبالغ في استخدام بعض المصطلحات العامية.
- طرح الأسئلة: يمكن أن تكشف هذه المعلومات عن افتقار الروبوت إلى المعرفة حول موضوع ما – خاصة عندما يتعلق الأمر بالأماكن والمواقف المحلية.
- افترض الأسوأ: إذا لم يكن حساب الوسائط الاجتماعية عبارة عن جهة اتصال شخصية ولم يتم التحقق من صحة هويته أو التحقق منها بشكل واضح، فمن الممكن أن يكون روبوتًا يعمل بالذكاء الاصطناعي.
كيفية اكتشاف استنساخ الصوت والتزييف العميق للكلام
استنساخ الصوت (انظر المسرد أدناه) جعلت أدوات الذكاء الاصطناعي من السهل إنشاء صوت منطوق جديد يمكنه تقليد أي شخص عمليًا. وقد أدى ذلك إلى ظهور عمليات الاحتيال الصوتي العميق التي تستنسخ أصوات أفراد العائلة والمديرين التنفيذيين للشركات والقادة السياسيين مثل الرئيس الأمريكي جو بايدن. قد يكون التعرف عليها أكثر صعوبة مقارنة بمقاطع الفيديو أو الصور التي يتم إنشاؤها بواسطة الذكاء الاصطناعي.
تقول راشيل توباك، المؤسس المشارك لمنظمة SocialProof Security، وهي منظمة قرصنة ذات قبعة بيضاء: “إن الاستنساخ الصوتي يمثل تحديًا خاصًا للتمييز بين الحقيقي والمزيف، لأنه لا توجد مكونات مرئية لدعم أدمغتنا في اتخاذ هذا القرار”.
يمكن أن يكون اكتشاف مثل هذه التزييفات الصوتية العميقة التي تعمل بالذكاء الاصطناعي أمرًا صعبًا بشكل خاص عند استخدامها في مكالمات الفيديو والمكالمات الهاتفية. ولكن هناك بعض الخطوات المنطقية التي يمكنك اتباعها لتمييز البشر الحقيقيين عن الأصوات التي يولدها الذكاء الاصطناعي.
4 خطوات للتعرف على ما إذا كان الصوت قد تم استنساخه أو تزييفه باستخدام الذكاء الاصطناعي:
- الشخصيات العامة: إذا كان المقطع الصوتي لمسؤول منتخب أو أحد المشاهير، فتحقق مما إذا كان ما يقولونه يتوافق مع ما تم الإبلاغ عنه علنًا أو مشاركته حول آرائهم وسلوكهم.
- ابحث عن التناقضات: قارن المقطع الصوتي مع مقاطع الفيديو أو المقاطع الصوتية التي تمت مصادقتها مسبقًا والتي تحتوي على صوت الشخص نفسه. هل هناك أي تناقضات في صوتهم أو سلوكياتهم في الكلام؟
- صمت محرج: إذا كنت تستمع إلى مكالمة هاتفية أو بريد صوتي ويتوقف المتحدث لفترة طويلة بشكل غير معتاد أثناء التحدث، فمن المحتمل أنه يستخدم تقنية استنساخ الصوت المدعومة بالذكاء الاصطناعي.
- كلام غريب وغريب: يمكن لأي أنماط كلام روبوتية أو طريقة كلام مطولة بشكل غير عادي أن تشير إلى أن شخصًا ما يستخدم مزيجًا من استنساخ الصوت لتقليد صوت الشخص ونموذجًا لغويًا كبيرًا لتوليد الصياغة الدقيقة.

يمكن لشخصيات عامة، مثل ناريندرا مودي، أن تتصرف بشكل لا يتوافق مع شخصيته، وهو أمر يمكن أن يكون بمثابة هبة للذكاء الاصطناعي
@the_indian_deepfaker
التكنولوجيا سوف تتحسن فقط
في الوقت الحالي، لا توجد قواعد ثابتة يمكنها دائمًا التمييز بين المحتوى الناتج عن الذكاء الاصطناعي والمحتوى البشري الأصيل. من المؤكد تقريبًا أن نماذج الذكاء الاصطناعي القادرة على إنشاء النصوص والصور والفيديو والصوت ستستمر في التحسن، ويمكنها في كثير من الأحيان إنتاج محتوى يبدو أصيلًا بسرعة دون أي أعمال فنية أو أخطاء واضحة. يقول توباك: “كن مذعورًا بأدب وأدرك أن الذكاء الاصطناعي كان يتلاعب بالصور ومقاطع الفيديو والصوت ويصنعها بسرعة – فنحن نتحدث عن الانتهاء في 30 ثانية أو أقل”. “وهذا يجعل من السهل على الأفراد الخبيثين الذين يتطلعون إلى خداع الأشخاص تغيير المعلومات المضللة الناتجة عن الذكاء الاصطناعي بسرعة، والوصول إلى وسائل التواصل الاجتماعي في غضون دقائق من الأخبار العاجلة.”
في حين أنه من المهم مراقبة المعلومات الكاذبة التي ينتجها الذكاء الاصطناعي وتعلم كيفية طرح المزيد من الأسئلة حول ما تقرأه وتراه وتسمعه، إلا أن هذا لن يكون كافيًا في النهاية لوقف الضرر ولا يمكن أن تقع مسؤولية اكتشاف المنتجات المزيفة بشكل كامل. على الأفراد. فريد هو من بين الباحثين الذين يقولون إن الهيئات التنظيمية الحكومية يجب أن تحاسب أكبر شركات التكنولوجيا – إلى جانب الشركات الناشئة المدعومة من مستثمرين بارزين في وادي السليكون – التي طورت العديد من الأدوات التي تغمر الإنترنت بمحتوى مزيف من إنتاج الذكاء الاصطناعي. يقول فريد: “التكنولوجيا ليست محايدة”. “هذا الخط الذي باعه لنا قطاع التكنولوجيا والذي بطريقة ما لا يضطر إلى تحمل المسؤولية كما تفعل كل صناعة أخرى، أنا ببساطة أرفضه”.
نماذج الانتشار: نماذج الذكاء الاصطناعي التي تتعلم عن طريق إضافة تشويش عشوائي إلى البيانات أولاً – مثل تعتيم الصورة – ثم عكس العملية لاستعادة البيانات الأصلية.
شبكات الخصومة التوليدية: طريقة للتعلم الآلي تعتمد على شبكتين عصبيتين تتنافسان من خلال تعديل البيانات الأصلية ثم محاولة التنبؤ بما إذا كانت البيانات الناتجة أصلية أم حقيقية.
الذكاء الاصطناعي التوليدي: فئة واسعة من نماذج الذكاء الاصطناعي التي يمكنها إنتاج النصوص والصور والصوت والفيديو بعد تدريبها على أشكال مماثلة من هذا المحتوى.
نماذج لغوية كبيرة: مجموعة فرعية من نماذج الذكاء الاصطناعي التوليدية التي يمكنها إنتاج أشكال مختلفة من المحتوى المكتوب استجابة للمطالبات النصية وفي بعض الأحيان تترجم بين لغات مختلفة.
استنساخ الصوت: طريقة استخدام نماذج الذكاء الاصطناعي لإنشاء نسخة رقمية من صوت الشخص ومن ثم إمكانية إنشاء عينات كلام جديدة بهذا الصوت.
المواضيع: