تعثرت بسبب المعلومات الخاطئة؟ إليك تجديد معلومات حول تحديد الذكاء الاصطناعي
لا تنظر أبعد من حرب إيران. منذ أن هاجمت الولايات المتحدة وإسرائيل إيران في 28 فبراير، حدد الباحثون عددًا غير مسبوق من الصور الكاذبة والمضللة التي تم إنشاؤها باستخدام الذكاء الاصطناعي ووصلت إلى عدد لا يحصى من الأشخاص حول العالم. من بينها، لقطات مزيفة لتفجيرات لم تحدث أبدًا، وصور لجنود من المفترض أنهم تم أسرهم، ومقاطع فيديو دعائية أنشأتها إيران تصور الرئيس دونالد ترامب وآخرين على أنهم منمنمات ممتلئة الجسم تشبه لعبة الليغو.
يشاهد: يحذر النقاد من أن محتوى الذكاء الاصطناعي يزيد من الارتباك وينشر معلومات مضللة
إن يوم الخميس، وهو اليوم الدولي السنوي العاشر لتقصي الحقائق، يوفر فرصة جيدة للنظر في هذه التحديات الناشئة.
تتم مشاركة المعلومات الخاطئة التي تم إنشاؤها باستخدام الذكاء الاصطناعي بسرعة غير مسبوقة من عدد لا نهاية له من المصادر. منذ بداية حرب إيران، روجت روايات من جميع أطراف الصراع لمثل هذا المحتوى.
يقوم معهد الحوار الاستراتيجي، الذي يتتبع المعلومات المضللة والتطرف عبر الإنترنت، بفحص منشورات وسائل التواصل الاجتماعي حول حرب إيران. ومن بين النتائج التي توصلوا إليها كانت مجموعة من حسابات X التي تنشر بانتظام محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي وحصلت بشكل جماعي على أكثر من مليار مشاهدة منذ بدء الصراع. تم ذلك من خلال ما يقرب من عشرين حسابًا، العديد منها تم التحقق منها باستخدام التحقق الأزرق.
يشاهد: لماذا صنفت PolitiFact عام 2025 على أنه “عام الأكاذيب”
فيما يلي بعض النصائح لتمييز المحتوى الناتج عن الذكاء الاصطناعي عن الواقع في عالم الإنترنت حيث لا يزال الأمر أكثر صعوبة.
ابحث عن الإشارات البصرية
عندما بدأت الصور التي أنشأها الذكاء الاصطناعي في الانتشار على نطاق واسع عبر الإنترنت، كانت هناك في كثير من الأحيان دلائل واضحة يمكن أن تحدد أنها ملفقة. ربما كان لدى الشخص عدد قليل جدًا من الأصابع – أو كثير جدًا – أو كان صوته غير متزامن مع فمه. ربما كان النص غير منطقي. كانت الكائنات مشوهة في كثير من الأحيان أو فقدت مكونات رئيسية. مع استمرار تطور التكنولوجيا، لم تعد هذه القرائن شائعة كما كانت من قبل، ولكن لا يزال الأمر يستحق البحث عنها. انتبه إلى التناقضات، مثل ظهور سيارة في مقطع فيديو في إحدى اللحظات ثم اختفائها في اللحظة التالية أو الإجراءات غير الممكنة وفقًا لقوانين الفيزياء. قد تكون بعض الصور أيضًا مصقولة بشكل مفرط أو ذات لمعان غير طبيعي.
ابحث عن مصدر
تتم مشاركة الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي مرارًا وتكرارًا. إحدى الطرق لتحديد صحتها (أو عدم وجودها) هي البحث عن أصلها. يعد استخدام البحث العكسي عن الصور طريقة بسيطة للقيام بذلك. إذا كنت تشاهد مقطع فيديو، فالتقط لقطة شاشة أولاً. يمكن أن يؤدي ذلك إلى إنشاء حساب على وسائل التواصل الاجتماعي يقوم على وجه التحديد بإنشاء محتوى الذكاء الاصطناعي، أو صورة قديمة يتم تحريفها، أو شيء غير متوقع تمامًا.
استمع للخبراء
ابحث عن مصادر متعددة تم التحقق منها والتي يمكن أن تساعد في التحقق من الصورة. على سبيل المثال، يمكن أن يعني ذلك التحقق من الحقائق من خلال وسيلة إعلامية حسنة السمعة، أو بيان من شخصية عامة، أو منشور على وسائل التواصل الاجتماعي من خبير معلومات مضللة. قد تحتوي هذه المصادر على تقنيات أكثر تقدمًا لتحديد المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أو الوصول إلى معلومات حول الصورة التي لا يمكن لعامة الناس الوصول إليها.
الاستفادة من التكنولوجيا
هناك العديد من أدوات الكشف عن الذكاء الاصطناعي التي يمكن أن تكون مكانًا مفيدًا للبدء. لكن كن حذرًا، لأنهم ليسوا دائمًا على حق في تقييماتهم. تتضمن الصور التي تم إنشاؤها أو تعديلها باستخدام الذكاء الاصطناعي باستخدام تطبيق Gemini من Google، أداة علامة مائية رقمية غير مرئية تسمى SynthID، والتي يمكن للتطبيق اكتشافها. أضافت أدوات إنشاء الذكاء الاصطناعي الأخرى علامات مائية مرئية إلى المحتوى الذي تنشئه. غالبًا ما يكون من السهل إزالتها، مما يعني أن عدم وجود مثل هذه العلامة المائية ليس دليلاً على أن الصورة حقيقية.
ابطئ
في بعض الأحيان يتعلق الأمر فقط بالعودة إلى الأساسيات. توقف، وخذ نفسًا ولا تشارك على الفور شيئًا لا تعرف أنه حقيقي. غالبًا ما يعتمد الممثلون السيئون على حقيقة أن الأشخاص يتركون عواطفهم ووجهات نظرهم الحالية توجه ردود أفعالهم تجاه المحتوى. قد يوفر النظر إلى التعليقات أدلة حول ما إذا كانت الصورة التي تنظر إليها حقيقية أم لا. ربما لاحظ مستخدم آخر شيئًا لم تلاحظه أو تمكن من العثور على المصدر الأصلي. في النهاية، ليس من الممكن دائمًا تحديد ما إذا كانت الصورة تم إنشاؤها بواسطة الذكاء الاصطناعي بدقة 100%، لذا كن حذرًا من احتمال أنها قد لا تكون حقيقية.
نشر لأول مرة على: www.pbs.org
تاريخ النشر: 2026-04-02 23:42:00
الكاتب: Melissa Goldin, Associated Press
تنويه من موقع “beiruttime-lb.com”:
تم جلب هذا المحتوى بشكل آلي من المصدر:
www.pbs.org
بتاريخ: 2026-04-02 23:42:00.
الآراء والمعلومات الواردة في هذا المقال لا تعبر بالضرورة عن رأي موقع “beiruttime-lb.com”، والمسؤولية الكاملة تقع على عاتق المصدر الأصلي.
ملاحظة: قد يتم استخدام الترجمة الآلية في بعض الأحيان لتوفير هذا المحتوى.
