مجتمع التحقق العربي هو منظمة بحثية غير ربحية معنية بدراسة الأخبار الزائفة والمعلومات المضللة باللغة العربية على الانترنت، وتقديم الحلول الرائدة والمبتكرة لرصدها

دليلك السريع لعملية التحقق من الصور المولدة بالذكاء الاصطناعي

دليلك السريع لعملية التحقق من الصور المولدة بالذكاء الاصطناعي
sidq

الكاتب

sidq

تنتشر صور “مبهرة” كل يوم، ولكن الكثير منها ليس حقيقيًا، بل مُنشأ بأدوات الذكاء الاصطناعي أو مُعدَّل رقميًا. هذا دليل عملي، مبسّط وموجّه للمستخدم العادي، لتعرف خلال دقائق طريقة التحقق من الصور المولدة بالذكاء الاصطناعي.


أولًا: قاعدة التمهّل:

قاعدة التمهل
قبل الإعجاب أو المشاركة: توقّف 30 ثانية.

اسأل نفسك: من نشرها أولًا؟ متى؟ ما المصدر؟ هل هناك وسيلة إعلام موثوقة تؤكدها؟

إشارات إنذار داخل الصورة:

ابحث عن هذه العلامات الشائعة في الصور، وهي من أهم طرق التحقق من الصور المولدة بالذكاء الاصطناعي:

  • اليدين والأصابع: أصابع زائدة أو ملتحمة، أساور تخترق الجلد، أظافر ملخبطة.
  • الوجوه والعينان: تناظر مفرط، عيون بزوايا غير طبيعية، أسنان كتلة واحدة.
  • الكتابات أو الشعارات: نصوص على اللافتات أو الأزياء مشوّهة أو غير مقروءة.
  • الظلال والضوء: اتجاهات إضاءة متناقضة، ظل بلا مصدر.
  • التكرار الغريب: تكرار أشجار، ملابس، قطع، لوحات، وتكون متطابقة تمامًا بنمط مُستنسخ.
  • الحواف والقماش: حواف “مذابة”، نسيج ملابس يذوب في الخلفية، مجوهرات ملتوية.
  • الخلفية: جمهور بلا ملامح، معدات عسكرية بأرقام غير منطقية، ترتيب مسرح الحدث مثالي أكثر من اللازم.

لا تكفي علامة واحدة للحُكم النهائي؛ اجمع أكثر من مؤشر.


افحص “السياق” خارج الصورة

  • هوية الحساب: جديد؟ يغيّر اسمه كثيرًا؟ تنبيه.
  • مكان النشر: مجهول أم جهة رسمية؟
  • الزمان والمكان: هل توجد أخبار أو صور أخرى من نفس الحدث؟ هل تتطابق حالة الطقس، ملابس الناس، أو معالم المكان؟

أدوات سريعة ومجانية (استخدم أكثر من أداة)

الأداةماذا تفعل؟الرابط
Google Lensبحث عكسي بصري واسع على الويبhttps://lens.google.com
Bing Visual Searchبحث عكسي بصري بديلhttps://www.bing.com/visualsearch
TinEyeبحث عكسي للعثور على النسخ الأقدم/الأصلhttps://tineye.com
Yandex Imagesبحث عكسي قوي خاصة للوجوه والمشاهدhttps://yandex.com/images
FotoForensics (ELA)تحليل أخطاء الإضاءة/الضغط لاكتشاف الدمجhttp://fotoforensics.com
Forensically (29a.ch)حزمة فحوص جنائية (ELA، الضوضاء، النسخ/القص)https://29a.ch/photo-forensics/
Meta Data 2 Goقراءة بيانات الميتاداتا للصورhttps://www.metadata2go.com
AI or Notكاشف هل الصورة مُولدة بالذكاء الاصطناعيhttps://www.aiornot.com
Illuminartyتحليل احتمالية توليد الصورة بالذكاء الاصطناعيhttps://illuminarty.ai
Hive Moderation Detectorكشف صور/محتوى مولّد أو مُعدّلhttps://hivemoderation.com
Is It AI?كاشف بسيط لتمييز الصور المولَّدة بالذكاء الاصطناعيhttps://isitai.com
Was It AI?كاشف صور مولدة بالذكاء الاصطناعيhttps://wasitai.com

تذكير مهم: الأدوات التي تكشف الذكاء الاصطناعي تعطي احتمالات وليست أدلة قاطعة. الأفضل دائمًا الجمع بين البحث العكسي، وفحوص الميتاداتا، والتحليل الجنائي والبصري للصورة، ومقارنة السياق الزمني/المكاني مع مصادر موثوقة.


طريقة عمل عمليّة (5 خطوات)

  1. ثبّت المصدر: ابحث عن “النشر الأول”.
  2. بحث عكسي: ارفع الصورة على Lens/Bing/Yandex. هل تظهر نسخة أقدم أو سياق مختلف؟
  3. فحص بصري: طبّق قائمة إشارات الإنذار أعلاه.
  4. استخدم الأدوات: جرّب الأدوات المذكورة في الجدول أعلاه.
  5. قارن بالأخبار: هل أكدت وكالات موثوقة (رويترز/AP/وكالات رسمية) الحدث نفسه بصور متعددة؟

إن بقي الشك: لا تُشارك.


أمثلة من تحقيقات منصة صدق حول محتوى مولد بالذكاء الاصطناعي

لقراءة التحقيقات بالتفصيل، اضغط هنا