مجتمع التحقق العربي هو منظمة بحثية غير ربحية معنية بدراسة الأخبار الزائفة والمعلومات المضللة باللغة العربية على الانترنت، وتقديم الحلول الرائدة والمبتكرة لرصدها

العلاقة بين السلوكيات البشريّة واستخدام الذكاء الاصطناعيّ في نشر المعلومات المضللة

العلاقة بين السلوكيات البشريّة واستخدام الذكاء الاصطناعيّ في نشر المعلومات المضللة

يشهدُ العصر الرقميّ الحالي زخمًا غير مسبوق في تدفق المعلومات، حيث أصبحت التكنولوجيا جزءًا لا يتجزأ من الحياة اليومية. إلّا أنّ هذا الزخم صَاحبه تحدٍ كبيرٌ يتمثّل في انتشار المعلومات المضلّلة، التي لم تعد مجرّد أخطاء عشوائيّة، بل أصبحت وسيلة استراتيجيّة تُستخدَم لتحقيق أهداف سياسيّة، أو اقتصاديّة، أو اجتماعيّة (Lewandowsky et al., 2017).

في حين أنّ الذكاء الاصطناعيّ (AI) أضحى يقوم بدورٍ مركزيّ في هذا السياق. فمن جهةٍ، تسهم تقنيات الذكاء الاصطناعيّ في تسريع إنشاء ونشر الأخبار الزائفة. ومن جهةٍ أخرى، توفّر أدوات فعّالة لكشف هذه الأخبار والتصدّي لها. هذا التناقض يفتح الباب أمام تساؤلاتٍ جوهريّة حول طبيعة العلاقة بين الذكاء الاصطناعيّ والسلوكيّات البشريّة التي تؤدي إلى انتشار التضليل (Martens et al., 2018).

لقد باتت المعلومات المضلّلة تمثل تحديًا كبيرًا في العصر الرقميّ، حيث تتشابك العوامل البشريّة والتكنولوجيّة في خلق هذه الظاهرة. ومن أجل فهم العلاقة بين السلوكيّات البشريّة واستخدام الذكاء الاصطناعيّ، فإنّه لا بدّ من تحليل العوامل النفسيّة والاجتماعيّة التي تؤدي إلى نشر التضليل، إلى جانب دور الذكاء الاصطناعيّ في تسريع انتشاره أو مكافحته. 

لتحليل هذه الظاهرة المعقّدة، يَستلزم الأمر دراسة شاملة تتناول الجوانب النفسيّة، والثقافيّة، والتكنولوجيّة، مع تسليط الضوء على كيفيّة تفاعل السلوكيّات البشريّة مع الذكاء الاصطناعيّ في نشر المعلومات المضلّلة وسُبل التعامل معها.

الوباء المعلوماتيّ: دور السلوكيّات البشريّة والتقنيات الرقميّة في نشر المعلومات المضلّلة


في عصر المعلومات المتسارع، يُعتبر الإنسان الحلقة الأساسية في سلسلة انتشار المعلومات، سواء كانت صحيحة أو مضللة. السلوكيّات البشرية، بما في ذلك الأنماط النفسيّة والاجتماعيّة، تضطلعُ بدور محوريّ في تشكيل انتشار المحتوى عبر المنصّات الرقميّة (Mishra & Michael, 2024). وبربط هذه السلوكيات بظاهرة «الوباء المعلوماتيّ» (Pagoto et al., 2023)، يتضح كيف يساهم التفاعل بين العوامل النفسيّة البشريّة والمنصات التقنيّة في تعزيز أو تقليص انتشار المعلومات المضللة؛ ممّا يُحدث تأثيراتٍ عميقةً على الأفراد والمجتمعات. 

إنّ ظاهرة «الوباء المعلوماتيّ»، أو ما يُعرف بـ (Infodemic)، هي ظاهرة برزت في عصر الرقْمنة المتسارع كأحد أخطر تحديات العصر الحديث. فبينما توفّر التكنولوجيا وسيلة فعالة لنقل المعرفة، فقد باتَ الانتشار المفرط والسريع للمعلومات الصحيحة والخاطئة على حد سواء سلاحًا ذا حدين. هذا التدفّق الكبير للمعلومات، سيّما عبر وسائل التواصل الاجتماعي، يؤدي إلى حالة من التشويش التي تجعل من الصعب على الأفراد تمييز الحقائق من الأكاذيب؛ مما يفاقم التحديات الصحية والسياسية والاجتماعية.

 إنّ ظاهرة «الوباء المعلوماتيّ»، ... هي ظاهرة برزت في عصر الرقْمنة المتسارع كأحد أخطر تحديات العصر الحديث

 

1- ما هو «الوباء المعلوماتيّ»؟

 
ظهر مصطلح «الوباء المعلوماتيّ» بوضوحٍ خلال أزمة فيروس كورونا (COVID-19)، حيث لوحظ أن انتشار المعلومات المضللة كان له تأثير مدمر على استجابة الأفراد والمجتمعات للجائحة. ووفقًا لمنظمة الصحة العالمية (WHO, 2020)، يشير هذا المصطلح إلى الانتشار المُفرط للمعلومات، سواء أكانت دقيقة أو مغلوطة، مما يعيق قدرة الناس على اتخاذ قرارات مستنيرة في وقت الأزمات. انتشار المعلومات المضللة خلال الجائحة شملَ نصائحَ صحيّةً زائفة، وشائعات عن اللقاحات، ونظريات مؤامرة أثرت بشكل سلبي على الجهود المبذولة للسيطرة على الأزمة.

ويتخذ الوباء المعلوماتيّ أشكالًا متعددة، تختلف في طبيعتها وتأثيرها على الأفراد والمجتمعات:

  • المعلومات الخاطئة (Misinformation): يشير هذا الشكل إلى نشر معلومات غير دقيقة دون نية للإضرار، مثل تداول نصائح صحية غير موثوقة قد تبدو في ظاهرها مفيدة (Wardle & Derakhshan, 2017).
  • المعلومات المضللة (Disinformation): يتمثل هذا الشكل في نشر معلومات مغلوطة عمدًا لأهداف محددة؛ مثل تضليل الرأي العام لتحقيق مكاسب سياسيّة أو اقتصاديّة (Brennen et al., 2020).
  • الشائعات: انتشار قصص غير موثوقة تُثير القلق أو الأمل بين الناس، وغالبًا ما تكون بدون مصدر واضح. خلال الأزمات، تصبح الشائعات كم أكثر أشكال المعلومات المضللة شيوعًا (WHO, 2020).
  • الأخبار المزيفة (Fake News): وهي بمثابة محتوى إعلاميّ يُعدّ عمدًا لخداع الجمهور، وغالبًا ما يُصمَّم بغية تحقيق تفاعل عاطفيّ قويّ (Vosoughi et al., 2018).
  • البيانات العلميّة المشوهّة: وتتمثل في تقديم بيانات علمية بطريقة مُضللة أو بدون سياق صحيح؛ مما يؤدي إلى سوء فهم كبير لدى الجمهور، خاصة فيما يتعلق بالقضايا الصحية والبيئية (Lewandowsky et al., 2017).

يؤدي ضعف الوعي الإعلاميّ إلى زيادة هشاشة الأفراد أمام المعلومات المضللة. العديد من المستخدمين يفتقرون لمهارات التفكير النقديّ والتحقق من مصادر المعلومات، مما يجعلهم غير قادرين على تقييم مصداقية الأخبار وتصديق الشائعات ونشرها. فمثلًا، عند تلقي رسالة مثيرة عبر تطبيقات الرسائل الفورية مثل «واتساب»، غالبًا ما تُعاد مشاركتها دون فحص مصداقيتها (Pennycook & Rand, 2019). وهذا يفضي إلى الاستغلال المتعمد للمعلومات المضللة، فتصبح بعض الجهات تستخدم المعلومات المضلِّلة كأداة لتحقيق أهداف سياسيّة أو اقتصاديّة أو اجتماعيّة (Brennen et al., 2020).

علاوة على ذلك، فإن الإنسان لا يُعد متلقيًا للمعلومات المضلِّلة فحسب، بل هو عامل رئيسي في نقلها وتعزيزها؛ مما يحوّل الأخبار الكاذبة إلى وباء معلوماتي يصعب السيطرة عليه (Pennycook & Rand, 2019). العلاقة التفاعلية بين البشر والتكنولوجيا الرقمية تُبرز كيف أن السلوكيات البشرية تُغذي الخوارزميات ببيانات خاطئة، بينما تستغل هذه الخوارزميات هذه السلوكيات لتعزيز انتشار المحتوى المضلل (Bakir & McStay, 2018). هذه الحلقة المغلقة بين البشر والتكنولوجيا تُكرس دائرة من التضليل يصعب كسرها (Vosoughi et al., 2018).

2- السلوكيات البشريّة ونشر المعلومات المضلِّلة


تقوم السلوكيات البشرية بدور محوريّ في تعزيز انتشار الوباء المعلوماتي، حيث تتأثر هذه السلوكيات بشكل كبير بالمنصات الرقمية وآليات عملها. تعتمد منصات التواصل الاجتماعي على تصميم موجَّه يهدف إلى زيادة تفاعل المستخدمين مع المحتوى، مما يؤدي إلى إبراز المحتوى الذي يثير استجابات عاطفية قوية (Bakir & McStay, 2018). على سبيل المثال، المنشورات المثيرة للجدل أو التي تحمل طابعًا عاطفيًا عاليًا غالبًا ما تحظى بأولوية العرض في الخوارزميات، بغض النظر عن صحتها (Vosoughi et al., 2018). هذا النهج يدفع المستخدمين إلى مشاركة المعلومات بسرعة، دون التحقق من مصداقيتها، تحت ضغط الرغبة في المشاركة الفورية أو الحاجة إلى التفاعل الاجتماعي (Pennycook & Rand, 2019).  


كما إن الانحيازات النفسية والسلوكية تُعد محفزًا رئيسيًا لوباء المعلومات، مثل الانحياز التأكيدي (Confirmation Bias)؛ حيث يميل الأفراد إلى تصديق المعلومات التي تتفق مع معتقداتهم المسبقة وتصديقها دون التحقق من دقتها، حتى إن كانت خاطئة، مما يجعلهم أدوات لنشر التضليل (Lewandowsky et al., 2017). على سبيل المثال، قد يشارك شخص ما خبرًا كاذبًا حول فعالية علاج غير مثبت لمرض ما لأنه يتماشى مع مخاوفه أو آماله.  

ومن أبرز الانحيازات النفسية والسلوكية هو التحيز العاطفي (Emotional Bias)، حيث تستثير المعلومات المضللة مشاعر قوية مثل الخوف، أو الغضب، أو السعادة، مما يدفع الأفراد لمشاركتها بسرعة دون التحقق من المصدر (Brennen et al., 2020). يصبح الناس أكثر عرضة لتصديق المعلومات التي تقدم إجابات سريعة، حتى لو كانت تفتقر إلى الأدلة العلمية، خاصة خلال الأزمات الصحية، مثل جائحة كورونا، التي ولدت مشاعر الخوف والغموض وساهمت في انتشار الشائعات المضللة بسرعة (WHO, 2020).  


كما تؤثر العوامل الاجتماعية والثقافية تؤثر على السلوكيات والتأثير الاجتماعي (Social Influence). من خلال مشاركة المعلومات لتلبية التوقعات الاجتماعية أو تعزيز الانتماء لجماعة معينة، مثل نشر أخبار سياسية تعزز مواقف جماعة ما على حساب الحقيقة، يصبح الأشخاص الذين يعتمدون على مصادر معلومات غير رسمية، مثل مجموعات التواصل الاجتماعي المغلقة، أكثر عرضة لنشر معلومات غير دقيقة (Wardle & Derakhshan, 2017)؛ وهو ما يولد مفهوم التنافسية في نشر الأخبار (News Sharing Competition): أي تلك الرغبة في أن يكون الشخص "الأول" الذي ينشر خبرًا معينًا قد يدفعه إلى مشاركة معلومات غير مؤكدة.  

السلوك الجماعي يُعد عاملاً أساسيًا آخر في تضخيم ظاهرة الوباء المعلوماتي. عندما يتصرف الفرد ضمن مجموعة، فإنه غالبًا ما ينجرف وراء التوجه العام للمجموعة، سواء كان مبنيًا على حقائق أو شائعات. هذا السلوك يتجلى بوضوح خلال الأزمات، حيث تؤدي الشائعات المتعلقة بعلاج معين أو تحذيرات مغلوطة إلى انتشار واسع للتضليل داخل شبكات اجتماعية مترابطة (Vosoughi et al., 2018). وفي هذه الحالة، يغيب التحقق الفردي لصالح تعزيز الانتماء للجماعة أو تجنب الاختلاف معها.  

الآثار النفسية والسلوكية الناتجة عن الوباء المعلوماتي تظهر بوضوح في زيادة القلق والخوف بين الأفراد. المعلومات المضللة تؤدي إلى قرارات غير عقلانية، مثل شراء منتجات غير مجدية أو رفض اللقاحات الضرورية (Lewandowsky et al., 2017). هذه السلوكيات لا تؤثر فقط على الأفراد، بل تمتد لتشمل المجتمعات ككل، مما يعمق التحديات الاجتماعية والصحية الناجمة عن انتشار التضليل.  

   تعتمد منصات التواصل الاجتماعي على تصميم موجَّه يهدف إلى زيادة تفاعل المستخدمين مع المحتوى، مما يؤدي إلى إبراز المحتوى الذي يثير استجابات عاطفية قوية ... هذا النهج يدفع المستخدمين إلى مشاركة المعلومات بسرعة، دون التحقق من مصداقيتها، تحت ضغط الرغبة في المشاركة الفورية أو الحاجة إلى التفاعل الاجتماعي

 

نظرية السلوك المخطط (Theory of Planned Behavior - TPB):


نظرية السلوك المخطط (Theory of Planned Behavior - TPB) هي إطار نفسي يهدف إلى تفسير وتوقع السلوك البشري بناءً على ثلاثة مكونات رئيسية

  1. الموقف تجاه السلوك (Attitude Toward the Behavior): يتعلق بالإيجابية أو السلبية التي يشعر بها الفرد تجاه أداء سلوك معين، بناءً على تقييمه الشخصي للتبِعات المحتملة لهذا السلوك.
  2. المعايير الذاتية (Subjective Norms): تمثل تأثير الأشخاص المحيطين على نية الفرد للسلوك، بما في ذلك توقعاتهم وضغوطهم الاجتماعية.
  3. الإدراك السلوكي المتحكم به (Perceived Behavioral Control): يشير إلى مدى اعتقاد الفرد بأنه يمتلك القدرة والموارد لتنفيذ السلوك.

 

  تشرح هذه النظرية (Ajzen, 1991) كيف تتأثر قرارات الأفراد وسلوكياتهم بعوامل مثل الاتجاهات: أي المواقف الشخصية تجاه مشاركة المعلومات؛ مثل اعتقاد البعض أن نشر محتوى معين يساعد في نشر الوعي، حتى لو كان غير دقيق. والمعايير الاجتماعية والتي تُعنى بتأثير الضغوط الاجتماعية في دفع الأفراد لمشاركة محتوى معين بهدف القبول الاجتماعي أو التأثير على الآخرين. السيطرة السلوكية المدركة كإدراك الفرد لقدرته على التحكم في سلوكياته، مثل التحقق من مصدر الخبر قبل مشاركته. والانحياز التأكيدي (Confirmation Bias)، يتضح هذا الانحياز في ميل الأفراد إلى تصديق المعلومات التي تُدعّم معتقداتهم السابقة، حتى لو كانت خاطئة. فعلى سبيل المثال، يميل شخص يؤمن بنظرية مؤامرة معينة إلى تصديق الأخبار التي تدعم هذه النظرية دون التحقق منها.

 

عند تطبيق نظرية السلوك المخطط على انتشار الأخبار المضللة، يمكن تفسير كيفية انتشار المعلومات المضللة ودوافع المشاركة فيها:

 

  • الموقف تجاه الأخبار المُضلِّلة: إذا كان الأفراد يرون أن مشاركة الأخبار المثيرة أو العاطفية (حتى وإن كانت خاطئة) تحقق مكاسب اجتماعية أو تزيد من التفاعل، فقد يتبنون مواقف إيجابية تجاه نشرها (Pennycook & Rand, 2019). من جهة أخرى، قد يؤدي الإدراك السلبي تجاه التضليل إلى محاولات تصحيح الأخبار.
  • المعايير الذاتية: تؤثر البيئة الاجتماعية والمجموعات التي ينتمي إليها الفرد في قراره بنشر الأخبار المضللة. على سبيل المثال، إذا كان السائد في مجموعة معينة هو نشر أخبار غير مؤكدة، فقد يشعر الفرد بالضغط للمشاركة بما يراه الآخرون مهمًا أو مؤثرًا، حتى لو لم يكن متأكدًا من مصداقيته (Lewandowsky et al., 2017).
  • الإدراك السلوكي المتحكم به: يشير إلى مدى إدراك الفرد لقدراته على التحقق من صحة المعلومات قبل مشاركتها. إذا شعر الفرد بصعوبة الوصول إلى المصادر أو عدم توفر الأدوات للتحقق، فقد يكون أكثر عرضة للمشاركة دون تدقيق (Archer & Cameron, 2009).

 

مكافحة الأخبار المضللة وفق نظرية السلوك المخطط (TPB):

 
يمكن استغلال هذه النظرية لتعزيز سلوكيات مكافحة التضليل (Ajzen, 1991). مثلًا، تحسين مواقف الأفراد تجاه أهمية التحقق من المعلومات من خلال التوعية بمخاطر الأخبار المضللة، وإبراز أهمية تحمل المسؤولية الاجتماعية في نشر الحقائق (Brennen et al., 2020). كما يمكن استخدام الحملات الإعلامية لتغيير المعايير الاجتماعية، بحيث يصبح التحقق من الأخبار معيارًا متفقًا عليه. أخيرًا، تمكين الأفراد عبر تقديم أدوات رقمية للتحقق من صحة الأخبار يعزز إدراكهم للسيطرة على سلوكهم، مما يقلل من احتمالية مشاركتهم للمعلومات المضللة (Wardle & Derakhshan, 2017).  

توفر هذه النظرية إطارًا عمليًا لفهم جذور السلوكيات المتعلقة بالأخبار المضللة ووضع استراتيجيات فعّالة للتعامل معها، سواء من خلال التعليم أو الحملات الاجتماعية.

 

  تمكين الأفراد عبر تقديم أدوات رقمية للتحقق من صحة الأخبار يعزز إدراكهم للسيطرة على سلوكهم، مما يقلل من احتمالية مشاركتهم للمعلومات المضللة 

 

أنماط السلوك المرتبطة بنشر التضليل:

  • المشاركة بناءً على المشاعر: أظهرت الدراسات أن المحتوى الذي يُثير مشاعر قوية مثل الغضب أو الخوف لديه فرصة أكبر للانتشار. الأفراد غالبًا ما يتفاعلون عاطفيًا دون التفكير النقدي في دقة المحتوى (Vosoughi et al., 2018).
  • الثقة غير المبررة في المصادر الرقمية: يميل البعض إلى الاعتقاد بأن المحتوى الذي يظهر على منصات مشهورة أو مدعوم بخوارزميات هو دائمًا موثوق. هذا السلوك يُقلل من احتمالية التحقق الشخصي (Bakir & McStay, 2018).  
  • التأثير السياسي والثقافي: قد يدفع الانتماء السياسي أو الثقافي الأفراد إلى نشر معلومات تدعم معتقداتهم أو تنتقد الأطراف المنافسة (Lewandowsky et al., 2017).

 

3- الذكاء الاصطناعي والمعلومات المضللة


هناك عدة عوامل رئيسية تُسهم في انتشار «الوباء المعلوماتيّ» تجمع بين التطورات التقنية والسلوكيات البشرية، أهمها تطور التكنولوجيا الرقمية، والاعتماد المفرط على التكنولوجيا والخوارزميات حيث أصبحت أداة رئيسية لتسريع انتشار المعلومات، والثقة المفرطة في الأنظمة الرقمية المدعومة بالذكاء الاصطناعي، مثل نتائج البحث أو المنشورات الموصى بها، حيث قد تجعل الأفراد يعتقدون بصحة أي محتوى مروّج له على المنصات. فبات ممكنًا لأي شخص نشر معلومات بسرعة فائقة دون رقابة تُذكر. بالإضافة إلى ذلك، تعتمد هذه المنصات على خوارزميات تُبرز المحتوى الذي يُثير التفاعل، بغض النظر عن صحته، مما يضاعف من انتشار المحتوى المضلل (Bakir & McStay, 2018; Vosoughi et al., 2018).

تساهم قلة الوعي بخوارزميات الذكاء الاصطناعي وكيفية عملها أيضًا في تعزيز انتشار التضليل. يعتقد الكثيرون أن المحتوى الذي يُروَّج له عبر الخوارزميات موثوق تلقائيًا، دون إدراك أن هذه الأنظمة تعتمد على أنماط التفاعل والاهتمام بدلًا من جودة المعلومات. هذا الاعتماد المفرط على التكنولوجيا الرقمية يجعل الأفراد أكثر عرضة للمعلومات المضللة، حيث يُتلاعَب بالخوارزميات لدفع محتوى محدد يحقق أهدافًا معينة، سواء كانت تجارية أو سياسية (Zhou & Zafarani, 2020).

في هذا السياق، يلعب الذكاء الاصطناعي (AI) دورًا مزدوجًا كأداة لنشر المعلومات المضللة ومكافحتها (Ferrara et al., 2020).

دور الذكاء الاصطناعي في التضليل:

  • الإنتاج التلقائي للمعلومات المضللة: يمكن للذكاء الاصطناعي إنتاج محتوى مضلل بسرعة وكفاءة باستخدام تقنيات مثل النماذج اللغوية المتقدمة التي تولد نصوصًا تبدو واقعية، وتطبيقات «التزييف العميق» (Deepfake) التي تنتج فيديوهات وصور مزيفة بدقة عالية، حيث يُستخَدم  الذكاء الاصطناعي لإنشاء مقاطع فيديو أو صور مزيفة تُظهر شخصيات معروفة وهي تقوم بأفعال لم تحدث. هذا يُستخدم في التضليل السياسي أو التشويش على الشخصيات العامة (Chesney & Citron, 2019; Westerlund, 2019).
  • الاستهداف الدقيق للجمهور: حيث تستخدم تقنيات الذكاء الاصطناعي بيانات المستخدمين لاستهدافهم برسائل مخصصة تؤثر على آرائهم وسلوكهم، مما يرفع من كفاءة حملات التضليل (Tufekci, 2015).
  • الذكاء الاصطناعي التوليدي: تُعد تقنيات مثل النماذج اللغوية الكبيرة (Large Language Models) مثل GPT، أدوات فعالة لإنشاء نصوص مُقنعة (Bender et al., 2021) على سبيل المثال:
  • التقارير المزيفة: تُنتج تقنيات الذكاء الاصطناعي مقالات أو تقارير تبدو موثوقة، لكنها تحتوي على معلومات غير دقيقة (Bender et al., 2021).
  • الخوارزميات الموجهة: تعتمد منصات التواصل الاجتماعي على خوارزميات تُعزز من ظهور المحتوى الذي يُحقق تفاعلًا عاليًا، بغض النظر عن مصداقيته. هذا يُسهم في انتشار الأخبار المضللة بشكل واسع، خصوصًا إذا كان المحتوى مثيرًا للجدل (Vosoughi et al., 2018). 

مكافحة المعلومات المضللة باستخدام الذكاء الاصطناعي:

  • يمكن للذكاء الاصطناعي تحليل النصوص، الصور، والفيديوهات للكشف عن أنماط تشير إلى التضليل. تقنيات مثل تحليل اللغة الطبيعية والتعلم العميق تساعد في تحديد الأخبار الزائفة بشكل آلي وسريع.
  • التكامل مع تقنيات أخرى: يُظهر البحث إمكانية دمج الذكاء الاصطناعي مع تقنيات مثل البلوكتشين لتتبع مصادر الأخبار والتأكد من صحتها (Pavlopoulos et al., 2017). 
  • تحليل السلوكيات الاجتماعية: يمكن لأنظمة الذكاء الاصطناعي تحليل تفاعل المستخدمين مع الأخبار على وسائل التواصل الاجتماعي لتحديد اتجاهات نشر المعلومات المضللة، مما يسهل معالجتها بشكل استباقي (Binns, 2018).
  • تحليل اللغة الطبيعية (NLP): تُستخدَم تقنيات الذكاء الاصطناعي لتحليل النصوص واكتشاف الأنماط التي تدل على التضليل، مثل: التناقضات في المعلومات، واستخدام اللغة العاطفية بشكل مفرط، والاعتماد على مصادر غير معروفة (Vaswani et al., 2017).
  • التعلم الآلي لكشف الأنماط: تُدرب الأنظمة على اكتشاف الأخبار المزيفة بناءً على سمات معينة؛ مثل التكرار المفرط لمصطلحات معينة أو البنية غير المألوفة للنص (Zhao et al., 2020).
  • دمج البشر في الحلقة (Human-in-the-Loop): على الرغم من كفاءة الأنظمة الآلية، إلا أن تدخل البشر يُعد ضروريًا للتحقق من دقة القرارات التي تُصدرها هذه الأنظمة (Amershi et al., 2014).  

 

يواجه استخدام الذكاء الاصطناعي في التعامل مع المعلومات المضللة عدة تحديات واعتبارات أخلاقية. من أبرز التحديات ضرورة الحفاظ على خصوصية المستخدمين عند استخدام البيانات الضخمة التي يعتمد عليها الذكاء الاصطناعي في التحليل والتصنيف (Zarsky, 2016) بالإضافة إلى ذلك، قد تُظهر النماذج الذكية انحيازات ضمنية نتيجة للبيانات المستخدمة في تدريبها، مما يطرح تساؤلات حول نزاهة النتائج ومدى دقتها (Angwin et al., 2016).  ومن الاعتبارات الأخلاقية المهمة ضرورة تحقيق الشفافية في كيفية استخدام تقنيات الذكاء الاصطناعي لضمان عدم استغلالها في تعزيز التضليل بدلًا من مكافحته (O'Neil, 2016). علاوة على ذلك، يتطلب التعامل مع التضليل توازنًا بين أتمتة العمليات والتحكم البشري لضمان موثوقية التقييمات وتقليل القرارات الخاطئة. التحدي الأكبر يكمن في خلق توازن بين الاستفادة من الإمكانيات التقنية الهائلة للذكاء الاصطناعي مع احترام القيم الإنسانية الأساسية مثل الخصوصية، والنزاهة، والشفافية (Binns, 2018)

 

تعتمد أنظمة الذكاء الاصطناعي على جمع وتحليل كميات ضخمة من البيانات (Crawford & Paglen, 2019)، مما يثير قضايا تتعلق بالخصوصية. وقد تُستخدم البيانات الشخصية التي يتم جمعها لأغراض أخرى غير مكافحة التضليل، مما يُعرض المستخدمين لمخاطر إضافية. كما أنه قد تكون الأنظمة الآلية نفسها مُنحازة، بناءً على البيانات التي دُرِّبَت عليها. هذا قد يؤدي إلى اتخاذ قرارات غير عادلة (Tufekci, 2015).

 

4- العلاقة بين السلوكيات البشريّة والذكاء الاصطناعيّ

 

يشكل التفاعل بين السلوكيات البشرية والذكاء الاصطناعي إطارًا محوريًا لفهم كيفية انتشار المعلومات المضللة والأخبار الكاذبة. إذ تؤثر العوامل النفسية والاجتماعية في الإنسان على عملية استهلاك المعلومات وتوزيعها (Pennycook & Rand, 2018)، بينما تقوم الأنظمة المدعومة بالذكاء الاصطناعي بدور في تصميم البيئات الرقمية التي تؤثر على هذه السلوكيات (Zeng, 2020).  

 

  • السلوكيات البشرية في عصر المعلومات


السلوكيات البشرية، مثل الميل إلى الانحياز التأكيدي (Confirmation Bias)، تجعل الأفراد يفضلون المعلومات التي تتوافق مع معتقداتهم الشخصية (Nickerson, 1998) علاوة على ذلك، يؤدي الضغط الاجتماعي والاندفاع العاطفي إلى مشاركة المعلومات بسرعة دون التحقق من صحتها؛ مما يساهم في انتشار الأخبار المضللة (Friggeri, Galstyan, & Soni, 2014). تبرز هذه السلوكيات بشكل خاص عند التعامل مع المحتوى العاطفي الذي يستهدف مشاعر الخوف أو الغضب، حيث أظهرت دراسات أن الأخبار المثيرة عاطفيًا تميل إلى الانتشار أوسع وأسرع عبر الشبكات الرقمية (Vosoughi, Roy, & Aral, 2018)

 

  • الذكاء الاصطناعي كعامل مُحفز أو مُكافح للتضليل


تُصمم خوارزميات الذكاء الاصطناعي لتعظيم التفاعل مع المحتوى الرقمي. نتيجة لذلك، تميل هذه الأنظمة إلى دفع المحتويات التي تثير الاستجابات العاطفية القوية، بغض النظر عن دقتها (Pennycook & Rand, 2018). تعمل المنصات على استخدام تقنيات التخصيص (Personalization) لتقديم محتوى يتماشى مع اهتمامات المستخدمين؛ مما يؤدي إلى تضخيم غرف الصدى (Echo Chambers) ويزيد من صعوبة الوصول إلى مصادر معلومات متنوعة (Pariser, 2011).

 

   تعمل المنصات على استخدام تقنيات التخصيص لتقديم محتوى يتماشى مع اهتمامات المستخدمين؛ مما يؤدي إلى تضخيم غرف الصدى ويزيد من صعوبة الوصول إلى مصادر معلومات متنوعة 

 

  • العلاقة التفاعلية بين البشر والذكاء الاصطناعي

 
تُظهر الدراسات أن بعض المستخدمين يثقون بشكل مفرط في أنظمة الذكاء الاصطناعي، ويفترضون أن كل ما تنتجه أو توصيه به هذه الأنظمة هو دقيق. هذا السلوك يُقلل من التفكير النقدي وزيادة احتمالية نشر الأخبار المضللة. كما إن الذكاء الاصطناعي يتأثر بالسلوكيات البشرية (Fogg et al., 2003) من ناحية تعزيز التضليل من خلال البيانات المدخلة إليه. على سبيل المثال، إذا شارك المستخدمون معلومات مضللة، فإنّ الأنظمة الذكية قد تتعلّم أنماطَ هذا المحتوى وتعمل على تعزيز انتشاره (Joulin et al., 2017).

والأمر ذاته في مكافحة التضليل؛ حيث يمكن للذكاء الاصطناعي أن يسهم في الحد من الأخبار الكاذبة عبر تقنيات مثل تحليل النصوص للكشف عن التحيزات، والتعلم الآلي (Zhou et al., 2020) لاكتشاف الأنماط المرتبطة بالمعلومات المضللة. كما إنّ تقديم أدوات تحقق مدمجة مع المنصات الرقمية يساعد الأفراد على التمييز بين الحقائق والأكاذيب (Pennycook & Rand, 2018).

 

  • تأثير التقنيات على السلوكيات البشرية:


التصميم الموجه (Persuasive Design): تعتمد منصات التواصل الاجتماعي على تصميم يُحفز الإدمان، مثل: الإشعارات المستمرة التي تدفع المستخدمين للبقاء على المنصة لفترة أطول. وأيضًا من خلال التمرير اللانهائي (Infinite Scroll) الذي يُشجع على استهلاك المزيد من المحتوى دون التفكير في جودته (Alter, 2017).

يتضح أن العلاقة بين السلوكيات البشرية والذكاء الاصطناعي تخلق بيئة ديناميكية يمكن أن تعزز أو تقلل من انتشار الأخبار المضللة. ومن الضروري تعزيز الوعي المجتمعي وتحسين خوارزميات الذكاء الاصطناعي لتحقيق توازن يضمن استخدامًا أخلاقيًا لهذه التقنيات لمكافحة التضليل بدلًا من تسهيله (Miller et al., 2019).

توصيات


بناءً على العلاقة بين السلوكيات البشرية والذكاء الاصطناعي في سياق الأخبار المضللة، يمكن تقديم التوصيات التالية لتعزيز المكافحة والوقاية:

التدخلات السلوكية:

  • التوعية الإعلامية: يمكن تصميم برامج تدريبية تستهدف تعليم الأفراد كيفية التحقّق من مصادر الأخبار، وتقييم مصداقية المواقع والمنصات، واكتشاف الأنماط التي تدلّ على التضليل.
  • التقليل من الانحيازات النفسيّة: وذلك من خلال تقديم محتوى يُشجّع على التفكير النقدي ومواجهة الانحياز التأكيديّ عبر توفير وجهات نظر متعددة.

 

توظيف الذكاء الاصطناعي:

  • تعزيز الشفافية: ينبغي أن تكون الخوارزميات المستخدمة للكشف عن التضليل شفّافة، بحيث تُوضح كيف تُتخذ القرارات وما هي المعايير المُتبعة.
  • تقنيات مثل Blockchain: يمكن استخدام تقنية الـ Blockchain لتتبع مصدر المعلومات وضمان مصداقيتها عبر إنشاء نظام مُشفّر يُسجل البيانات بطريقة لا يمكن التلاعب بها.

 

على مستوى الأفراد:

  • تعزيز الوعي الرقمي: توعية الأفراد حول كيفية عمل الخوارزميات وتقنيات التخصيص التي تستخدمها المنصات الرقمية؛ مما يساعدهم على فهم أن المحتوى الذي يشاهدونه قد يكون موجهًا بشكل معين.
  • تدريب على التفكير النقدي: تقديم برامج تدريبية لتحسين مهارات التفكير النقدي والتحقق من المصادر، مما يقلل من فرص تصديق الأخبار الكاذبة ونشرها.
  • الحدّ من التفاعل العاطفيّ: تعليم الأفراد تقنيات لتجنب التفاعل العاطفي السريع مع المحتوى الرقميّ، مما يدفعهم للتأنّي قبل مشاركة الأخبار.

 

على مستوى المنصات الرقمية:

  • تحسين الخوارزميات: تطوير خوارزميات تتضمن مؤشرات جودة المحتوى، مثل موثوقية المصدر ودقة المعلومات، لتقليل ظهور الأخبار المضللة.
  • دمج أدوات التحقق: توفير أدوات تحقق مدمجة تساعد المستخدمين على فحص الأخبار بسرعة، مثل إشارات تحذيرية عند الاشتباه بمصداقية المحتوى.
  • إعادة تصميم التجربة الرقمية: تصميم منصات تقلل من التحيزات العاطفية وتعزز من عرض مصادر متنوعة للمعلومات.

 

على مستوى البحث والتطوير:

  • تحليل البيانات السلوكيّة: عن طريق إجراء دراسات لفهم الأنماط السلوكية التي تؤدي إلى نشر المعلومات المضللة، مما يساعد على تصميم استراتيجيات موجهة لمكافحتها.
  • تطوير تقنيات كشف الأخبار الزائفة: عن طريق الاستثمار في أدوات ذكاء اصطناعي متقدمة قادرة على تحليل المحتوى لاكتشاف الأخبار المضللة بسرعة وفعالية.

 

لمواجهة ظاهرة الأخبار المضللة، يمكن للتقنيات المتقدمة مثل الذكاء الاصطناعي أن تضطلع بدورٍ محوريّ في الكشف عن التضليل ومكافحته. مع ذلك، يتطلب تحقيق النجاح في هذه الجهود تعاونًا شاملًا بين الحكومات وشركات التكنولوجيا والمجتمع المدني. يبقى التحدي الأكبر هو تحقيق توازن دقيق بين الاستفادة من إمكانات الذكاء الاصطناعي من جهة، وحماية القيم الإنسانية الأساسية مثل الحق في المعرفة وخصوصية الأفراد من جهة أخرى. لا يمكن أن تثمر هذه الجهود إلا من خلال تنسيق متكامل بين الأفراد والمؤسسات والدول؛ لضمان تقليل الأضرار الناتجة عن التفاعل المعقد بين السلوكيات البشرية والمنصات الرقمية المدعومة بالذكاء الاصطناعي.

المراجع: 

Ajzen, I. (1991). The theory of planned behavior. Organizational Behavior and Human Decision Processes, 50(2), 179-211.

Alter, A. (2017). Irresistible: The rise of addictive technology and the business of keeping us hooked. Penguin Press.

Amershi, S., Chickering, M., Kapoor, A., & Kamar, E. (2014). Human-in-the-loop machine learning. Proceedings of the 30th Annual Conference on Human Factors in Computing Systems, 2119-2128.

Angwin, J., Larson, J., Mattu, S., & Kirchner, L. (2016). Machine bias. ProPublica.

Archer, M. S., & Cameron, C. (2009). Personal agency and the digital world: Rethinking the TPB. Cyberpsychology & Behavior, 12(3), 272-276.

Bakir, V., & McStay, A. (2018). Fake news and the economy of emotions: Problems, causes, solutions. Digital Journalism, 6(2), 154-175.

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610-623.

Binns, R. (2018). Fairness in machine learning: Lessons from political philosophy. Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems, 1-14.

Brennen, J. S., Simon, F. M., Howard, P. N., & Nielsen, R. K. (2020). Types, sources, and claims of COVID-19 misinformation. Reuters Institute.

Chesney, R., & Citron, D. K. (2019). Deepfakes: A looming challenge for privacy, democracy, and national security. California Law Review, 107(5), 1753-1819.

Crawford, K., & Paglen, T. (2019). Atlas of AI: Mapping the geography of artificial intelligence. Yale University Press.

Ferrara, E., Cresci, S., & Luceri, L. (2020). Misinformation, manipulation, and abuse on social media in the era of COVID-19. Computers in Human Behavior Reports, 2, 100034.

Fogg, B. J., et al. (2003). The persuasive technology: Using computers to change what we think and do. Morgan Kaufmann.

Friggeri, A., Galstyan, A., & Soni, A. (2014). Rumor cascades. Proceedings of the Eighth International Conference on Weblogs and Social Media, ICWSM 2014, 101-110.

Joulin, A., Grave, E., Mikolov, T., et al. (2017). Bag of tricks for efficient text classification. arXiv preprint arXiv:1607.01759.

Lewandowsky, S., Ecker, U. K., & Cook, J. (2017). Beyond misinformation: Understanding and coping with the “post-truth” era. Journal of Applied Research in Memory and Cognition, 6(4), 353-369.

Miller, A., et al. (2019). Algorithms, social media, and the spread of misinformation: The role of design. Journal of Digital Ethics, 15(2), 112-130.

Nickerson, R. S. (1998). Confirmation bias: A ubiquitous phenomenon in many guises. Review of General Psychology, 2(2), 175-220.

O'Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Crown Publishing Group.

Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin Press.

Pavlopoulos, J., Malakasiotis, P., & Androutsopoulos, I. (2017). Deep learning for detecting fake news: A survey. Proceedings of the International Conference on Computational Linguistics (COLING), 1-10.

Pennycook, G., & Rand, D. G. (2018). Fighting misinformation on social media using crowdsourced judgments of news source quality. Proceedings of the National Academy of Sciences, 115(7), 1374-1379.

Pennycook, G., & Rand, D. G. (2019). Fighting misinformation on social media using crowdsourced judgments of news source quality. Proceedings of the National Academy of Sciences, 116(7), 2521-2526.

Tapscott, D., & Tapscott, A. (2016). Blockchain revolution: How the technology behind bitcoin is changing money, business, and the world. Penguin.

Tufekci, Z. (2015). Algorithmic harms beyond Facebook and Google: Emergent challenges of computational agency. Colorado Technology Law Journal, 13(2), 203-218.

Tufekci, Z. (2015). Machine learning: The forgotten foundation of modern artificial intelligence. The Atlantic.

Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. A., Kaiser, Ł., & Polosukhin, I. (2017). Attention is all you need. Proceedings of the 31st International Conference on Neural Information Processing Systems, 5998-6008.

Wardle, C., & Derakhshan, H. (2017). Information disorder: Toward an interdisciplinary framework for research and policy-making. Council of Europe Report.

World Health Organization. (2020). Managing the COVID-19 infodemic: Promoting healthy behaviors and mitigating the harm from misinformation and disinformation. WHO.

Zarsky, T. (2016). The trouble with algorithmic decisions: An analysis of the implications of algorithmic decision-making for privacy and fairness. Washington University Law Review, 94(4), 1061-1107.

Zhou, X., et al. (2020). Fake news detection: A data mining perspective. Data Mining and Knowledge Discovery, 34(4), 730-758.

Zhou, X., & Zafarani, R. (2020). A survey of fake news: Fundamental theories, detection methods, and opportunities. ACM Computing Surveys, 53(5), 1-40.

 

ليندا ماهر شويكيباحثة متخصصة في الإعلام الرقمي والذكاء الاصطناعي، تُركز على تطوير حلول مبتكرة لمواجهة الأخبار الزائفة والمعلومات المضللة باللغة العربية. وتمتلك خبرة واسعة في الصحافة الاستقصائية. حاصلة على درجة الماجستير في الإعلام الرقمي والاتصال.

إيناس محمود الحج علي.صحفية ومترجمة وباحثة متخصصة في الإعلام الرقمي والسلوك البشري. حاصلة على درجة الماجستير في الإعلام الرقمي والاتصال