ليندا ماهر شويكيباحثة متخصصة في الإعلام الرقمي والذكاء الاصطناعي، تُركز على تطوير حلول مبتكرة لمواجهة الأخبار الزائفة والمعلومات المضللة باللغة العربية. وتمتلك خبرة واسعة في الصحافة الاستقصائية. حاصلة على درجة الماجستير في الإعلام الرقمي والاتصال.
يشهدُ العصر الرقميّ الحالي زخمًا غير مسبوق في تدفق المعلومات، حيث أصبحت التكنولوجيا جزءًا لا يتجزأ من الحياة اليومية. إلّا أنّ هذا الزخم صَاحبه تحدٍ كبيرٌ يتمثّل في انتشار المعلومات المضلّلة، التي لم تعد مجرّد أخطاء عشوائيّة، بل أصبحت وسيلة استراتيجيّة تُستخدَم لتحقيق أهداف سياسيّة، أو اقتصاديّة، أو اجتماعيّة (Lewandowsky et al., 2017).
في حين أنّ الذكاء الاصطناعيّ (AI) أضحى يقوم بدورٍ مركزيّ في هذا السياق. فمن جهةٍ، تسهم تقنيات الذكاء الاصطناعيّ في تسريع إنشاء ونشر الأخبار الزائفة. ومن جهةٍ أخرى، توفّر أدوات فعّالة لكشف هذه الأخبار والتصدّي لها. هذا التناقض يفتح الباب أمام تساؤلاتٍ جوهريّة حول طبيعة العلاقة بين الذكاء الاصطناعيّ والسلوكيّات البشريّة التي تؤدي إلى انتشار التضليل (Martens et al., 2018).
لقد باتت المعلومات المضلّلة تمثل تحديًا كبيرًا في العصر الرقميّ، حيث تتشابك العوامل البشريّة والتكنولوجيّة في خلق هذه الظاهرة. ومن أجل فهم العلاقة بين السلوكيّات البشريّة واستخدام الذكاء الاصطناعيّ، فإنّه لا بدّ من تحليل العوامل النفسيّة والاجتماعيّة التي تؤدي إلى نشر التضليل، إلى جانب دور الذكاء الاصطناعيّ في تسريع انتشاره أو مكافحته.
لتحليل هذه الظاهرة المعقّدة، يَستلزم الأمر دراسة شاملة تتناول الجوانب النفسيّة، والثقافيّة، والتكنولوجيّة، مع تسليط الضوء على كيفيّة تفاعل السلوكيّات البشريّة مع الذكاء الاصطناعيّ في نشر المعلومات المضلّلة وسُبل التعامل معها.
في عصر المعلومات المتسارع، يُعتبر الإنسان الحلقة الأساسية في سلسلة انتشار المعلومات، سواء كانت صحيحة أو مضللة. السلوكيّات البشرية، بما في ذلك الأنماط النفسيّة والاجتماعيّة، تضطلعُ بدور محوريّ في تشكيل انتشار المحتوى عبر المنصّات الرقميّة (Mishra & Michael, 2024). وبربط هذه السلوكيات بظاهرة «الوباء المعلوماتيّ» (Pagoto et al., 2023)، يتضح كيف يساهم التفاعل بين العوامل النفسيّة البشريّة والمنصات التقنيّة في تعزيز أو تقليص انتشار المعلومات المضللة؛ ممّا يُحدث تأثيراتٍ عميقةً على الأفراد والمجتمعات.
إنّ ظاهرة «الوباء المعلوماتيّ»، أو ما يُعرف بـ (Infodemic)، هي ظاهرة برزت في عصر الرقْمنة المتسارع كأحد أخطر تحديات العصر الحديث. فبينما توفّر التكنولوجيا وسيلة فعالة لنقل المعرفة، فقد باتَ الانتشار المفرط والسريع للمعلومات الصحيحة والخاطئة على حد سواء سلاحًا ذا حدين. هذا التدفّق الكبير للمعلومات، سيّما عبر وسائل التواصل الاجتماعي، يؤدي إلى حالة من التشويش التي تجعل من الصعب على الأفراد تمييز الحقائق من الأكاذيب؛ مما يفاقم التحديات الصحية والسياسية والاجتماعية.
ظهر مصطلح «الوباء المعلوماتيّ» بوضوحٍ خلال أزمة فيروس كورونا (COVID-19)، حيث لوحظ أن انتشار المعلومات المضللة كان له تأثير مدمر على استجابة الأفراد والمجتمعات للجائحة. ووفقًا لمنظمة الصحة العالمية (WHO, 2020)، يشير هذا المصطلح إلى الانتشار المُفرط للمعلومات، سواء أكانت دقيقة أو مغلوطة، مما يعيق قدرة الناس على اتخاذ قرارات مستنيرة في وقت الأزمات. انتشار المعلومات المضللة خلال الجائحة شملَ نصائحَ صحيّةً زائفة، وشائعات عن اللقاحات، ونظريات مؤامرة أثرت بشكل سلبي على الجهود المبذولة للسيطرة على الأزمة.
ويتخذ الوباء المعلوماتيّ أشكالًا متعددة، تختلف في طبيعتها وتأثيرها على الأفراد والمجتمعات:
يؤدي ضعف الوعي الإعلاميّ إلى زيادة هشاشة الأفراد أمام المعلومات المضللة. العديد من المستخدمين يفتقرون لمهارات التفكير النقديّ والتحقق من مصادر المعلومات، مما يجعلهم غير قادرين على تقييم مصداقية الأخبار وتصديق الشائعات ونشرها. فمثلًا، عند تلقي رسالة مثيرة عبر تطبيقات الرسائل الفورية مثل «واتساب»، غالبًا ما تُعاد مشاركتها دون فحص مصداقيتها (Pennycook & Rand, 2019). وهذا يفضي إلى الاستغلال المتعمد للمعلومات المضللة، فتصبح بعض الجهات تستخدم المعلومات المضلِّلة كأداة لتحقيق أهداف سياسيّة أو اقتصاديّة أو اجتماعيّة (Brennen et al., 2020).
علاوة على ذلك، فإن الإنسان لا يُعد متلقيًا للمعلومات المضلِّلة فحسب، بل هو عامل رئيسي في نقلها وتعزيزها؛ مما يحوّل الأخبار الكاذبة إلى وباء معلوماتي يصعب السيطرة عليه (Pennycook & Rand, 2019). العلاقة التفاعلية بين البشر والتكنولوجيا الرقمية تُبرز كيف أن السلوكيات البشرية تُغذي الخوارزميات ببيانات خاطئة، بينما تستغل هذه الخوارزميات هذه السلوكيات لتعزيز انتشار المحتوى المضلل (Bakir & McStay, 2018). هذه الحلقة المغلقة بين البشر والتكنولوجيا تُكرس دائرة من التضليل يصعب كسرها (Vosoughi et al., 2018).
تقوم السلوكيات البشرية بدور محوريّ في تعزيز انتشار الوباء المعلوماتي، حيث تتأثر هذه السلوكيات بشكل كبير بالمنصات الرقمية وآليات عملها. تعتمد منصات التواصل الاجتماعي على تصميم موجَّه يهدف إلى زيادة تفاعل المستخدمين مع المحتوى، مما يؤدي إلى إبراز المحتوى الذي يثير استجابات عاطفية قوية (Bakir & McStay, 2018). على سبيل المثال، المنشورات المثيرة للجدل أو التي تحمل طابعًا عاطفيًا عاليًا غالبًا ما تحظى بأولوية العرض في الخوارزميات، بغض النظر عن صحتها (Vosoughi et al., 2018). هذا النهج يدفع المستخدمين إلى مشاركة المعلومات بسرعة، دون التحقق من مصداقيتها، تحت ضغط الرغبة في المشاركة الفورية أو الحاجة إلى التفاعل الاجتماعي (Pennycook & Rand, 2019).
كما إن الانحيازات النفسية والسلوكية تُعد محفزًا رئيسيًا لوباء المعلومات، مثل الانحياز التأكيدي (Confirmation Bias)؛ حيث يميل الأفراد إلى تصديق المعلومات التي تتفق مع معتقداتهم المسبقة وتصديقها دون التحقق من دقتها، حتى إن كانت خاطئة، مما يجعلهم أدوات لنشر التضليل (Lewandowsky et al., 2017). على سبيل المثال، قد يشارك شخص ما خبرًا كاذبًا حول فعالية علاج غير مثبت لمرض ما لأنه يتماشى مع مخاوفه أو آماله.
ومن أبرز الانحيازات النفسية والسلوكية هو التحيز العاطفي (Emotional Bias)، حيث تستثير المعلومات المضللة مشاعر قوية مثل الخوف، أو الغضب، أو السعادة، مما يدفع الأفراد لمشاركتها بسرعة دون التحقق من المصدر (Brennen et al., 2020). يصبح الناس أكثر عرضة لتصديق المعلومات التي تقدم إجابات سريعة، حتى لو كانت تفتقر إلى الأدلة العلمية، خاصة خلال الأزمات الصحية، مثل جائحة كورونا، التي ولدت مشاعر الخوف والغموض وساهمت في انتشار الشائعات المضللة بسرعة (WHO, 2020).
كما تؤثر العوامل الاجتماعية والثقافية تؤثر على السلوكيات والتأثير الاجتماعي (Social Influence). من خلال مشاركة المعلومات لتلبية التوقعات الاجتماعية أو تعزيز الانتماء لجماعة معينة، مثل نشر أخبار سياسية تعزز مواقف جماعة ما على حساب الحقيقة، يصبح الأشخاص الذين يعتمدون على مصادر معلومات غير رسمية، مثل مجموعات التواصل الاجتماعي المغلقة، أكثر عرضة لنشر معلومات غير دقيقة (Wardle & Derakhshan, 2017)؛ وهو ما يولد مفهوم التنافسية في نشر الأخبار (News Sharing Competition): أي تلك الرغبة في أن يكون الشخص "الأول" الذي ينشر خبرًا معينًا قد يدفعه إلى مشاركة معلومات غير مؤكدة.
السلوك الجماعي يُعد عاملاً أساسيًا آخر في تضخيم ظاهرة الوباء المعلوماتي. عندما يتصرف الفرد ضمن مجموعة، فإنه غالبًا ما ينجرف وراء التوجه العام للمجموعة، سواء كان مبنيًا على حقائق أو شائعات. هذا السلوك يتجلى بوضوح خلال الأزمات، حيث تؤدي الشائعات المتعلقة بعلاج معين أو تحذيرات مغلوطة إلى انتشار واسع للتضليل داخل شبكات اجتماعية مترابطة (Vosoughi et al., 2018). وفي هذه الحالة، يغيب التحقق الفردي لصالح تعزيز الانتماء للجماعة أو تجنب الاختلاف معها.
الآثار النفسية والسلوكية الناتجة عن الوباء المعلوماتي تظهر بوضوح في زيادة القلق والخوف بين الأفراد. المعلومات المضللة تؤدي إلى قرارات غير عقلانية، مثل شراء منتجات غير مجدية أو رفض اللقاحات الضرورية (Lewandowsky et al., 2017). هذه السلوكيات لا تؤثر فقط على الأفراد، بل تمتد لتشمل المجتمعات ككل، مما يعمق التحديات الاجتماعية والصحية الناجمة عن انتشار التضليل.
نظرية السلوك المخطط (Theory of Planned Behavior - TPB) هي إطار نفسي يهدف إلى تفسير وتوقع السلوك البشري بناءً على ثلاثة مكونات رئيسية:
تشرح هذه النظرية (Ajzen, 1991) كيف تتأثر قرارات الأفراد وسلوكياتهم بعوامل مثل الاتجاهات: أي المواقف الشخصية تجاه مشاركة المعلومات؛ مثل اعتقاد البعض أن نشر محتوى معين يساعد في نشر الوعي، حتى لو كان غير دقيق. والمعايير الاجتماعية والتي تُعنى بتأثير الضغوط الاجتماعية في دفع الأفراد لمشاركة محتوى معين بهدف القبول الاجتماعي أو التأثير على الآخرين. السيطرة السلوكية المدركة كإدراك الفرد لقدرته على التحكم في سلوكياته، مثل التحقق من مصدر الخبر قبل مشاركته. والانحياز التأكيدي (Confirmation Bias)، يتضح هذا الانحياز في ميل الأفراد إلى تصديق المعلومات التي تُدعّم معتقداتهم السابقة، حتى لو كانت خاطئة. فعلى سبيل المثال، يميل شخص يؤمن بنظرية مؤامرة معينة إلى تصديق الأخبار التي تدعم هذه النظرية دون التحقق منها.
عند تطبيق نظرية السلوك المخطط على انتشار الأخبار المضللة، يمكن تفسير كيفية انتشار المعلومات المضللة ودوافع المشاركة فيها:
يمكن استغلال هذه النظرية لتعزيز سلوكيات مكافحة التضليل (Ajzen, 1991). مثلًا، تحسين مواقف الأفراد تجاه أهمية التحقق من المعلومات من خلال التوعية بمخاطر الأخبار المضللة، وإبراز أهمية تحمل المسؤولية الاجتماعية في نشر الحقائق (Brennen et al., 2020). كما يمكن استخدام الحملات الإعلامية لتغيير المعايير الاجتماعية، بحيث يصبح التحقق من الأخبار معيارًا متفقًا عليه. أخيرًا، تمكين الأفراد عبر تقديم أدوات رقمية للتحقق من صحة الأخبار يعزز إدراكهم للسيطرة على سلوكهم، مما يقلل من احتمالية مشاركتهم للمعلومات المضللة (Wardle & Derakhshan, 2017).
توفر هذه النظرية إطارًا عمليًا لفهم جذور السلوكيات المتعلقة بالأخبار المضللة ووضع استراتيجيات فعّالة للتعامل معها، سواء من خلال التعليم أو الحملات الاجتماعية.
هناك عدة عوامل رئيسية تُسهم في انتشار «الوباء المعلوماتيّ» تجمع بين التطورات التقنية والسلوكيات البشرية، أهمها تطور التكنولوجيا الرقمية، والاعتماد المفرط على التكنولوجيا والخوارزميات حيث أصبحت أداة رئيسية لتسريع انتشار المعلومات، والثقة المفرطة في الأنظمة الرقمية المدعومة بالذكاء الاصطناعي، مثل نتائج البحث أو المنشورات الموصى بها، حيث قد تجعل الأفراد يعتقدون بصحة أي محتوى مروّج له على المنصات. فبات ممكنًا لأي شخص نشر معلومات بسرعة فائقة دون رقابة تُذكر. بالإضافة إلى ذلك، تعتمد هذه المنصات على خوارزميات تُبرز المحتوى الذي يُثير التفاعل، بغض النظر عن صحته، مما يضاعف من انتشار المحتوى المضلل (Bakir & McStay, 2018; Vosoughi et al., 2018).
تساهم قلة الوعي بخوارزميات الذكاء الاصطناعي وكيفية عملها أيضًا في تعزيز انتشار التضليل. يعتقد الكثيرون أن المحتوى الذي يُروَّج له عبر الخوارزميات موثوق تلقائيًا، دون إدراك أن هذه الأنظمة تعتمد على أنماط التفاعل والاهتمام بدلًا من جودة المعلومات. هذا الاعتماد المفرط على التكنولوجيا الرقمية يجعل الأفراد أكثر عرضة للمعلومات المضللة، حيث يُتلاعَب بالخوارزميات لدفع محتوى محدد يحقق أهدافًا معينة، سواء كانت تجارية أو سياسية (Zhou & Zafarani, 2020).
في هذا السياق، يلعب الذكاء الاصطناعي (AI) دورًا مزدوجًا كأداة لنشر المعلومات المضللة ومكافحتها (Ferrara et al., 2020).
يواجه استخدام الذكاء الاصطناعي في التعامل مع المعلومات المضللة عدة تحديات واعتبارات أخلاقية. من أبرز التحديات ضرورة الحفاظ على خصوصية المستخدمين عند استخدام البيانات الضخمة التي يعتمد عليها الذكاء الاصطناعي في التحليل والتصنيف (Zarsky, 2016) بالإضافة إلى ذلك، قد تُظهر النماذج الذكية انحيازات ضمنية نتيجة للبيانات المستخدمة في تدريبها، مما يطرح تساؤلات حول نزاهة النتائج ومدى دقتها (Angwin et al., 2016). ومن الاعتبارات الأخلاقية المهمة ضرورة تحقيق الشفافية في كيفية استخدام تقنيات الذكاء الاصطناعي لضمان عدم استغلالها في تعزيز التضليل بدلًا من مكافحته (O'Neil, 2016). علاوة على ذلك، يتطلب التعامل مع التضليل توازنًا بين أتمتة العمليات والتحكم البشري لضمان موثوقية التقييمات وتقليل القرارات الخاطئة. التحدي الأكبر يكمن في خلق توازن بين الاستفادة من الإمكانيات التقنية الهائلة للذكاء الاصطناعي مع احترام القيم الإنسانية الأساسية مثل الخصوصية، والنزاهة، والشفافية (Binns, 2018)
تعتمد أنظمة الذكاء الاصطناعي على جمع وتحليل كميات ضخمة من البيانات (Crawford & Paglen, 2019)، مما يثير قضايا تتعلق بالخصوصية. وقد تُستخدم البيانات الشخصية التي يتم جمعها لأغراض أخرى غير مكافحة التضليل، مما يُعرض المستخدمين لمخاطر إضافية. كما أنه قد تكون الأنظمة الآلية نفسها مُنحازة، بناءً على البيانات التي دُرِّبَت عليها. هذا قد يؤدي إلى اتخاذ قرارات غير عادلة (Tufekci, 2015).
يشكل التفاعل بين السلوكيات البشرية والذكاء الاصطناعي إطارًا محوريًا لفهم كيفية انتشار المعلومات المضللة والأخبار الكاذبة. إذ تؤثر العوامل النفسية والاجتماعية في الإنسان على عملية استهلاك المعلومات وتوزيعها (Pennycook & Rand, 2018)، بينما تقوم الأنظمة المدعومة بالذكاء الاصطناعي بدور في تصميم البيئات الرقمية التي تؤثر على هذه السلوكيات (Zeng, 2020).
السلوكيات البشرية، مثل الميل إلى الانحياز التأكيدي (Confirmation Bias)، تجعل الأفراد يفضلون المعلومات التي تتوافق مع معتقداتهم الشخصية (Nickerson, 1998) علاوة على ذلك، يؤدي الضغط الاجتماعي والاندفاع العاطفي إلى مشاركة المعلومات بسرعة دون التحقق من صحتها؛ مما يساهم في انتشار الأخبار المضللة (Friggeri, Galstyan, & Soni, 2014). تبرز هذه السلوكيات بشكل خاص عند التعامل مع المحتوى العاطفي الذي يستهدف مشاعر الخوف أو الغضب، حيث أظهرت دراسات أن الأخبار المثيرة عاطفيًا تميل إلى الانتشار أوسع وأسرع عبر الشبكات الرقمية (Vosoughi, Roy, & Aral, 2018)
تُصمم خوارزميات الذكاء الاصطناعي لتعظيم التفاعل مع المحتوى الرقمي. نتيجة لذلك، تميل هذه الأنظمة إلى دفع المحتويات التي تثير الاستجابات العاطفية القوية، بغض النظر عن دقتها (Pennycook & Rand, 2018). تعمل المنصات على استخدام تقنيات التخصيص (Personalization) لتقديم محتوى يتماشى مع اهتمامات المستخدمين؛ مما يؤدي إلى تضخيم غرف الصدى (Echo Chambers) ويزيد من صعوبة الوصول إلى مصادر معلومات متنوعة (Pariser, 2011).
تُظهر الدراسات أن بعض المستخدمين يثقون بشكل مفرط في أنظمة الذكاء الاصطناعي، ويفترضون أن كل ما تنتجه أو توصيه به هذه الأنظمة هو دقيق. هذا السلوك يُقلل من التفكير النقدي وزيادة احتمالية نشر الأخبار المضللة. كما إن الذكاء الاصطناعي يتأثر بالسلوكيات البشرية (Fogg et al., 2003) من ناحية تعزيز التضليل من خلال البيانات المدخلة إليه. على سبيل المثال، إذا شارك المستخدمون معلومات مضللة، فإنّ الأنظمة الذكية قد تتعلّم أنماطَ هذا المحتوى وتعمل على تعزيز انتشاره (Joulin et al., 2017).
والأمر ذاته في مكافحة التضليل؛ حيث يمكن للذكاء الاصطناعي أن يسهم في الحد من الأخبار الكاذبة عبر تقنيات مثل تحليل النصوص للكشف عن التحيزات، والتعلم الآلي (Zhou et al., 2020) لاكتشاف الأنماط المرتبطة بالمعلومات المضللة. كما إنّ تقديم أدوات تحقق مدمجة مع المنصات الرقمية يساعد الأفراد على التمييز بين الحقائق والأكاذيب (Pennycook & Rand, 2018).
التصميم الموجه (Persuasive Design): تعتمد منصات التواصل الاجتماعي على تصميم يُحفز الإدمان، مثل: الإشعارات المستمرة التي تدفع المستخدمين للبقاء على المنصة لفترة أطول. وأيضًا من خلال التمرير اللانهائي (Infinite Scroll) الذي يُشجع على استهلاك المزيد من المحتوى دون التفكير في جودته (Alter, 2017).
يتضح أن العلاقة بين السلوكيات البشرية والذكاء الاصطناعي تخلق بيئة ديناميكية يمكن أن تعزز أو تقلل من انتشار الأخبار المضللة. ومن الضروري تعزيز الوعي المجتمعي وتحسين خوارزميات الذكاء الاصطناعي لتحقيق توازن يضمن استخدامًا أخلاقيًا لهذه التقنيات لمكافحة التضليل بدلًا من تسهيله (Miller et al., 2019).
بناءً على العلاقة بين السلوكيات البشرية والذكاء الاصطناعي في سياق الأخبار المضللة، يمكن تقديم التوصيات التالية لتعزيز المكافحة والوقاية:
لمواجهة ظاهرة الأخبار المضللة، يمكن للتقنيات المتقدمة مثل الذكاء الاصطناعي أن تضطلع بدورٍ محوريّ في الكشف عن التضليل ومكافحته. مع ذلك، يتطلب تحقيق النجاح في هذه الجهود تعاونًا شاملًا بين الحكومات وشركات التكنولوجيا والمجتمع المدني. يبقى التحدي الأكبر هو تحقيق توازن دقيق بين الاستفادة من إمكانات الذكاء الاصطناعي من جهة، وحماية القيم الإنسانية الأساسية مثل الحق في المعرفة وخصوصية الأفراد من جهة أخرى. لا يمكن أن تثمر هذه الجهود إلا من خلال تنسيق متكامل بين الأفراد والمؤسسات والدول؛ لضمان تقليل الأضرار الناتجة عن التفاعل المعقد بين السلوكيات البشرية والمنصات الرقمية المدعومة بالذكاء الاصطناعي.
Ajzen, I. (1991). The theory of planned behavior. Organizational Behavior and Human Decision Processes, 50(2), 179-211.
Alter, A. (2017). Irresistible: The rise of addictive technology and the business of keeping us hooked. Penguin Press.
Amershi, S., Chickering, M., Kapoor, A., & Kamar, E. (2014). Human-in-the-loop machine learning. Proceedings of the 30th Annual Conference on Human Factors in Computing Systems, 2119-2128.
Angwin, J., Larson, J., Mattu, S., & Kirchner, L. (2016). Machine bias. ProPublica.
Archer, M. S., & Cameron, C. (2009). Personal agency and the digital world: Rethinking the TPB. Cyberpsychology & Behavior, 12(3), 272-276.
Bakir, V., & McStay, A. (2018). Fake news and the economy of emotions: Problems, causes, solutions. Digital Journalism, 6(2), 154-175.
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610-623.
Binns, R. (2018). Fairness in machine learning: Lessons from political philosophy. Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems, 1-14.
Brennen, J. S., Simon, F. M., Howard, P. N., & Nielsen, R. K. (2020). Types, sources, and claims of COVID-19 misinformation. Reuters Institute.
Chesney, R., & Citron, D. K. (2019). Deepfakes: A looming challenge for privacy, democracy, and national security. California Law Review, 107(5), 1753-1819.
Crawford, K., & Paglen, T. (2019). Atlas of AI: Mapping the geography of artificial intelligence. Yale University Press.
Ferrara, E., Cresci, S., & Luceri, L. (2020). Misinformation, manipulation, and abuse on social media in the era of COVID-19. Computers in Human Behavior Reports, 2, 100034.
Fogg, B. J., et al. (2003). The persuasive technology: Using computers to change what we think and do. Morgan Kaufmann.
Friggeri, A., Galstyan, A., & Soni, A. (2014). Rumor cascades. Proceedings of the Eighth International Conference on Weblogs and Social Media, ICWSM 2014, 101-110.
Joulin, A., Grave, E., Mikolov, T., et al. (2017). Bag of tricks for efficient text classification. arXiv preprint arXiv:1607.01759.
Lewandowsky, S., Ecker, U. K., & Cook, J. (2017). Beyond misinformation: Understanding and coping with the “post-truth” era. Journal of Applied Research in Memory and Cognition, 6(4), 353-369.
Miller, A., et al. (2019). Algorithms, social media, and the spread of misinformation: The role of design. Journal of Digital Ethics, 15(2), 112-130.
Nickerson, R. S. (1998). Confirmation bias: A ubiquitous phenomenon in many guises. Review of General Psychology, 2(2), 175-220.
O'Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Crown Publishing Group.
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin Press.
Pavlopoulos, J., Malakasiotis, P., & Androutsopoulos, I. (2017). Deep learning for detecting fake news: A survey. Proceedings of the International Conference on Computational Linguistics (COLING), 1-10.
Pennycook, G., & Rand, D. G. (2018). Fighting misinformation on social media using crowdsourced judgments of news source quality. Proceedings of the National Academy of Sciences, 115(7), 1374-1379.
Pennycook, G., & Rand, D. G. (2019). Fighting misinformation on social media using crowdsourced judgments of news source quality. Proceedings of the National Academy of Sciences, 116(7), 2521-2526.
Tapscott, D., & Tapscott, A. (2016). Blockchain revolution: How the technology behind bitcoin is changing money, business, and the world. Penguin.
Tufekci, Z. (2015). Algorithmic harms beyond Facebook and Google: Emergent challenges of computational agency. Colorado Technology Law Journal, 13(2), 203-218.
Tufekci, Z. (2015). Machine learning: The forgotten foundation of modern artificial intelligence. The Atlantic.
Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. A., Kaiser, Ł., & Polosukhin, I. (2017). Attention is all you need. Proceedings of the 31st International Conference on Neural Information Processing Systems, 5998-6008.
Wardle, C., & Derakhshan, H. (2017). Information disorder: Toward an interdisciplinary framework for research and policy-making. Council of Europe Report.
World Health Organization. (2020). Managing the COVID-19 infodemic: Promoting healthy behaviors and mitigating the harm from misinformation and disinformation. WHO.
Zarsky, T. (2016). The trouble with algorithmic decisions: An analysis of the implications of algorithmic decision-making for privacy and fairness. Washington University Law Review, 94(4), 1061-1107.
Zhou, X., et al. (2020). Fake news detection: A data mining perspective. Data Mining and Knowledge Discovery, 34(4), 730-758.
Zhou, X., & Zafarani, R. (2020). A survey of fake news: Fundamental theories, detection methods, and opportunities. ACM Computing Surveys, 53(5), 1-40.
ليندا ماهر شويكيباحثة متخصصة في الإعلام الرقمي والذكاء الاصطناعي، تُركز على تطوير حلول مبتكرة لمواجهة الأخبار الزائفة والمعلومات المضللة باللغة العربية. وتمتلك خبرة واسعة في الصحافة الاستقصائية. حاصلة على درجة الماجستير في الإعلام الرقمي والاتصال.
إيناس محمود الحج علي.صحفية ومترجمة وباحثة متخصصة في الإعلام الرقمي والسلوك البشري. حاصلة على درجة الماجستير في الإعلام الرقمي والاتصال