فهم الذكاء الاصطناعي: رحلة من خطاب الكراهية إلى البوتات والحروب الطائفية 

by sailforchange | September 16, 2025 | UA at SAIL Blogs

 زينة حمود 

تخيّل المشهد الآتي: تتصفّح تويتر في مساءٍ هادئ، وفجأة تمتلئ صفحتك بمشادات بين مستخدمين من طوائف دينية مختلفة يستخدمون لغةً مسيئة. بعضهم يصف الآخرين بـ«الشياطين»، وآخرون يلوّحون بنظريات المؤامرة. تلمح حسابًا ينشر تحديثات كل بضع ثوانٍ بصياغةٍ آليةٍ بعض الشيء. تواصل التمرير فترى تعليقاتٍ سلبيةً عن حربٍ دائرة، وتحتها ردودٌ رصينة تُفنِّد الدعاية. تتساءل: من كتب هذه الردود؟ بشرٌ أم ذكاءٌ اصطناعي؟ وكيف عرفوا ماذا يقولون؟

ليست هذه «دراما» على وسائل التواصل فحسب؛ بل تكشف مشكلاتٍ عميقةً في عالمنا اليوم: الكراهية، والتلاعب، والمعلومات المضلِّلة، وحالةُ عدم اليقين الوجودي بشأن ما هو حقيقي ومن على الجانب الآخر من الشاشة. يقودنا هذا المسار إلى اكتشاف الذكاء الاصطناعي، لا كحقلٍ تقنيٍّ بعيد، بل كقوةٍ مُشكِّلةٍ للحياة تُعيد صياغة عقولنا ومجتمعاتنا.

خطاب الكراهية الطائفي على الانترنت: حالة حروب تويتر بين السنة والشيعة

في دراستها «حروب تويتر الطائفية» حلّلت ألكسندرا سيغل أكثر من 7 ملايين تغريدة عربية بين فبراير وأغسطس 2015، كاشفةً عن ارتباطٍ مُقلق بين الأحداث العنيفة واندفاعاتٍ حادّةٍ في خطاب الكراهية الطائفي (سيغل، 2015، ص. 4).

الشكل 2. حجم التغريدات المعادية للشيعة في عام 2015. ملاحظة: مُقتبس بتصرّف من Sectarian Twitter Wars: Sunni-Shia Conflict and Cooperation in the Digital Age (ص 10)، للكاتبة أ. سيغل، 2015، مؤسسة كارنيغي للسلام الدولي. © 2015 مؤسسة كارنيغي.

أسرع الطفرات في التغريدات المعادية للشيعة—وبذروةٍ تتجاوز 350 ألف تغريدةٍ في يومٍ واحد—وقعت مباشرةً بعد الحملة العسكرية التي تقودها السعودية والمعروفة باسم عملية «عاصفة الحزم» (الحدث 1). كما أدّت أعمالٌ عنيفة لاحقة—مثل تفجيرات المساجد وهجمات «داعش»—إلى طفراتٍ أخرى أقل حدّة لكن ملحوظة. وهذا يؤكّد أنّ العنف خارج الإنترنت قد يُطلق موجاتٍ من الخطاب الطائفي على الشبكة، ولا سيّما حين يُؤطَّر الصراع بوصفه دينيًا لا سياسيًا.

الشكل 5 والشكل 6. حجم التغريدات المعادية للشيعة في عام 2015. ملاحظة: مُقتبس بتصرّف من Sectarian Twitter Wars: Sunni-Shia Conflict and Cooperation in the Digital Age (ص 10)، أ. سيغل، 2015، مؤسسة كارنيغي. © 2015 مؤسسة كارنيغي.

وعلى خلاف شبكة معاداة الشيعة الكثيفة والمتصلة، يُظهر الشكل الثاني أنّ التغريدات المعادية للسنّة (بالأزرق) والمعادية لـ«داعش» (بالأحمر) أقلّ تركّزًا ولا ترتبط بحساباتٍ مركزية. كما تبدو العُقَد الخضراء—وهي حساباتٌ معادية للشيعة تستخدم لغةً معاديةً للسنّة—متناثرةً وقليلة. وتُجسّد هذه الشبكة الأضعف لا تماثلَ الخطاب الطائفي على الإنترنت: فمع أنّ هناك لغةً معاديةً للسنّة، فإنها أقلّ مركزيةً وأضعف انتشارًا.

لماذا يهمّنا فهم هذا؟ لأنّ الكلمات على الإنترنت تُعرّف الواقع خارجه. فتصوير الحروب على أنّها دينيةٌ لا سياسيةٌ يُعبِّئ الرأي العام ويقمع المعارضين. وحين نشرت «داعش» مقاطعَ مُنمّقةً سينمائيًا مشبعةً بخطابٍ طائفي، حوّلت التحيّزات الكامنة إلى رسائل تجنيد. مثل هذه الدعاية المتطرّفة لا تعكس الواقع فحسب؛ بل تُعيد تشكيله.

الخطاب المضاد: مكافحة الكراهية بالذكاء الاصطناعي

مع ذلك، ليس الذكاء الاصطناعي «الشرير الوحيد». فقد طوّر باحثون—ضمن دراسةٍ عن الصراع الروسي-الأوكراني—نظامًا يعتمد النماذج اللغوية الكبيرة (LLMs) مثل ChatGPT والاسترجاع المعزَّز بالتوليد (RAG) لتقليل خطاب الكراهية على تويتر (ليخا، سيمِك، وداغلي، 2024). يحلّل النظام التغريدات المسيئة، ويفهم معناها، ويولّد سردياتٍ مضادّة تُفنِّد الأكاذيب وتُخفّف التوتّر.

فعند الرد على منشورٍ كراهية يزعم أنّ جماعةً ما تُنتج أسلحةً بيولوجية، يستخدم الذكاء الاصطناعي أدلةً وحقائقَ دقّاقة لتفنيد الادعاء بنبرةٍ هادئةٍ وموجزة. وقد حقّق النظام دقةً بلغت 97% ودرجة F1 تساوي 0.965 في رصد خطاب الكراهية، كما حازت الردود المضادّة تقييماتٍ عاليةً من حيث الصلة واللغة. ويُبرز ذلك قدرة الذكاء الاصطناعي على خفض التوتّرات لا زيادتها.

القلق الوجودي ولماذا نحتاج إلى فهم الذكاء الاصطناعي

تستدعي هذه التطورات أسئلةً إنسانيةً عميقة: من يُشكّل أفكارنا—البشر أم الآلات؟ هل نتعرّض لتلاعب قوىً غير مرئيةٍ وخارجةٍ عن متناولنا؟ وهل تُظهِر لنا الروبوتات تحيّزاتنا أم تُكرّسها؟

ليست هذه تساؤلاتٍ فلسفيةً للتأمّل فحسب. إن عجزنا عن فهم التكنولوجيا يجعلُنا مستهلكين سلبيين لسرديات الأقوياء: من جماعات الكراهية التي تستخدم خطاب التحريض، إلى حكوماتٍ تُطلق البوتات كأسلحة، إلى شركاتٍ تُطوِّر الذكاء الاصطناعي للربح لا للحقيقة. وتُظهر أمثلةٌ واقعية—من سفك الدماء الطائفي على تويتر إلى التأثير في نتائج الانتخابات عبر شبكات البوتات—أنّ الثقافة الرقمية ضرورةٌ لكل المواطنين، لا للمهندسين وحدهم.

تجاوز هذه التحدّيات

ثلاثةُ مساراتٍ رئيسة مُقترحة:

  1. تطوير أنظمة رصدٍ متقدّمة: تمزج التعلّم العميق وتحليل الرسوم البيانية والذكاء القابل للتفسير لرصد البوتات عبر المنصّات وبزمنٍ شبه آني.
  2. بناء سردياتٍ مضادّة: استخدام الذكاء الاصطناعي لا للرصد فحسب، بل لإنتاج ردودٍ حقائقيةٍ محترمة على خطاب الكراهية.
  3. تعزيز محو الأمّية الإعلامية والتفكير النقدي: يظلّ المستخدم البشري خطَّ الدفاع الأوّل ضدّ الخداع، بمساندة أدوات الذكاء الاصطناعي. وتعليم آليات الدعاية—أي الخطاب الطائفي المُقنّع بلبوس «الحقائق الدينية»—يُكسب الأفراد مهاراتٍ لمواجهة السرديات المُستقطِبة.

الذكاء الاصطناعي ليس خيرًا محضًا ولا شرًا محضًا؛ إنّه—بوصفه تقنية لغوية—يُضخِّم نوايا مستخدميه. ولتسيير مستقبلنا معه أخلاقيًا، علينا أن:

  • نفرض المساءلة على تقنيات الذكاء الاصطناعي المستخدمة في تنظيم المحتوى والخطاب المضاد على وسائل التواصل.
  • نُحاسب الشركات التقنية التي تنشر البوتات أو تُسهم في تضليل الجمهور.
  • نُثقف الجمهور حول المحتوى المُولَّد بالذكاء الاصطناعي: آلياته، وطرق تضليله المحتملة، وكيفية التحقّق من الحقائق.
  • نُقرّ سياساتٍ تُوازِن بين التطوير الأخلاقي للذكاء الاصطناعي وحماية حرية التعبير والخصوصية.

وأخيرًا، ينبغي أن ندرك أنّ معضلتنا الوجودية—الخوف من فقدان السيطرة لصالح الحواسيب—لا تُحَلّ بتجنّب التكنولوجيا، بل بفهمها العميق. متى فهمنا كيف يعمل الذكاء الاصطناعي، استطعنا استخدامه بحكمة: لرصد البوتات الناشرة للكراهية، وبناء سرديات سلام، وضمان أن تبقى مجتمعاتنا إنسانيةً في عصر الآلات الذكية.

ليخا، ر.، سيميِك، أ.، وداغلي، ش. (2024). «حرب الكلمات: تسخير إمكانات النماذج اللغوية الكبيرة والاسترجاع المعزَّز بالتوليد لتصنيف خطاب الكراهية ومكافحته وتخفيفه». وقائع مؤتمر جمعية فلوريدا لأبحاث الذكاء الاصطناعي (FLAIRS)، 37(1). . https://doi.org/10.32473/flairs.37.1.135484

References

عن الكاتبة

زينة حمود  طالبة علم كمبيوتر في الجامعة الأميركية في بيروت