في أكتوبر 2025، استيقظ الإيرلنديون قبل يومين من الانتخابات الرئاسية على فيديو ينتشر بسرعة — المرشح الرئيسي يُعلن فيه انسحابه من السباق. الفيديو واضح، الصوت طبيعي، الخلفية مألوفة. المشكلة الوحيدة: كل شيء فيه كاذب. لم يُدلِ المرشح بأي تصريح. الفيديو صنعه ذكاء اصطناعي في دقائق.
الرقم الذي يجب أن يُقلقك
في أكتوبر 2025، نشرت هيئة الإذاعة الأوروبية EBU وشبكة BBC نتائج أكبر دراسة من نوعها عن الذكاء الاصطناعي والأخبار. الدراسة اختبرت كيف تتعامل برامج الذكاء الاصطناعي — كـ ChatGPT و Gemini وغيرها — مع تلخيص الأخبار وتقديمها للمستخدمين.
النتيجة: 45% من الأخبار التي لخّصها الذكاء الاصطناعي احتوت على معلومات خاطئة أو مُضلِّلة.
ليس 5%. ليس 10%. 45%.
والأخطر من الرقم نفسه هو ما قاله الباحثون: “هذه الإخفاقات ليست حوادث معزولة. إنها ممنهجة، عابرة للحدود، وعابرة للغات.” يعني أن المشكلة ليست في نموذج واحد أو لغة واحدة — بل في طبيعة الذكاء الاصطناعي نفسه حين يتعامل مع المعلومات الإخبارية.
كيف يكذب الذكاء الاصطناعي دون أن يعرف أنه يكذب
هذا السؤال جوهري — لأن الذكاء الاصطناعي لا يكذب بقصد. إنه لا يفهم الفرق بين الحقيقة والكذب بالمعنى الإنساني. إنه ببساطة يُنتج نصاً يبدو منطقياً ومتسقاً بناءً على الأنماط التي تعلّمها.
ما يُسمى في مجال الذكاء الاصطناعي “hallucination” — الهلوسة — هو حين يصف النظام شيئاً ليس موجوداً أصلاً، أو يختلق تفاصيل تبدو واقعية لكنها مفتراة. وشرح ذلك باحثو IBM بشكل بسيط: “النظام يُحاول أن يجعل اللغة سلسة وفي الوقت نفسه يجمع معلومات من مصادر متعددة. حين يفعل الأمرين في آنٍ واحد، يفقد الخيط — تماماً كالإنسان حين يتحدث ويفكر في شيء آخر.”
لكن الفارق بين الإنسان والآلة هنا حاسم: الإنسان الذي يفقد الخيط يتلعثم أو يتوقف. الذكاء الاصطناعي يُكمل بثقة تامة — وبنبرة من يعرف ما يقول.
الديب فيك — من 500 ألف إلى 8 ملايين
قبل سنتين فقط، كان عدد مقاطع الفيديو المزيفة بالذكاء الاصطناعي (Deepfakes) على الإنترنت يُقدَّر بـ500 ألف مقطع. في 2025، وصل الرقم إلى 8 ملايين.
ستة عشر ضعفاً في سنتين.
لكن الأرقام ليست الجانب الأكثر إثارة للقلق — بل الجودة. في 2022، كان الديب فيك يمكن كشفه بسهولة: حركة الشفاه لا تتطابق مع الصوت، العيون لا ترف بشكل طبيعي، الإضاءة على الوجه تبدو خاطئة. اليوم — في 2026 — هذه الأخطاء اختفت في معظم الحالات.
وفق مؤسسة World Economic Forum: “الديب فيك عبر حداً حرجاً في 2026. تحسّن وأزال العيوب السابقة وأصبح متاحاً لأي شخص يملك هاتفاً ذكياً.”
أي شخص. بهاتف. في دقائق.
ثلاث قصص حقيقية أقلقت العالم
أيرلندا 2025: قبل يومين من الانتخابات الرئاسية، انتشر فيديو لمرشح رئيسي يُعلن انسحابه — مدعوماً بمقاطع مزيفة من قنوات إخبارية وطنية “تؤكد” الخبر. الفيديو كاذب بالكامل. لكنه وصل لملايين الأيرلنديين قبل أن تتمكن السلطات من نفيه.
أمريكا أكتوبر 2025: خلال تجمع سياسي كبير، انتشر بين المستخدمين ادعاء بأن التغطية الإخبارية المباشرة كانت مجرد لقطات قديمة مُعاد تدويرها. كان الادعاء كاذباً — لكن روبوتات الدردشة كـ ChatGPT أعادت نشره ووسّعته دون تحقق، لأنه وجده منطقياً بناءً على ما تعلّمه من البيانات.
هولندا 2025: في حملة انتخابية، استُخدمت 400 صورة مُولَّدة بالذكاء الاصطناعي لمهاجمة مرشحين سياسيين — صور تبدو حقيقية تماماً وتُظهر مرشحين في مواقف محرجة لم تحدث قط.
هذه ليست قصصاً مستقبلية. حدثت. وستتكرر.
المشكلة العربية المضاعفة
ما يواجهه العالم من تحديات الذكاء الاصطناعي والأخبار يواجهه العالم العربي أيضاً — لكن بتعقيدات إضافية.
أولاً: معظم نماذج الذكاء الاصطناعي الكبرى تعلّمت أساساً على النصوص الإنجليزية. قدرتها على الحكم على صحة خبر عربي أضعف بكثير من قدرتها على نفس الشيء بالإنجليزية. دراسة نشرها باحثون من جامعة هارفارد أشارت إلى أن دقة برامج الذكاء الاصطناعي في كشف المعلومات المضلِّلة تنخفض بشكل ملحوظ في اللغات غير الإنجليزية.
ثانياً: ثقافة التحقق من المعلومات في العالم العربي لا تزال في مراحلها الأولى. مواقع التحقق والفاكت تشيكينغ موجودة لكنها قليلة مقارنة بالمحتوى المتداول يومياً.
ثالثاً: السوشيال ميديا في العالم العربي تتحرك بسرعة هائلة وتحظى بثقة عالية نسبياً من المستخدمين. هذا يعني أن الخبر المزيف — سواء كتبه إنسان أو ذكاء اصطناعي — ينتشر قبل أن يتمكن أحد من التحقق منه.
كيف يعمل صانع الأخبار المزيفة؟
في السابق، إنشاء موقع إخباري مزيف يتطلب وقتاً وجهداً وكتّاباً بشريين. اليوم الأمر مختلف.
بأدوات الذكاء الاصطناعي المتاحة مجاناً أو برسوم رمزية، يستطيع أي شخص في دقائق أن يُنشئ: موقعاً إخبارياً يبدو احترافياً، مقالات بالجملة حول أي موضوع، صوراً واقعية لأحداث لم تقع، وفيديوهات لمسؤولين يقولون ما لم يقولوه قط.
والأخطر من الإنشاء هو الانتشار. الخوارزميات في منصات التواصل الاجتماعي تُفضّل المحتوى الذي يُحرّك المشاعر — والأخبار المثيرة، سواء كانت حقيقية أو مزيفة، تحقق هذا الهدف بكفاءة. الكذبة المثيرة تنتشر أسرع من الحقيقة المملة.
دراسة من معهد ماساتشوستس للتكنولوجيا MIT أثبتت أن الأخبار الكاذبة تنتشر على تويتر بشكل أسرع من الأخبار الصحيحة بمعدل ست مرات. الدراسة نُشرت قبل انتشار الذكاء الاصطناعي في صناعة المحتوى — يمكن تخيل ماذا سيكون الرقم اليوم.
الصحافة في مواجهة المستحيل
وسائل الإعلام التقليدية تجد نفسها في موقف غريب: هي تُنتج المحتوى الموثوق — لكن الذكاء الاصطناعي يأخذ هذا المحتوى، يُعيد تشكيله، أحياناً يُحرّفه، وينشره بشكل يصعب نسبته للمصدر الأصلي.
الـ BBC أجرت تجربة عملية: أعطت نماذج ذكاء اصطناعي مقالات من أرشيفها وطلبت منها تلخيصها. النتائج كانت صادمة — في كثير من الحالات، النماذج غيّرت التواريخ، وغلطت في الأرقام، وأحياناً نسبت اقتباسات لأشخاص لم يقولوها. ثم نشرت هذه الملخصات بثقة كاملة كأنها معلومات موثوقة.
المدير التنفيذي لقسم الذكاء الاصطناعي في BBC قال بصراحة: “الناس يجب أن يثقوا بما يقرأون ويشاهدون ويسمعون. ورغم بعض التحسينات، واضح أن ثمة مشاكل جوهرية لا تزال موجودة.”
ماذا يعني هذا لك أنت؟
7% من متصفحي الأخبار عالمياً يعتمدون الآن على الذكاء الاصطناعي كمصدرهم الرئيسي للأخبار. بين من هم دون 25 سنة الرقم يرتفع إلى 15%. هذه أرقام معهد رويترز للصحافة في تقريره لعام 2025.
أي أن مستخدماً من كل سبعة لا يقرأ الخبر من مصدره — بل يتلقاه مُلخَّصاً ومُعاداً صياغته من برنامج لا يفهم ما تعنيه الحقيقة.
وحين يتلقى هذا المستخدم معلومة خاطئة، هل يعرف ذلك؟ الغالب: لا. لأن الخطأ لا يأتي بنبرة الشك — يأتي بنبرة اليقين.
هل من أمل؟
نعم — لكنه مشروط.
الأمل الأول في القانون. الاتحاد الأوروبي يُطبّق من أغسطس 2026 قانون الذكاء الاصطناعي AI Act الذي يُلزم منصات الذكاء الاصطناعي بوضع علامات واضحة على المحتوى المُولَّد آلياً — مع غرامات تصل إلى 6% من الإيرادات العالمية للشركة في حال المخالفة. الصين طبّقت قوانين مشابهة في 2025.
الأمل الثاني في التقنية نفسها. الذكاء الاصطناعي الذي يصنع المعلومات المضلِّلة يمكنه أيضاً كشفها. ChatGPT حقق دقة 81% في تصنيف نظريات المؤامرة كاذبة أم صحيحة في تجربة مقارنة شملت عدة لغات. التقنية سلاح ذو حدين.
الأمل الثالث — والأهم — في القارئ نفسه. دراسة أجرتها جامعة هارفارد أثبتت أن مجرد الانتباه للصورة المرفقة بالخبر وتقييم مدى واقعيتها يُقلّل من الاستجابة للأخبار الكاذبة بشكل ملموس. ليس التحقق الكامل من كل شيء — بل مجرد التوقف لحظة والتساؤل.
خمس علامات تكشف الخبر المزيف
ليست قواعد معقدة — بل عادات بسيطة:
أولاً: ابحث عن المصدر الأصلي. إذا كان الخبر مهماً، ستجده في أكثر من مكان. الخبر الذي لا يوجد إلا في مكان واحد يستحق الشك.
ثانياً: انظر للصورة بعناية. الذكاء الاصطناعي يُخطئ أحياناً في الأصابع — تجد ستة أصابع أو شكلاً غير طبيعي. الخلفيات أيضاً قد تبدو مشوشة أو غير متناسقة.
ثالثاً: اقرأ التاريخ. بعض الأخبار المزيفة هي أخبار قديمة حقيقية يُعاد نشرها في سياق جديد لإيهامك بأنها جديدة.
رابعاً: انتبه لردة فعلك الأولى. الخبر الذي يُثير غضباً فورياً أو صدمة قوية — هو بالضبط نوع المحتوى الذي يصنعه مُنتجو التضليل. العاطفة القوية تُعطّل التفكير النقدي.
خامساً: لا تشارك قبل أن تتحقق. ثلاثون ثانية من البحث السريع يمكنها كشف معظم الأخبار المزيفة. وعدم المشاركة الحذر أفضل من المشاركة المتسرعة.
خلاصة رصد
حين بدأ الإنسان الكتابة قبل خمسة آلاف سنة، كان التحقق من المعلومات يتطلب قافلة من الرُّواة والشهود والكهنة. ثم جاء الكتاب المطبوع فخفّض التكلفة وزاد الانتشار. ثم جاء الإنترنت فجعل كل شخص ناشراً.
الآن جاء الذكاء الاصطناعي ليجعل كل شخص مصنعاً للواقع.
ما تغيّر ليس فقط الكمية — بل الجودة. الكذبة اليوم لا تبدو كاذبة. تبدو أفضل من الحقيقة. وهذا هو الخطر الحقيقي.
السؤال لم يعد: هل تكذب وسائل الإعلام؟ السؤال أصبح: كيف تعرف أن ما تقرأه كتبه إنسان وليس آلة؟
وللأسف — في معظم الأحيان لا تعرف.
رصد — تحليل مستقل · أخبار موثوقة
rasad.press
