هناك العديد من الأمثلة التي تم فيها توظيف تقنية الفيديوهات المفبركة على الساحتين الدولية والإقليمية، ولكن يُعد الفيديو الخاص بالرئيس الأمريكي ترامب تجاه الفلبين هو الأبرز في الآونة الأخيرة، حيث تم تصميم فيديو مصور وكأنه حقيقي بنسبة كبيرة، يُخاطب فيه الرئيس الأمريكي الشعب الفلبيني، بأن بلادهم يحكمها ساسة فاسدون ينهبون ثرواتهم، ويجب عليهم الوقوف ضد هؤلاء الساسة، أحدث هذا الفيديو رواجًا كبيرًا على منصات التواصل الاجتماعي، كما أحدث حالة من الإرباك في فهم هذا الخطاب وتوقيته لدى الرأي العام الفلبيني والعالمي، إلا أنه تبين بعد ذلك أنه مزيف تم تصميمه بتقنيات التزييف العميق.
ويُمكن الاستدلال بحملات الدعاية الرقمية لزعيم بوركينا فاسو " إبراهيم تراوري" كمثال واضح على توظيف تقنية الصور المزيفة، حيث تحول اسم القائد الشاب في الآونة الأخيرة إلى مادة مركبة، من خلال صور مُولدة بالذكاء الاصطناعي من حسابات وقنوات محلية، وكذلك حسابات خارجية عملت على تمجيده كقائد ثوري من طراز بطل شعبي، احتوت هذه الحملات على صور لإبراهيم تراوري وهو يرتدي القبعة الثورية مع نظرات حادة نحو الأعلى في وضعية القائد الملهم، فضلًا عن خلفيات تتضمن أعلاما وطنية لدول القارة الإفريقية، في إشارة إلى أنه ليس فقط قائد دولة بل رمز لشعب القارة الإفريقية ولحركات التحرر، مما خلق حضورًا بصريًا قويًا على المنصات الرقمية وأثار نقاشات حول دور الفاعلين الخارجيين من الدول الكبرى في تمويل هذه الحملات بما يخدم مصالحهم، ومن ثم عملت هذه الحملات على خلق حالة من التأييد الشعبي للرئيس الجديد وبناء شرعية رمزية وإضعاف السرديات الغربية.
وفي السياق ذاته، وضح تقرير صادر عن جامعة أكسفورد في مايو 2025، أن هناك توافر كبير لأدوات توليد الصور المزيفة على شبكة الإنترنت، والتي تُستخدم لإنشاء صور غير حقيقية، بما في ذلك من صور جنسية لأطفال في أوضاع غير لائقة، مما يزيد من حالات الاستغلال الجنسي للأطفال باستخدام تقنيات ذات تأثير ناعم خفي.
·تقنية النصوص المفتعلة ""Generative Text: تتمثل هذه التقنية في استخدام نماذج الذكاء الاصطناعي لإنتاج أو تعديل محتوى كتابي ويتم تصميمه على أنه تم إعداده بشريًا، إذ تعمل هذه التقنية عبر تدريب النماذج اللغوية على ملايين النصوص للتمكن من تقليد الأسلوب، والمفردات الخاصة بكل شخصية أو جهة، حتى يصبح من شبه المستحيل للمتلقي العادي التمييز بين اللغة الحقيقية والمزيفة، لكنه في الحقيقة مُصمم لأغراض معينة قد تكون التضليل، التأثير أو صناعة خطاب وهمي يُنسب إلى أحد الأشخاص أو المؤسسات، لا تقتصر خطورة هذه النصوص على اختلاق الأخبار، بل تمتد إلى صياغة بيانات سياسية، أو تصريحات دبلوماسية، أو رسائل داخلية مزيفة تُحدث إرباكًا في الإدراك العام.
تتمكن هذه النصوص من التسلل إلى العقول عبر إيهام وخلق سرديات للقارئ أن النص قرار رسمي أو خطاب موثوق، وهنا يتحول النص من مجرد وسيلة تواصل إلى سلاح نفسي، يُمكنه خلق دعم زائف، كما أنه قد يؤدي إلى إحداث أزمات بين الشعوب والحكومات، ويُمكن القول إن هذه التقنية تجد مساحة أكبر للتأثير وقت الأزمات، حيث يكون التأثير مضمون التحقيق، وظهر ذلك خلال الأزمة السودانية الأخيرة بين الجيش السوداني وقوات الدعم السريع، حيث انتشر خلال أيام الأزمة بيانات نُسبت إلى الجيش السوداني، تتضمن إعلانه بالانسحاب والاستسلام والقبول بحكومة انتقالية مفروضة من الخارج، وتم تصميم هذه البيانات بأسلوب رسمي ليبدو كبيان عسكري حقيقي، وهدفت هذه البيانات إلى نزع الشرعية من الجيش السوداني، فضلًا عن إحداث حالة من عدم الثقة لدى الشعب السوداني في الجيش من خلال التلاعب بالعقول بنصوص مفتعلة.
ثالثًا- حدود التأثير الخفي للذكاء الاصطناعي:
تتعدد أشكال التأثير التي تُحدثها آليات الذكاء الاصطناعي، ويُمكن توضيح أهمها على النحو الآتي:
1- تقويض التفكير النقدي:
تعمل آليات الذكاء الاصطناعي في جوهرها على إعادة هيكلة طريقة استقبال الإنسان للمعلومة، فهي لا تُقدم المحتوى على نحوٍ عشوائي، بل تبني بيئة رقمية مغلقة تُحاصر المستخدم داخل دائرة من الأفكار المتجانسة التي تُشبه قناعاته السابقة وتغذي انحيازاته الإدراكية، ومع مرور الوقت، يفقد الفرد قدرته على تمييز الحقيقة من التضليل، وذلك لأن الخوارزميات تُبرمج وعيه ليعيش في "فقاعة إدراكية" تُقدم له العالم كما ترغب المنصات في أن يراه، لا كما هو في الواقع، ومن ثم هذا الانغلاق المعرفي يُضعف آليات التفكير النقدي التي تقوم على التنوع، والمساءلة، والتشكيك الإيجابي، فتتحول العملية الذهنية من تحليلية إلى استهلاكية.
يظهر هذا التأثير بوضوح في نماذج المحادثة المُوَلَدة بالذكاء الاصطناعي، مثل نموذج المحادثة الشهير "Chat GPT"، إذ يُعد أحد أكثر مظاهر الذكاء الاصطناعي تطورًا في الوقت الراهن، فقد تجاوز مرحلة إنتاج النصوص الجامدة إلى القدرة على التفاعل شبه البشري عبر الحوارات المتبادلة، فهذه النماذج أصبحت وسائط معرفية جديدة تشارك في إعادة تشكيل العلاقة بين الإنسان والمعلومة، وبين الوعي الفردي والبنية الرقمية، فهي تمتلك قابلية المحاكاة والإقناع من خلال أسلوبها الطبيعي في التواصل وكأنك تتحدث مع إنسان مثلك، مما يجعلها قادرة على بناء علاقات ذهنية وعاطفية مع المستخدمين، الأمر الذي منحها تأثيرًا على طريقة تفكير الأفراد وتكوين آرائهم حول القضايا العامة والخاصة، وذلك على الرغم من أن المعلومات التي يتم إنتاجها عبر هذه النماذج والآليات قد تكون مغلوطة أو مضللة، ولكنها وفرت للأفراد وسيلة سهلة للوصول إلى المعلومة، ويكمن الخطر الأكبر لهذه النماذج في أن كثرة الاعتماد عليها، تؤدي إلى انخفاض نشاط الدماغ للمستخدمين، وضعف الشعور بالقدرة على التأليف والإبداع.
وبالتالي فإن أخطر ما تفعله هذه الآليات هو إضعاف مناعة الدماغ المعرفية، إذ تتسلل إلى اللاوعي عبر التحفيز المستمر للمشاعر والانفعالات بدلًا من المنطق، فيتعلم الدماغ أن يستجيب لما يُثيره عاطفيًا لا لما يُقنعه عقلانيًا.
وفي هذا السياق هل نحن مهددون بالإعاقة العقلية بسبب الاعتماد على الذكاء الاصطناعي؟
مصطلح "الإعاقة العقلية" هنا ليس بالضرورة أنه يشير إلى حالة مرضية، بل هو تعبير مجازي عن التراجع في القدرات العقلية والفكرية، فالاعتماد المفرط على الذكاء الاصطناعي يمكن أن يضعف العقول، مثلما يحدث تمامًا نتيجة التوقف عن ممارسة الرياضة فيحدث ضمور وضعف في عضلات الجسم، وهذا ما يحدث نتيجة عدم استخدام القدرات العقلية، فسرعان ما يصاب الإنسان بالضمور والضعف وعدم القيام بالوظائف العقلية، والمشكلة تكمن في أننا غالبًا لا ندرك أن هذا التراجع ضعف في القدرات العقلية إلا بعد فوات الأوان، والأصعب من ذلك أن تقنيات الذكاء الاصطناعي قد تتوقف لأي سبب بعد أن اعتاد الإنسان الاعتمادَ عليها كليًا.
2- إحداث حالة من تعفن الأدمغة:
اختار قاموس أوكسفورد مصطلح "تعفن الدماغ" (Brain rot) ليكون كلمة العام فى 2024، والذي يصف تدهور الحالة العقلية أو الفكرية نتيجة الإفراط في استهلاك المواد التي تعتبر تافهة أو لا تتحدى القدرات العقلية عبر الإنترنت وتحديدًا مواقع التواصل الاجتماعي، كما يُمكن أن يُدمج في هذا المفهوم، الحالة التي يتوقف فيها الفرد عن التساؤل أو البحث عن المعلومة ويكتفي بما تُقدمه له آليات الذكاء الاصطناعي، وهنا نتعدى خطر تقويض التفكير النقدي لخطر تقويض القدرات الفكرية للأفراد وحدوث حالة من الشلل الفكري للدماغ، بما يكون له تأثيره المباشر على سلوك الأفراد ونمط حياتهم.
3- صناعة الانقسام السياسي وإحداث حالة من التضليل المعلوماتي:
يُعتبر من أخطر ما تُحدثه آليات الذكاء الاصطناعي في بُعدها الخفي، أنها تُعمق الاستقطاب داخل المجتمعات، فالخوارزميات التي تُعيد تغذية الأفراد بالمحتوى الذي يوافق ميولهم السياسية تجعل من الصعب على المواطنين تقبل الرأي الآخر أو التفاعل معه، مما يؤدي إلى خلق جزر فكرية مغلقة، ومع انتشار المحتوى المولّد آليًا والموجه عاطفيًا، يصبح النقاش السياسي ساحة للتصعيد بدلًا من التفاهم، فيتحول المجتمع إلى بيئة خصبة لاضطراب الاستقرار الداخلي، وهو ما يمثل تهديدًا مباشرًا لمفهوم الأمن السياسي والاجتماعي للدولة.
فضلًا عن ذلك فإن الواقع الذي يفرضه الذكاء الاصطناعي، يُنتج مواطنين قابلين للتوجيه أكثر من كونهم مشاركين نقديين في الشأن العام، وهو ما يخلق بيئة خصبة لتوجيه الرأي العام أو تزييف وتضليل الوعي الجماعي، والتضليل هنا يكون من خلال إنتاج محتوى زائف أو موجه، لا يقوم فقط على نشر الأكاذيب، بل إعادة صياغة الواقع عبر التحكم في تدفق المعلومات وانتقاء ما يُعرض وما يجب أن يُخفى، وبالتالي، التركيز على قضايا بعينها وإغفال أخرى، بما يخدم أهدافًا سياسية، أو اقتصادية، أو أيديولوجية.
4- استهداف البنية المعلوماتية للدولة من خلال برمجة عقول الأفراد:
يمتد تأثير الذكاء الاصطناعي في تشكيل العقول والوعي إلى بعدٍ أكثر عمقًا يتجاوز المجال المعرفي الفردي إلى البنية المعلوماتية الحساسة للدولة ذاتها، والتي تُمثل المجال الأكثر حساسية في منظومة الأمن القومي، فآليات الذكاء الاصطناعي لم تعد تعمل في فراغ تقني، بل أصبحت جزءًا مدمجًا في شبكات الاتصال، ومراكز البيانات، ومنصات الإعلام الرقمي، وأنظمة التنبؤ والتحليل التي تستند إليها الدولة في صنع قراراتها، ومن ثم فإن هذه الاندماجية تجعل الذكاء الاصطناعي قادرًا على التأثير في البنية الإدراكية المؤسسية من خلال التحكم في تدفق المعلومات، وتحديد أولويات الاهتمام العام، وصياغة الأنماط الذهنية التي تتحكم في سلوك المجتمع واتجاهاته السياسية، ويكون ذلك من خلال استهداف العقول التي تعتمد عليها تلك المؤسسات في صنع القرار وتنفيذ السياسات.
وفي هذا السياق تصبح العقول ذاتها جزءًا من البنية التحتية للأمن المعلوماتي للدولة، إذ تُمثل الواجهة المعرفية التي يمكن استهدافها لخلق ارتباك إدراكي يقوّض مناعة الدولة في مواجهة الحملات الممنهجة، فالتلاعب الرقمي بالوعي العام عبر الذكاء الاصطناعي يمكن أن يؤدي إلى إعادة تعريف الصديق والعدو، وتغيير أولويات الرأي العام في الأزمات، بل وحتى زعزعة الثقة في مؤسسات الدولة ذاتها.
5- التأثير النفسي والسلوكي:
تعمل تقنيات الذكاء الاصطناعي من خلال الاستهداف المبرمج والدقيق للأفراد، على خلق عالم افتراضي، تلعب فيه نماذج المحادثة المولدة بالذكاء الاصطناعي دور الصديق الذي يتفاعل، ويفهم، ويؤازر، وبالتالي تصبح هذه العلاقة الافتراضية بديلة عن التواصل الواقعي، ومع مرور الوقت يتحول هذا التفاعل إلى نوع من العزلة عن الواقع الاجتماعي، مما يهيئ أرضية خصبة للاضطرابات النفسية، مثل الاكتئاب والانطواء، ولا يتوقف الأمر عند ذلك، بل تستطيع هذه التقنيات من خلال تحليل الأنشطة والمعلومات وأنماط تفاعل الأفراد، أن توظف استراتيجية الاستدراج الإلكتروني، والتي تتزايد معها عمليات الابتزاز والتهديد لإجبار الضحايا على الامتثال للتهديدات ودفع الأموال والانخراط في أفعال غير مُباحة، الأمر الذي يجعل فئتي الأطفال والشباب أكثر قابلية للتأثر بالدعاية الرقمية وحملات التلاعب الإدراكي، وهو ما يُمثل في جوهره تهديدًا مباشرًا للأمن القومي للدولة.
ختامًايُمكن القول إن تحليل الظواهر المتعلقة بتطور الذكاء الاصطناعي، كشف لنا أن القضية لم تعد تتعلق فقط بالقدرات التقنية لهذه الأنظمة أو بمستوى الكفاءة في معالجة البيانات، بل أصبحت مسألة تمس جوهر الوعي الإنساني ذاته، فالمسار الذي اتخذته هذه التقنيات يُظهر انتقالًا من مرحلة الأداة إلى مرحلة الفاعل المؤثر في الإدراك، إذ أصبح الذكاء الاصطناعي يمتلك القدرة على إعادة صياغة الطريقة التي يدرك بها الإنسان العالم، ويعيد ترتيب أولوياته الفكرية، والسياسية، والاجتماعية، فلم يعد التأثير يقتصر على تحفيز السلوك أو تسهيل القرار، بل تجاوز ذلك إلى تشكيل البنية الذهنية التي ينبثق منها القرار ذاته، وهو ما يضعنا أمام معضلة أخلاقية وفكرية غير مسبوقة في التاريخ الإنساني الحديث.
كما أن المستقبل القريب قد يشهد توسعًا غير مسبوق في قدرة هذه الأنظمة على الاندماج داخل تفاصيل الحياة اليومية، عبر تقنيات المحادثة الذكية والمساعدات الافتراضية وأنظمة التوصية الموجهة التي تعمل على بناء عوالم معرفية شخصية لكل فرد، ومع ازدياد دقة هذه الخوارزميات، سيتعمق أثرها على أنماط التفكير بحيث يصبح الوعي الجمعي مجزأً إلى فقاعات معرفية منفصلة، كل منها تُدار بخطابٍ ذكي خاص بها، هذا الانقسام في الإدراك الجمعي سيؤدي إلى ما يمكن تسميته بـتعدد الواقع الواحد، حيث يعيش الأفراد داخل تصورات متباينة للحدث الواحد، ويصبح الاتفاق حول الحقيقة ذاتها أمرًا بالغ الصعوبة، وهو ما قد يهدد أسس النقاش العام ويضعف تماسك المجتمعات.
وفي سياق الأمن القومي والسياسة العامة، فإن خطورة هذه التقنيات تكمن في إمكانية استخدامها لتقويض الاستقرار النفسي والمعرفي للدول من الداخل، فالحروب القادمة لن تكون بالضرورة عسكرية أو اقتصادية، بل معرفية في جوهرها، تُدار بخوارزميات تستهدف الوعي قبل أن تستهدف الجغرافيا، وبالتالي ستصبح السيطرة على البيانات والتحكم في سرديات الذكاء الاصطناعي أحد أبرز عناصر القوة في النظام الدولي المقبل، حيث تتنافس الدول ليس فقط على التفوق التقني، بل على امتلاك القدرة على صياغة الوعي العالمي وتوجيه الرأي العام عبر أدوات تبدو محايدة في ظاهرها، لكنها تحمل في باطنها توجهات سياسية واستراتيجية دقيقة.
المراجع:
· أحمد مصطفى محرم، استخدامات الذكاء الاصطناعي لتقنيات التزييف العميق في قذف الغير: دراسة فقهية مقارنة معاصرة، مجلة البحوث الفقهية والقانونية، جامعة الأزهر، مج 34، ع 39، 2022
· تكنولوجيا: كيف يؤثر الذكاء الاصطناعي على عقل الإنسان، صحيفة الشرق الأوسط، 14 يوليو 2025، متاح على: https://2u.pw/xRsYpd
· رشا لطفي، إدراك الأطفال لتقنيات الذكاء الاصطناعي وتطبيقاته، المؤتمر العلمي الدولي السادس والعشرين، الإعلام الرقمي والإعلام التقليدي: مسارات التكامل والمنافسة، مصر، 2021
· سالي يوسف، منهجيات التحقق: كيف نواجه استخدام الذكاء الاصطناعي في التضليل المعلوماتي؟، مركز المستقبل للأبحاث والدراسات المتقدمة، 3 أكتوبر 2023، متاح على الرابط التالي: https://futureuae.com/ar/https://2u.pw/iVBjsfiT
· فاطمة الزهراء عبدالفتاح، اختراق الهزلية: كيف يحد المحتوى الإبداعي من تعفن الدماغ في السوشيال ميديا، مركز المستقبل للأبحاث والدراسات المتقدمة، 24 ديسمبر 2024، متاح على الرابط التالي: https://2u.pw/SssY05
· فاطمة الزهراء عبدالفتاح، حرب موازية: آليات توظيف وسائل التواصل الاجتماعي في الصراع السوداني، مركز المستقبل للأبحاث والدراسات المتقدمة، 27 أبريل 2023، متاح على الرابط التالي: https://2u.pw/B8X1Zt
· فيديو مزيف بالذكاء الاصطناعي يصور الرئيس الأمريكي دونالد ترامب وهو يدعو الشعب الفلبيني للانتفاضة ضد الساسة، العربية، 1/8/2025، متاح على الرابط التالي: https://www.facebook.com/reel/2019004475571376
· محمد الصاوي، تكنولوجيا التزييف العميق دراسة بحثية حول الجوانب المظلمة للذكاء الاصطناعي، مجلة العمارة والفنون والعلوم الإنسانية، ع 10، 2025
· محمد عبدالرحمن، دور أدوات الذكاء الاصطناعي في تنبؤ سلوك المستهلك الرقمي، مجلة العلوم الإنسانية والطبيعية، ع 9، 2024
· نهلة عبدالكريم، تأثير تقنيات الذكاء الاصطناعي على استهداف وتشكيل توجهات الشباب المصري نحو قضايا الرأي العام: دراسة ميدانية للشباب وآراء الخبراء في الإعلام والذكاء الاصطناعي، مجلة البحوث الإعلامية، جامعة الأزهر، ع 72، 2025
-Aanu Adeoye, The cult of Saint Traoré’: how a Russia-backed junta leader became an icon, FINANCIAL TIMES, 22 MAY 2025, available in: https://www.ft.com/content/a6fc98ac-aa6b-428a-9d63-e4e741524ed6
- Emily Kubin, The Role of (Social) Media in Political Polarization: A Systematic Review, Annals of the International Communication Association, VOL 45, 2022.
- Fahad Alanezi, Assessing the Effectiveness of ChatGPT in Delivering Mental Health Support: A Qualitative Study, Journal of Multidisciplinary Healthcare, vol 10, 2024.
- Gregor Jagodič, Involvement of Artificial Intelligence in Modern Society, International Journal of Management Knowledge and Learning, vol 10, 2021.
- Khalid Ahmed, The Role Of Power in International Politics, Pakistan Institute of International Affairs, vol 24, No 4, 2018.
- Stephen Cave, "Bridging Near- and Long-term Concerns About AI, Nature Machine Intelligence, vol. 4, 2022.
- Ben M. Tappin, Quantifying the potential persuasive returns to political micro targeting, PNAS Research Article, vol 120, 2023.
- Will Hawkins, Dramatic rise in publicly downloadable deepfake image generators, Oxford Internet Institute, 7 may 2025, available in: https://2u.pw/H2hH2d