الذكاء الاصطناعي وتشكيل الوعي.. في ظل آليتي الاستهداف الإدراكي التنبؤي و التزييف العميق
4-11-2025

محمد عاطف إمام
* باحث في قضايا الحروب الحديثة وتطبيقات الذكاء الاصطناعي

استقر التأثير الناعم الخفى لعقود في فضاءات الثقافة والإعلام والقيم، إلى أن ظهر فاعل جديد يُهدد بإعادة رسم حدود التأثير الإنساني، وهو الذكاء الاصطناعي، إذ ظهر بوصفه وسيطًا قادرًا على التغلغل في عمق الوعي البشري، ومع بدايات التحول الرقمي في العقدين الأخيرين، لم يعد الذكاء الاصطناعي مجرّد طفرة تقنية أو مرحلة متقدمة في مسار الثورة الرقمية، بل تحول إلى نقطة انعطاف حضارية تعيد صياغة علاقة الإنسان بالمعرفة والوعي، فالعالم اليوم لا يعيش فقط زمن تسارع المعلومات، بل يواجه ظهور أنظمة قادرة على إنتاج المعنى، وتوجيه الانتباه، والتلاعب بالتصوّرات العاطفية والفكرية للأفراد، ويأتي ذلك في ضوء انتقال الذكاء الاصطناعي من كونه أداة مساعدة إلى فاعل يؤثر في الطريقة التي نفكر بها، ونفهم بها الواقع، ونبني على أساسها مواقفنا تجاه القضايا الكبرى، وهو انتقال غير مسبوق في تاريخ العلاقة بين الإنسان والتقنية.

أولًا-  تحول الذكاء الاصطناعي من التقنية إلى آلية لتشكيل الوعي:

  في كتابه "الذكاء الخارق: المسارات، المخاطر والاستراتيجيات Superintelligence: Paths, Dangers, Strategies"، طرح الفيلسوف والمؤلف السويدي نيك بوستروم تساؤلاته عما إذا كانت الآلة ستصبح يومًا ما شريكًا في التفكير لا مجرد أداة، إذ إنه لم يكن يناقش الذكاء الاصطناعي بوصفه مجرد إنجاز تقني، بل باعتباره نقطة تحول في تاريخ الوعي البشري، ففي أحد الجوانب التحليلية بالكتاب، ذهب بوستروم إلى أن الخطر الحقيقي لا يكمن في أن تصبح الآلات واعية، بل في أن تصبح فعّالة بلا وعي، قادرة على اتخاذ قرارات ومعالجة كم هائل من المعطيات بسرعة تفوق الإدراك الإنساني، لتبدأ في إعادة تشكيل خياراتنا ومعتقداتنا دون أن نُدرك.

ظهر الذكاء الاصطناعي في منتصف القرن العشرين كفرع من فروع علوم الحوسبة، هدفه الأساسي هو محاكاة قدرات الإنسان في الحساب والمنطق وحل المشكلات، ويعني في مفهومه البسيط أنه "عملية محاكاة الذكاء البشري عبر أنظمة الكمبيوتر، فهي محاولة لتقليد سلوك البشر ونمط تفكيرهم وطريقة اتخاذ قراراتهم، وتتم من خلال دراسة سلوك البشر عبر إجراء تجارب على تصرفاتهم ووضعهم في المواقف المعينة ونمط تفكيرهم وتعاملهم مع المواقف المختلفة، ثم محاولة محاكاة طريقة هذا التفكير من خلال أنظمة كمبيوتر معقدة".

كان الذكاء الاصطناعي في البداية مجرد أدوات حسابية مبرمجة لتنفيذ أوامر محددة، تُستخدم في تحليل البيانات أو أتمتة المهام المعقدة، لكن خلال العقود الأخيرة، ومع ظهور نظم التعلم العميق والشبكات العصبية، لم يعد الذكاء الاصطناعي مجرد تقنية تدعم التفكير البشري، بل تحوّل تدريجيًا إلى منظومات قادرة على التعلم الذاتي، والتنبؤ، وصياغة المعرفة ذاتها،  ومن هنا بدأ الانتقال من الآلة المنفذة إلى الكيان المؤثر في الإدراك.

وبالتالي، تحول الذكاء الاصطناعي من مجرد تقنية إلى أداة قوة ناعمة قادرة على التغلغل في عمق الوعي العام، ولم يعد التأثير الثقافي والدبلوماسي يعتمد فقط على الإعلام، أو التعليم، أو اللغة كأدوات رئيسية من أدوات القوة الناعمة، بل أصبح الذكاء الاصطناعي لاعبًا أساسيًا في تشكيل المواقف، وتحديد السلوك السياسي، وتعزيز النفوذ من دون الحاجة لاستخدام القوة التقليدية.

وفي هذا السياق تبرز إشكالية مركزية لا تتعلق بمدى تطور هذه التكنولوجيا، بل بمدى قدرتنا على فهم أثرها العميق على بنية الوعي الجمعي والأمن الإدراكي للمجتمعات الحديثة، فحين يصبح الوعي قابلًا لإعادة التشكيل عبر أنظمة رقمية خفية، تتحول العقول من فضاء مستقل إلى مجال قابل للبرمجة والتوجيه، وبينما ترى بعض الدول في الذكاء الاصطناعي فرصة لبناء قوة ناعمة أكثر فاعلية، تحذّر أخرى من كونه بوابة لاختراق الهويات وتقويض المناعة الفكرية للأجيال الجديدة.

ثانيًا- آليات توظيف الذكاء الاصطناعي في برمجة العقول وتشكيل الوعي:

تتعدد آليات توظيف الذكاء الاصطناعي في التلاعب بالعقول باختلاف طبيعة هذه الآليات وطرق توظيفها، ويُمكن القول إن تعدد هذه الآليات هو من أوجد التأثير الكبير للذكاء الاصطناعي على الوعي والإدراك البشري، وسيركز هذا الطرح على آليتي الاستهداف الإدراكي التنبؤي وآلية التزييف العميق.

1- الاستهداف الإدراكي التنبؤي: يتمثل هذا الاستهداف في منظومة من الآليات الذكية والممارسات الحسابية المتقدمة التي تهدف إلى تصميم رسائل ومضامين رقمية مخصصة لكل فرد، لا بوصفه متلقيًا جماعيًا، بل باعتباره كيانًا معرفيًا له تفضيلاته وسلوكه الخاص، فبدلًا من تقديم محتوى موحد لجميع المستخدمين، تعتمد هذه الأنظمة على تحليل البصمة الرقمية للفرد، من خلال سجل المشاهدة، وعدد النقرات على محتوى معين، ومدة التصفح، وكلمات البحث، إلى طبيعة التفاعلات الاجتماعية، وذلك لبناء تمثيل دقيق لميوله النفسية وأنماطه الإدراكية، ومن خلال هذا التمثيل، تنتقل الأنظمة من مرحلة العرض العام إلى مرحلة التوقع المعرفي، أي استباق ما يمكن أن يجذب انتباه المستخدم أو يؤثر في استجابته الانفعالية أو المعرفية، لتقوم تلقائيًا بتوجيه المحتوى الأنسب إليه في توقيت محسوب، وبصيغة تُضاعف احتمالات التأثير، وبالتالي تعمل هذه الأنظمة على تكوين سجل معرفي يُستخدم في توجيه التفضيلات والأذواق الخاصة بالأشخاص، ومن ثم لم يعد المُستخدم هو من يبحث عن المعرفة، بل أصبحت المعرفة هي من تبحث عنه.

يعمل الاستهداف الإدراكي التنبؤي في إطار مجموعة من الأدوات والخوارزميات، والتي تجعل منه فاعلا خفيا، يُسهم بشكل كبير في قولبة الإدراك وتشكيل العقول، ويُمكن تناول أهم هذه الأدوات على النحو الآتي:

                 ·أدوات التوصية الإلكترونية: تتمثل هذه الأدوات في المنصات الرقمية، مثل YouTube، وTikTok, وNetflix، حيث لا تكتفي هذه المنصات بعرض محتوى عشوائي، بل تتنبأ بما يجب أن تراه بناءً على سلوكك السابق، وذلك على أساس ما قمت بمشاهدته، ومدة المشاهدة، وما تفاعلت معه وحتى ما تجاهلته، فتقوم هذه المنصات ببناء خريطة إدراكية لك، تُحدد فيها اهتماماتك المحتملة، ثم تبدأ بتغذيتها بمحتوى يخدم توجهاتها، ومع مرور الوقت لا يرى المُستخدم سوى اتجاه واحد من الأفكار، مما يؤدي إلى غلق نافذة التفكير النقدي وتحويل العقل إلى مُتلقٍ ومُوَجَه فقط.

فوفقًا لدراسة أُجريت بمعهد ماساتشوستس للتكنولوجيا، بمشاركة أكثر من 23 ألف شخص، وذلك بهدف فهم كيف يُمكن للذكاء الاصطناعي والإعلانات الموجهة أن تؤثر على قناعات الأفراد السياسية، وذلك من خلال اختبار أن الرسالة السياسية المتاحة للجميع أكثر تأثيرًا أم الرسالة المصممة لشخص بناءً على اهتماماته وسلوكه.

 أظهرت النتائج أن الرسائل المصممة لشخص بناءً على اهتماماته وسلوكه، هي الأكثر تأثيرًا بنسبة تصل إلى 70% في تغيير رأي المتلقي والتأثير على رد فعله تجاه قضية سياسية معينة، ومن ثم أثبتت هذه الدراسة أن أنظمة التوصية والاستهداف لا تعمل على الإقناع فقط، بل تُعيد تشكيل الإدراك السياسي للأفراد بطريقة غير مباشرة تؤثر على إدراك الأفراد ووعيهم.

                 ·الإعلانات التنبؤية:لم تعد الإعلانات الرقمية اليوم مجرد رسائل ترويجية تُوجَّه إلى جمهور واسع بناءً على الاهتمامات العامة أو الفئات العمرية، بل تحولت مع ظهور الذكاء الاصطناعي إلى منظومات استباقية قادرة على تحليل النوايا والمشاعر وتوقع الانفعال قبل حدوثه، حيث تعتمد منصات، مثل Meta AdsوGoogle Adsعلى الاستهداف التنبؤي، والذي لا يكتفي برصد ما يُفضله المستخدم، بل يسعى إلى اكتشاف كيف يشعر وإلى أين يمكن دفعه نفسيًا، وهنا ينتقل التأثير من مستوى الإقناع إلى مستوى إعادة تشكيل الوعي والانفعال.

تقوم هذه الأنظمة على تقنيات متقدمة، مثل تحليل العاطفة (Sentiment Analysis)، حيث تُحلل آلاف الإشارات الدقيقة مثل توقيت الاستخدام، ونوع الموسيقى، وحتى طريقة التوقف أثناء التصفح، وذلك لتحديد الحالة الانفعالية للمستخدم، ومن ثم لا تُرسل المنصة إعلانًا عاديًا، بل مضمونًا مبرمجًا نفسيًا يستهدف تلك اللحظة الانفعالية بدقة، ليؤثر في الموقف أو يدفع إلى سلوك معين، سواء كان استهلاكًا اقتصاديًا أو انحيازًا سياسيًا أو حتى تبنيًا لأفكار أيديولوجية.

وفي هذا السياق، استنتجت دراسة أُجريت في جامعة كامبريدج عام 2022، أن خوارزميات فيسبوك استطاعت بدقة وصلت إلى 85% التنبؤ بالميول السياسية للمُستخدم من خلال تحليل تفضيلاته الموسيقية وأسلوب كتابته، دون أن يُفصح صراحة عن مواقفه، هذا الاستنتاج لا يبرهن فقط على دقة هذه الأنظمة، بل على خطورتها، إذ تتحول المنصة من وسيط معلوماتي إلى مهندس إدراكي يمتلك القدرة على إعادة تشكيل اتجاهات الفرد دون وعيه.

والجدير بالذكر أنالأطفال يكونون الفئة الأكثر عُرضة لآلية الاستهداف التنبؤي، وهنا يكون الخطر أكبر، حيث يتم تشكيل وعي الطفل وسلوكياته بناءً على ما يتم عرضه من محتوى تم إنشاؤه من خلال تكوين سجل سلوكي خاص بكل طفل، تم تكوينه على أساس ما يتعرض له الطفل ويفضله على المنصات الرقمية، فيصبح الطفل سهل الاستقطاب للبرامج والتطبيقات، التي تحتوي على مواد يكون هدفها تشكيل السلوك لديه، مثل التعرض لمواد أو تطبيقات تبني بداخل الطفل العنف والكراهية أو مواد للاعتداء الجنسي على الأطفال، وتأتي الألعاب الإلكترونية في هذا الإطار لتُمثل محورًا مهما، إذ قد تحمل هذه الألعاب اعتياد الطفل على سلوكيات معينة، فتظهر هذه السلوكيات وكأنها عادية بالنسبة للطفل، ولكنها تعمل بطريقة غير مباشرة على توجيه والتحكم في سلوكياته عن طريق منهجية "دس السم في العسل".

2- آلية التزييف العميق (Deep fake): هي آلية تقنية تعتمد على إنشاء محتوى مزيف سواء كان صوتا وصورة ممثلًا في فيديو، أو صورة فقط، أو نصوص، ويتم ذلك من خلال دمج ومحاكاة صور وأصوات بشكل واقعي لأشخاص أو مواقف لا تحدث في الواقع، وتستخدم هذه التقنية شبكات عميقة ونماذج معقدة حتى تتمكن من إنتاج محتوى يبدو حقيقيًا لدرجة كبيرة، ويتم توظيف هذه التقنية على مستويات مختلفة، ويكمن جوهر الفكرة في استبدال أو إنتاج مكوّنات الهوية الإعلامية بطريقة تجعل المتلقي يعتقد أن المحتوى صادر عن شخصٍ حقيقي أو حدث حقيقي، ومن ثم فإن هذا التحول يختلف عن التزييف التقليدي لأنه يُمَكن الفاعل من إنتاج مقاطع تبدو طبيعية في الحركة والنبرة واللغة، وبمستوى واقعية يقترب من خِداع الحواس البصرية والسمعية للمشاهد العادي.

وتتنوع مستويات توظيف تقنية التزييف العميق، ما بين الفيديوهات المبركة، وتقنية نسخ الصوت، والصور المزيفة، والنصوص المفتعلة، والتي تعمل جميعها على بناء اعتقاد زائف لدى الجمهور المُستَهدف، ويُمكن توضيحها على النحو الآتي:

                 ·تقنيةالفيديوهات المفبركة: تحتاج الفيديوهات المبركة إلى درجة عالية من الدقة واستخدام مُتقن للوسائل التكنولوجية، حيث يتم جمع المادة البصرية والصوتية، ويتم عمل تعديلات عليها تستهدف الوجوه، والإضاءات، والإطار العام للمادة المُستهدف تعديلها، ليتم في النهاية إنتاج فيديو يبدو حقيقيًا يُحاكي الواقع ولكنه مزيف يستهدف إحداث تأثير ما في مكان ما ووقت معين.


هناك العديد من الأمثلة التي تم فيها توظيف تقنية الفيديوهات المفبركة على الساحتين الدولية والإقليمية، ولكن يُعد الفيديو الخاص بالرئيس الأمريكي ترامب تجاه الفلبين هو الأبرز في الآونة الأخيرة، حيث تم تصميم فيديو مصور وكأنه حقيقي بنسبة كبيرة، يُخاطب فيه الرئيس الأمريكي الشعب الفلبيني، بأن بلادهم يحكمها ساسة فاسدون ينهبون ثرواتهم، ويجب عليهم الوقوف ضد هؤلاء الساسة، أحدث هذا الفيديو رواجًا كبيرًا على منصات التواصل الاجتماعي، كما أحدث حالة من الإرباك في فهم هذا الخطاب وتوقيته لدى الرأي العام الفلبيني والعالمي، إلا أنه تبين بعد ذلك أنه مزيف تم تصميمه بتقنيات التزييف العميق.

                 ·تقنيةنسخ الصوت "Voice Cloning": تعمل هذه التقنية من خلال إنشاء نموذج صوتي به طبقة الصوت والطريقة والنبرة التي يتحدث بها الشخص المُراد تطبيق هذه التقنية عليه، وغالبًا ما يكون من المشاهير ذوي التأثير في المجالات المختلفة، ومن أمثلة هذه النماذج، تأتي تطبيقات، مثل Celebrity Voice CloningوFamous AI Voice Changer، هذه الخاصية تُستغل كآلية للقوة الناعمة، إذ إن الصوت الخاص برئيس أو شخصية موثوقة، يحمل قوة إقناع تفوق النص المكتوب، فهي تعمل على استنساخ الهوية الصوتية ذاتها، وهي أكثر عناصر التواصل تأثيرًا في الوجدان البشري، حيث يتوهم الجمهور أنهم يتلقون الحقيقة من مصدر موثوق، بينما هم في الواقع ضحية لرسالة مُصممة بعناية للتأثير على مواقفهم وتوجهاتهم.

                 ·تقنية الصور المزيفة "Deebfakes Images": هي فرع من فروع تقنيات الذكاء الاصطناعي، تتيح توليد أو تعديل صور ومشاهد بصرية، وتُستخدم هذه التقنية غالبًا في تغيير أو استبدال الوجوه للصور، بحيث تُظهر أشخاصًا أو أحداثًا بشكل يبدو حقيقيا، ويتم ذلك من خلال الاعتماد على إحدى الشبكات العصبية الاصطناعية المعروفة بالشبكات التوليدية التنافسية "Generative adversarial networks"، حيث يتم إنشاء زوج من الشبكات العصبية المتنافسة تُعرف الشبكة الأولى باسم " المُولد" والثانية باسم " المُمَيز"، وتتمثل عملية التدريب في توجيه الشبكة الأولى لإنتاج محتوى مزيف، ويتم تدريب الشبكة الثانية على التمييز بين ما إذا كان المحتوى حقيقيا أم اصطناعيا، ويستمر التنافس بين الشبكتين، بهدف تحسين الأداء لإنتاج محتوى يُصنف على أنه حقيقي، ومن ثم تعمل هذه التقنية على تحويل الصور من كونها انعكاسًا للواقع إلى أداة قابلة للبرمجة تُستخدم لأغراض دعائية أو تضليلية.


ويُمكن الاستدلال بحملات الدعاية الرقمية لزعيم بوركينا فاسو " إبراهيم تراوري" كمثال واضح على توظيف تقنية الصور المزيفة، حيث تحول اسم القائد الشاب في الآونة الأخيرة إلى مادة مركبة، من خلال صور مُولدة بالذكاء الاصطناعي من حسابات وقنوات محلية، وكذلك حسابات خارجية عملت على تمجيده كقائد ثوري من طراز بطل شعبي، احتوت هذه الحملات على صور لإبراهيم تراوري وهو يرتدي القبعة الثورية مع نظرات حادة نحو الأعلى في وضعية القائد الملهم، فضلًا عن خلفيات تتضمن أعلاما وطنية لدول القارة الإفريقية، في إشارة إلى أنه ليس فقط قائد دولة بل رمز لشعب القارة الإفريقية ولحركات التحرر، مما خلق حضورًا بصريًا قويًا على المنصات الرقمية وأثار نقاشات حول دور الفاعلين الخارجيين من الدول الكبرى في تمويل هذه الحملات بما يخدم مصالحهم، ومن ثم عملت هذه الحملات على خلق حالة من التأييد الشعبي للرئيس الجديد وبناء شرعية رمزية وإضعاف السرديات الغربية.

وفي السياق ذاته، وضح تقرير صادر عن جامعة أكسفورد في مايو 2025، أن هناك توافر كبير لأدوات توليد الصور المزيفة على شبكة الإنترنت، والتي تُستخدم لإنشاء صور غير حقيقية، بما في ذلك من صور جنسية لأطفال في أوضاع غير لائقة، مما يزيد من حالات الاستغلال الجنسي للأطفال باستخدام تقنيات ذات تأثير ناعم خفي.

                 ·تقنية النصوص المفتعلة ""Generative Text: تتمثل هذه التقنية في استخدام نماذج الذكاء الاصطناعي لإنتاج أو تعديل محتوى كتابي ويتم تصميمه على أنه تم إعداده بشريًا، إذ تعمل هذه التقنية عبر تدريب النماذج اللغوية على ملايين النصوص للتمكن من تقليد الأسلوب، والمفردات الخاصة بكل شخصية أو جهة، حتى يصبح من شبه المستحيل للمتلقي العادي التمييز بين اللغة الحقيقية والمزيفة، لكنه في الحقيقة مُصمم لأغراض معينة قد تكون التضليل، التأثير أو صناعة خطاب وهمي يُنسب إلى أحد الأشخاص أو المؤسسات، لا تقتصر خطورة هذه النصوص على اختلاق الأخبار، بل تمتد إلى صياغة بيانات سياسية، أو تصريحات دبلوماسية، أو رسائل داخلية مزيفة تُحدث إرباكًا في الإدراك العام.

تتمكن هذه النصوص من التسلل إلى العقول عبر إيهام وخلق سرديات للقارئ أن النص قرار رسمي أو خطاب موثوق، وهنا يتحول النص من مجرد وسيلة تواصل إلى سلاح نفسي، يُمكنه خلق دعم زائف، كما أنه قد يؤدي إلى إحداث أزمات بين الشعوب والحكومات، ويُمكن القول إن هذه التقنية تجد مساحة أكبر للتأثير وقت الأزمات، حيث يكون التأثير مضمون التحقيق، وظهر ذلك خلال الأزمة السودانية الأخيرة بين الجيش السوداني وقوات الدعم السريع، حيث انتشر خلال أيام الأزمة بيانات نُسبت إلى الجيش السوداني، تتضمن إعلانه بالانسحاب والاستسلام والقبول بحكومة انتقالية مفروضة من الخارج، وتم تصميم هذه البيانات بأسلوب رسمي ليبدو كبيان عسكري حقيقي، وهدفت هذه البيانات إلى نزع الشرعية من الجيش السوداني، فضلًا عن إحداث حالة من عدم الثقة لدى الشعب السوداني في الجيش من خلال التلاعب بالعقول بنصوص مفتعلة.

ثالثًا- حدود التأثير الخفي للذكاء الاصطناعي:

تتعدد أشكال التأثير التي تُحدثها آليات الذكاء الاصطناعي، ويُمكن توضيح أهمها على النحو الآتي:

1- تقويض التفكير النقدي:

تعمل آليات الذكاء الاصطناعي في جوهرها على إعادة هيكلة طريقة استقبال الإنسان للمعلومة، فهي لا تُقدم المحتوى على نحوٍ عشوائي، بل تبني بيئة رقمية مغلقة تُحاصر المستخدم داخل دائرة من الأفكار المتجانسة التي تُشبه قناعاته السابقة وتغذي انحيازاته الإدراكية، ومع مرور الوقت، يفقد الفرد قدرته على تمييز الحقيقة من التضليل، وذلك لأن الخوارزميات تُبرمج وعيه ليعيش في "فقاعة إدراكية" تُقدم له العالم كما ترغب المنصات في أن يراه، لا كما هو في الواقع، ومن ثم هذا الانغلاق المعرفي يُضعف آليات التفكير النقدي التي تقوم على التنوع، والمساءلة، والتشكيك الإيجابي، فتتحول العملية الذهنية من تحليلية إلى استهلاكية.

يظهر هذا التأثير بوضوح في نماذج المحادثة المُوَلَدة بالذكاء الاصطناعي، مثل نموذج المحادثة الشهير "Chat GPT"، إذ يُعد أحد أكثر مظاهر الذكاء الاصطناعي تطورًا في الوقت الراهن، فقد تجاوز مرحلة إنتاج النصوص الجامدة إلى القدرة على التفاعل شبه البشري عبر الحوارات المتبادلة، فهذه النماذج أصبحت وسائط معرفية جديدة تشارك في إعادة تشكيل العلاقة بين الإنسان والمعلومة، وبين الوعي الفردي والبنية الرقمية، فهي تمتلك قابلية المحاكاة والإقناع من خلال أسلوبها الطبيعي في التواصل وكأنك تتحدث مع إنسان مثلك، مما يجعلها قادرة على بناء علاقات ذهنية وعاطفية مع المستخدمين، الأمر الذي منحها تأثيرًا على طريقة تفكير الأفراد وتكوين آرائهم حول القضايا العامة والخاصة، وذلك على الرغم من أن المعلومات التي يتم إنتاجها عبر هذه النماذج والآليات قد تكون مغلوطة أو مضللة، ولكنها وفرت للأفراد وسيلة سهلة للوصول إلى المعلومة، ويكمن الخطر الأكبر لهذه النماذج في أن كثرة الاعتماد عليها، تؤدي إلى انخفاض نشاط الدماغ للمستخدمين، وضعف الشعور بالقدرة على التأليف والإبداع.

وبالتالي فإن أخطر ما تفعله هذه الآليات هو إضعاف مناعة الدماغ المعرفية، إذ تتسلل إلى اللاوعي عبر التحفيز المستمر للمشاعر والانفعالات بدلًا من المنطق، فيتعلم الدماغ أن يستجيب لما يُثيره عاطفيًا لا لما يُقنعه عقلانيًا.

وفي هذا السياق هل نحن مهددون بالإعاقة العقلية بسبب الاعتماد على الذكاء الاصطناعي؟

مصطلح "الإعاقة العقلية" هنا ليس بالضرورة أنه يشير إلى حالة مرضية، بل هو تعبير مجازي عن التراجع في القدرات العقلية والفكرية، فالاعتماد المفرط على الذكاء الاصطناعي يمكن أن يضعف العقول، مثلما يحدث تمامًا نتيجة التوقف عن ممارسة الرياضة فيحدث ضمور وضعف في عضلات الجسم، وهذا ما يحدث نتيجة عدم استخدام القدرات العقلية، فسرعان ما يصاب الإنسان بالضمور والضعف وعدم القيام بالوظائف العقلية، والمشكلة تكمن في أننا غالبًا لا ندرك أن هذا التراجع ضعف في القدرات العقلية إلا بعد فوات الأوان، والأصعب من ذلك أن تقنيات الذكاء الاصطناعي قد تتوقف لأي سبب بعد أن اعتاد الإنسان الاعتمادَ عليها كليًا.

 

2- إحداث حالة من تعفن الأدمغة:

اختار قاموس أوكسفورد مصطلح "تعفن الدماغ" (Brain rot) ليكون كلمة العام فى 2024، والذي يصف تدهور الحالة العقلية أو الفكرية نتيجة الإفراط في استهلاك المواد التي تعتبر تافهة أو لا تتحدى القدرات العقلية عبر الإنترنت وتحديدًا مواقع التواصل الاجتماعي، كما يُمكن أن يُدمج في هذا المفهوم، الحالة التي يتوقف فيها الفرد عن التساؤل أو البحث عن المعلومة ويكتفي بما تُقدمه له آليات الذكاء الاصطناعي، وهنا نتعدى خطر تقويض التفكير النقدي لخطر تقويض القدرات الفكرية للأفراد وحدوث حالة من الشلل الفكري للدماغ، بما يكون له تأثيره المباشر على سلوك الأفراد ونمط حياتهم.

3-  صناعة الانقسام السياسي وإحداث حالة من التضليل المعلوماتي:

يُعتبر من أخطر ما تُحدثه آليات الذكاء الاصطناعي في بُعدها الخفي، أنها تُعمق الاستقطاب داخل المجتمعات، فالخوارزميات التي تُعيد تغذية الأفراد بالمحتوى الذي يوافق ميولهم السياسية تجعل من الصعب على المواطنين تقبل الرأي الآخر أو التفاعل معه، مما يؤدي إلى خلق جزر فكرية مغلقة، ومع انتشار المحتوى المولّد آليًا والموجه عاطفيًا، يصبح النقاش السياسي ساحة للتصعيد بدلًا من التفاهم، فيتحول المجتمع إلى بيئة خصبة لاضطراب الاستقرار الداخلي، وهو ما يمثل تهديدًا مباشرًا لمفهوم الأمن السياسي والاجتماعي للدولة.

فضلًا عن ذلك فإن الواقع الذي يفرضه الذكاء الاصطناعي، يُنتج مواطنين قابلين للتوجيه أكثر من كونهم مشاركين نقديين في الشأن العام، وهو ما يخلق بيئة خصبة لتوجيه الرأي العام أو تزييف وتضليل الوعي الجماعي، والتضليل هنا يكون من خلال إنتاج محتوى زائف أو موجه، لا يقوم فقط على نشر الأكاذيب، بل إعادة صياغة الواقع عبر التحكم في تدفق المعلومات وانتقاء ما يُعرض وما يجب أن يُخفى، وبالتالي، التركيز على قضايا بعينها وإغفال أخرى، بما يخدم أهدافًا سياسية، أو اقتصادية، أو أيديولوجية.

4- استهداف البنية المعلوماتية للدولة من خلال برمجة عقول الأفراد:

يمتد تأثير الذكاء الاصطناعي في تشكيل العقول والوعي إلى بعدٍ أكثر عمقًا يتجاوز المجال المعرفي الفردي إلى البنية المعلوماتية الحساسة للدولة ذاتها، والتي تُمثل المجال الأكثر حساسية في منظومة الأمن القومي، فآليات الذكاء الاصطناعي لم تعد تعمل في فراغ تقني، بل أصبحت جزءًا مدمجًا في شبكات الاتصال، ومراكز البيانات، ومنصات الإعلام الرقمي، وأنظمة التنبؤ والتحليل التي تستند إليها الدولة في صنع قراراتها، ومن ثم فإن هذه الاندماجية تجعل الذكاء الاصطناعي قادرًا على التأثير في البنية الإدراكية المؤسسية من خلال التحكم في تدفق المعلومات، وتحديد أولويات الاهتمام العام، وصياغة الأنماط الذهنية التي تتحكم في سلوك المجتمع واتجاهاته السياسية، ويكون ذلك من خلال استهداف العقول التي تعتمد عليها تلك المؤسسات في صنع القرار وتنفيذ السياسات.

وفي هذا السياق تصبح العقول ذاتها جزءًا من البنية التحتية للأمن المعلوماتي للدولة، إذ تُمثل الواجهة المعرفية التي يمكن استهدافها لخلق ارتباك إدراكي يقوّض مناعة الدولة في مواجهة الحملات الممنهجة، فالتلاعب الرقمي بالوعي العام عبر الذكاء الاصطناعي يمكن أن يؤدي إلى إعادة تعريف الصديق والعدو، وتغيير أولويات الرأي العام في الأزمات، بل وحتى زعزعة الثقة في مؤسسات الدولة ذاتها.

5- التأثير النفسي والسلوكي:

تعمل تقنيات الذكاء الاصطناعي من خلال الاستهداف المبرمج والدقيق للأفراد، على خلق عالم افتراضي، تلعب فيه نماذج المحادثة المولدة بالذكاء الاصطناعي دور الصديق الذي يتفاعل، ويفهم، ويؤازر، وبالتالي تصبح هذه العلاقة الافتراضية بديلة عن التواصل الواقعي، ومع مرور الوقت يتحول هذا التفاعل إلى نوع من العزلة عن الواقع الاجتماعي، مما يهيئ أرضية خصبة للاضطرابات النفسية، مثل الاكتئاب والانطواء، ولا يتوقف الأمر عند ذلك، بل تستطيع هذه التقنيات من خلال تحليل الأنشطة والمعلومات وأنماط تفاعل الأفراد، أن توظف استراتيجية الاستدراج الإلكتروني، والتي تتزايد معها عمليات الابتزاز والتهديد لإجبار الضحايا على الامتثال للتهديدات ودفع الأموال والانخراط في أفعال غير مُباحة، الأمر الذي يجعل فئتي الأطفال والشباب أكثر قابلية للتأثر بالدعاية الرقمية وحملات التلاعب الإدراكي، وهو ما يُمثل في جوهره تهديدًا مباشرًا للأمن القومي للدولة.

ختامًايُمكن القول إن تحليل الظواهر المتعلقة بتطور الذكاء الاصطناعي، كشف لنا أن القضية لم تعد تتعلق فقط بالقدرات التقنية لهذه الأنظمة أو بمستوى الكفاءة في معالجة البيانات، بل أصبحت مسألة تمس جوهر الوعي الإنساني ذاته، فالمسار الذي اتخذته هذه التقنيات يُظهر انتقالًا من مرحلة الأداة إلى مرحلة الفاعل المؤثر في الإدراك، إذ أصبح الذكاء الاصطناعي يمتلك القدرة على إعادة صياغة الطريقة التي يدرك بها الإنسان العالم، ويعيد ترتيب أولوياته الفكرية، والسياسية، والاجتماعية، فلم يعد التأثير يقتصر على تحفيز السلوك أو تسهيل القرار، بل تجاوز ذلك إلى تشكيل البنية الذهنية التي ينبثق منها القرار ذاته، وهو ما يضعنا أمام معضلة أخلاقية وفكرية غير مسبوقة في التاريخ الإنساني الحديث.

كما أن المستقبل القريب قد يشهد توسعًا غير مسبوق في قدرة هذه الأنظمة على الاندماج داخل تفاصيل الحياة اليومية، عبر تقنيات المحادثة الذكية والمساعدات الافتراضية وأنظمة التوصية الموجهة التي تعمل على بناء عوالم معرفية شخصية لكل فرد، ومع ازدياد دقة هذه الخوارزميات، سيتعمق أثرها على أنماط التفكير بحيث يصبح الوعي الجمعي مجزأً إلى فقاعات معرفية منفصلة، كل منها تُدار بخطابٍ ذكي خاص بها، هذا الانقسام في الإدراك الجمعي سيؤدي إلى ما يمكن تسميته بـتعدد الواقع الواحد، حيث يعيش الأفراد داخل تصورات متباينة للحدث الواحد، ويصبح الاتفاق حول الحقيقة ذاتها أمرًا بالغ الصعوبة، وهو ما قد يهدد أسس النقاش العام ويضعف تماسك المجتمعات.

وفي سياق الأمن القومي والسياسة العامة، فإن خطورة هذه التقنيات تكمن في إمكانية استخدامها لتقويض الاستقرار النفسي والمعرفي للدول من الداخل، فالحروب القادمة لن تكون بالضرورة عسكرية أو اقتصادية، بل معرفية في جوهرها، تُدار بخوارزميات تستهدف الوعي قبل أن تستهدف الجغرافيا، وبالتالي ستصبح السيطرة على البيانات والتحكم في سرديات الذكاء الاصطناعي أحد أبرز عناصر القوة في النظام الدولي المقبل، حيث تتنافس الدول ليس فقط على التفوق التقني، بل على امتلاك القدرة على صياغة الوعي العالمي وتوجيه الرأي العام عبر أدوات تبدو محايدة في ظاهرها، لكنها تحمل في باطنها توجهات سياسية واستراتيجية دقيقة.

المراجع:

                 ·   أحمد مصطفى محرم، استخدامات الذكاء الاصطناعي لتقنيات التزييف العميق في قذف الغير: دراسة فقهية مقارنة معاصرة، مجلة البحوث الفقهية والقانونية، جامعة الأزهر، مج 34، ع 39، 2022

                 ·   تكنولوجيا: كيف يؤثر الذكاء الاصطناعي على عقل الإنسان، صحيفة الشرق الأوسط، 14 يوليو 2025، متاح على: https://2u.pw/xRsYpd

                 ·   رشا لطفي، إدراك الأطفال لتقنيات الذكاء الاصطناعي وتطبيقاته، المؤتمر العلمي الدولي السادس والعشرين، الإعلام الرقمي والإعلام التقليدي: مسارات التكامل والمنافسة، مصر، 2021

                 ·   سالي يوسف، منهجيات التحقق: كيف نواجه استخدام الذكاء الاصطناعي في التضليل المعلوماتي؟، مركز المستقبل للأبحاث والدراسات المتقدمة، 3 أكتوبر 2023، متاح على الرابط التالي: https://futureuae.com/ar/https://2u.pw/iVBjsfiT

                 ·   فاطمة الزهراء عبدالفتاح، اختراق الهزلية: كيف يحد  المحتوى الإبداعي من تعفن الدماغ في السوشيال ميديا، مركز المستقبل للأبحاث والدراسات المتقدمة، 24 ديسمبر 2024، متاح على الرابط التالي: https://2u.pw/SssY05

                 ·   فاطمة الزهراء عبدالفتاح، حرب موازية: آليات توظيف وسائل التواصل الاجتماعي في الصراع السوداني، مركز المستقبل للأبحاث والدراسات المتقدمة، 27 أبريل 2023، متاح على الرابط التالي:  https://2u.pw/B8X1Zt

                 ·   فيديو مزيف بالذكاء الاصطناعي يصور الرئيس الأمريكي دونالد ترامب وهو يدعو الشعب الفلبيني للانتفاضة ضد الساسة، العربية، 1/8/2025، متاح على الرابط التالي: https://www.facebook.com/reel/2019004475571376

                 ·   محمد الصاوي، تكنولوجيا التزييف العميق دراسة بحثية حول الجوانب المظلمة للذكاء الاصطناعي، مجلة العمارة والفنون والعلوم الإنسانية، ع 10، 2025

                 ·   محمد عبدالرحمن، دور أدوات الذكاء الاصطناعي في تنبؤ سلوك المستهلك الرقمي، مجلة العلوم الإنسانية والطبيعية، ع 9، 2024

                 ·   نهلة عبدالكريم، تأثير تقنيات الذكاء الاصطناعي على استهداف وتشكيل توجهات الشباب المصري نحو قضايا الرأي العام: دراسة ميدانية للشباب وآراء الخبراء في الإعلام والذكاء الاصطناعي، مجلة البحوث الإعلامية، جامعة الأزهر، ع 72، 2025

 -Aanu Adeoye, The cult of Saint Traoré’: how a Russia-backed junta leader became an icon, FINANCIAL TIMES, 22 MAY 2025, available in: https://www.ft.com/content/a6fc98ac-aa6b-428a-9d63-e4e741524ed6

- Emily Kubin, The Role of (Social) Media in Political Polarization: A Systematic Review, Annals of the International Communication Association, VOL 45, 2022.

- Fahad Alanezi,  Assessing the Effectiveness of ChatGPT in Delivering Mental Health Support: A Qualitative Study, Journal of Multidisciplinary Healthcare, vol 10, 2024.

- Gregor Jagodič, Involvement of Artificial Intelligence in Modern Society, International Journal of Management Knowledge and Learning, vol 10, 2021.

- Khalid Ahmed, The Role Of Power in International Politics, Pakistan Institute of International Affairs, vol 24, No 4, 2018.

- Stephen Cave, "Bridging Near- and Long-term Concerns About AI, Nature Machine Intelligence, vol. 4, 2022.

- Ben M. Tappin, Quantifying the potential persuasive returns to political micro targeting, PNAS Research Article, vol 120, 2023.

- Will Hawkins, Dramatic rise in publicly downloadable deepfake image generators,  Oxford Internet Institute, 7 may 2025, available in:   https://2u.pw/H2hH2d


رابط دائم: