يمضي الذكاء الاصطناعي اليوم نحو لعب دورٍ يتجاوز كونه أداةً تقنية، ليغدو نواةً تحويلية تعيد تشكيل الاقتصاد العالمي من داخله. فمع انتقاله إلى فاعلٍ مستقلٍ قادرٍ على اتخاذ القرار والتنفيذ، تتبدل مفاهيم الإنتاج، والمسئولية، والحوكمة، وتبرز أنماط جديدة من المخاطر المعقّدة. هذه المخاطر لا يمكن اختزالها في أعطال تقنية أو ثغرات تشغيلية، إذ باتت تمس البنية العميقة للاستقرار المؤسسي، عبر تداخلها مع سلاسل التوريد الرقمية، وبُنى القرار، ومنظومات الثقة التي تضبط عمل المؤسسات الحديثة.
في هذا السياق يقدّم تقرير "6 توقعات لاقتصاد الذكاء الاصطناعي: القواعد الجديدة للأمن السيبراني لعام 2026"، الصادر عن شركة "بالو ألتو نتوركس"، مدخلًا كاشفًا لفهم هذا التحول البنيوي. فالقضية المطروحة لا تتعلق بتطوير أدوات الحماية أو رفع كفاءة الدفاعات الرقمية فحسب، بل بإعادة تعريف طبيعة المخاطر في اقتصاد تعمل فيه الأنظمة الذكية بوصفها فاعلين مستقلين داخل المنظومات المؤسسية، وما يستتبع ذلك من إعادة نظر شاملة في مفاهيم الأمن والحوكمة والمسئولية.
لقد مثّل عام 2025 ذروة اضطراب سيبراني غير مسبوقة، بلغ فيها مشهد التهديدات مستويات عالية من السرعة والتعقيد، مدفوعًا بتوظيف الذكاء الاصطناعي في الهجوم، وبالهشاشة المتراكمة في سلاسل التوريد الرقمية. وتكشف المعطيات أن 84% من أبرز الحوادث السيبرانية الكبرى التي جرى التحقيق فيها خلال هذا العام أسفرت عن توقف تشغيلي أو أضرار بالسمعة أو خسائر مالية مباشرة، مما يؤكد أن الهجمات لم تعد أحداثًا معزولة يمكن احتواؤها عبر استجابات ظرفية، بل تحولت إلى أزمات تشغيلية شاملة تمس صميم استمرارية الأعمال. هذا الواقع كشف بوضوح حدود النموذج الأمني التقليدي القائم على الاستجابة اللاحقة، وأبرز الحاجة إلى مقاربة مختلفة جذريًا، لا تنطلق من منطق "الاختراق" بقدر ما تنطلق من مفهوم "الانكشاف البنيوي".
مع الاقتراب من عام 2026، يتبلور انتقال نوعي من منطق الاضطراب إلى منطق الدفاع، ليس بمعناه الكلاسيكي القائم على التحصين والمطاردة، بل من خلال إعادة تصميم منظومات الأمن لتواكب اقتصادًا تقوده كيانات غير بشرية. ففي البيئات التشغيلية الحديثة، يتجاوز عدد الهويات والوكلاء الآليين عدد البشر بنسبة تُقدَّر بنحو 82 إلى 1، وهو تحول كمي يعكس تغييرًا نوعيًا في بنية القوى العاملة الرقمية. ومع هذا الاختلال العددي، لم يعد الإنسان الفاعل الوحيد في اتخاذ القرار، ولا الهدف الأساسي للهجمات، بل أصبح جزءًا من منظومة هجينة تتقاسم فيها الآلة والبشر الصلاحيات والمسئوليات. في هذا السياق لم يعد الأمن يعني حماية الشبكات أو الأنظمة فقط، بل حماية منطق التشغيل والقرار وسلاسل الثقة التي تقوم عليها المؤسسة.
وتبرز الهوية هنا بوصفها ساحة المواجهة المركزية. ففي عالم تتكاثر فيه الهويات الآلية وتتراجع فيه القدرة على التمييز بين الحقيقي والمصطنع بفعل تقنيات التزييف العميق في الزمن الحقيقي، تدخل المؤسسات في أزمة ثقة بنيوية. الخطر لم يعد مقتصرًا على سرقة بيانات أو تعطيل خدمات، بل امتد إلى إمكانية توجيه سلاسل كاملة من القرارات المؤتمتة عبر أوامر مزيفة أو هويات مخترقة، بما يجعل أمن الهوية شرطًا جوهريًا لاستقرار القرار المؤسسي ذاته، لا مجرد إجراء وقائي تقني.
هذا التحول يتقاطع مع مفارقة أعمق تتعلق بوكلاء الذكاء الاصطناعي أنفسهم. فهؤلاء الوكلاء يُعوَّل عليهم لسد فجوة المهارات السيبرانية العالمية التي تُقدَّر بنحو 4.8 مليون متخصص، وتقليص إرهاق فرق الأمن، وتسريع الاستجابة للحوادث عبر العمل المستمر. غير أن منحهم صلاحيات واسعة وثقة ضمنية يحولهم، في الوقت ذاته، إلى الأصول الأعلى قيمة داخل المؤسسات، وبالتالي إلى الأهداف الأكثر جاذبية للهجمات. وهنا يتغير مفهوم "التهديد الداخلي" تغيرًا جذريًا، إذ لم يعد مرتبطًا بالسلوك البشري، بل بإمكانية تحويل وكيل ذكي موثوق إلى عنصر يعمل ضد الجهة المالكة له بسرعة ودقة تفوق أي اختراق تقليدي.
بالتوازي مع مما سبق انتقلت بؤرة الهجمات إلى مستوى أكثر خفاءً يتمثل في البيانات نفسها. فبدل استهداف الأنظمة بعد تشغيلها، يجري تقويض الثقة من خلال التلاعب ببيانات التدريب عند المصدر، بما يؤدي إلى إنتاج نماذج ذكاء اصطناعي تبدو سليمة من الخارج، لكنها منحازة أو غير موثوقة في قراراتها. هذا النوع من الهجمات لا يسبب انهيارًا فوريًا، بل يزرع خللًا بنيويًا يتراكم أثره مع الزمن، ويقوض الاعتماد على الذكاء الاصطناعي بوصفه ركيزة للاقتصاد الجديد، مما يحول البيانات من مورد تشغيلي إلى أصل سيادي يتطلب حوكمة موحدة تمتد عبر دورة حياة الذكاء الاصطناعي كاملة.
ولا يقل البعد القانوني والمؤسسي خطورة عن الأبعاد التقنية. فالفجوة بين التسارع الكبير في تبني الذكاء الاصطناعي ومحدودية المؤسسات التي تمتلك استراتيجيات ناضجة لأمنه-حيث لا تتجاوز النسبة 6% وفق التقديرات- تنقل المخاطر من مستوى تقني إلى مستوى سيادي مؤسسي. لم تعد تصرفات الأنظمة الذكية غير المنضبطة أعطالًا تقنية محايدة، بل باتت قرارات ذات تبعات قانونية ومسئوليات مباشرة تقع على عاتق القيادات التنفيذية ومجالس الإدارة، مما يعيد رسم حدود الحوكمة في العصر الرقمي.
في الخلفية يلوح تهديد أكثر هدوءًا لكنه أشد حتمية، يتمثل في الحوسبة الكمومية. فسيناريو “جمع البيانات الآن وفكها لاحقًا” يعني أن البيانات المسروقة اليوم، حتى وإن كانت مشفرة، قد تتحول إلى عبء استراتيجي في المستقبل القريب، مع تقلص الأفق الزمني للحوسبة الكمومية من عقدٍ كامل إلى بضع سنوات محتملة فقط. وهو ما يفرض تجاوز منطق التحديثات المؤقتة، والانتقال إلى بناء مرونة تشفير مستدامة قادرة على التكيف المستمر مع بيئة تهديد تتغير بوتيرة غير مسبوقة.
أما على مستوى الممارسة اليومية، فقد تحوّل متصفح الإنترنت من أداة عرض إلى مساحة تنفيذ مركزية، تُدار عبرها التطبيقات والبيانات ووكلاء الذكاء الاصطناعي. ومع الارتفاع الحاد في استخدام تطبيقات الذكاء الاصطناعي التوليدي أصبح المتصفح نقطة التقاء بين الإنسان، والآلة، والبيانات، وفي الوقت ذاته أحد أوسع أسطح الهجوم غير المحكمة، مما يفرض نقل الضوابط الأمنية إلى نقطة التنفيذ الأخيرة بدل الاكتفاء بحماية الأطراف الخلفية للأنظمة.
في المحصلة لا يتعلق التحول الجاري بإدخال أدوات أمنية أكثر تطورًا، بل بإعادة تعريف العلاقة بين الذكاء الاصطناعي، والقرار، والثقة. ففي اقتصاد تقوده الأنظمة المستقلة، تصبح المخاطر السيبرانية مرآة لمخاطر الحوكمة، والقيادة، والمسئولية. والتحدي الحقيقي مع اقتراب عام 2026 لن يكون في سرعة تبني الذكاء الاصطناعي، بل في القدرة على ضبطه وحوكمته وتأمينه بوصفه فاعلًا اقتصاديًا مستقلًا، دون أن يتحول من محرّك للنمو إلى مصدر دائم لانعدام اليقين. فالسؤال الذي يواجه البشرية اليوم لم يعد: هل نتبنى الذكاء الاصطناعي؟ بل: كيف نعيش وندير مؤسساتنا في عالم أصبح فيه الذكاء الاصطناعي فاعلًا لا مفر منه في تشكيل مصيرنا الاقتصادي والمؤسسي؟