لم تعد الحروب الحديثة تبدأ بإطلاق الصواريخ أو تحرك الجيوش، بل قد تبدأ بخط من الشيفرة داخل خادم حاسوبي بعيد، فإذا كان القرن العشرون قد عرف سباقات التسلح النووي والصاروخي، فإن القرن الحادي والعشرين قد يشهد سباقًا من نوع مختلف، سباقًا تتحول فيه الخوارزميات إلى أدوات قوة استراتيجية، فالتقارير التي تناولتها الصحف الكبرى، مثل (The Wall Street Journal&The New York Times )تحدثت عن استخدام نماذج ذكاء اصطناعي مثلClaude الذي طورته شركة(Anthropic) في دعم العمليات العسكرية الجارية ضد إيران، تعد مؤشرًا على تحول عميق في طبيعة الحرب، حيث لم يعد التفوق العسكري مرتبطًا فقط بالأسلحة التقليدية فحسب، بل بالقدرة على تحليل البيانات بسرعة تفوق الإدراك البشري ، بحيث لم يعد السؤال هو ما إذا كان الذكاء الاصطناعي سيُستخدم في الحروب، بل إلى أي مدى سيصبح شريكًا في اتخاذ قراراتها.
ما هي هذه الأداة ولماذا قد تمثل خطرًا؟
لفهم طبيعة الجدل الدائر حول استخدام نماذج الذكاء الاصطناعي في المجال العسكري، ينبغي أولًا توضيح ماهية هذه الأدوات ، فالنموذج المعروف باسم Claude، الذي طورته شركة Anthropic، ليس سلاحًا بالمعنى التقليدي، بل نظام ذكاء اصطناعي متقدم قادر على تحليل النصوص والبيانات واستخلاص الأنماط وتقديم تقديرات مبنية على كميات ضخمة من المعلومات ، وهو يشبه من حيث الوظيفة محللًا استخباراتيًا يعمل بسرعة فائقة، يستطيع قراءة آلاف الصفحات في وقت قصير، وربط معلومات متفرقة، واقتراح سيناريوهات محتملة استنادًا إلى البيانات المتاحة.
غير أن مصدر القلق لا يكمن في كون هذه الأنظمة أدوات تحليل متقدمة، بل في طبيعة الدور الذي يمكن أن تؤديه داخل منظومة صنع القرار، فالخطر الحقيقي لا يتمثل في أن الذكاء الاصطناعي قد يتحول إلى سلاح مستقل يطلق النار، بل في أنه قد يصبح أداة تحدد متى ولماذا وأين تُستخدم القوة، فعندما تعتمد المؤسسات العسكرية على نظم تحليل خوارزمية لتقييم المعلومات وتحديد الأولويات، فإن جزءًا من عملية اتخاذ القرار ينتقل تدريجيًا من الإنسان إلى النظام التقني.
وتزداد حساسية هذه المسألة لأن هذه النماذج صُممت أساسًا لأغراض مدنية، ثم أصبحت قابلة للاستخدام في سياقات أمنية وعسكرية دون أن تكون هناك قواعد واضحة تنظم هذا الانتقال، وهذا يعني أن أداة يمكن استخدامها في كتابة التقارير أو تحليل البيانات الاقتصادية يمكن أن تتحول، في ظروف معينة، إلى عنصر مؤثر في قرارات تتعلق بالحرب والسلم.
وتكمن الخطورة الاستراتيجية لهذه الأدوات في أنها لا تعمل في ساحة القتال، بل في المجال الأكثر حساسية، وهو مجال صنع القرار، فالسلاح التقليدي ينفذ القرار، أما الخوارزمية فقد تسهم في صياغته، ولهذا فإن تأثيرها قد يكون أعمق من تأثير كثير من أنظمة السلاح المعروفة، لأنها لا تغير فقط وسائل القتال، بل قد تغير طريقة التفكير في استخدام القوة نفسها.
ومن هنا يصبح السؤال المطروح اليوم ليس فقط كيف يمكن استخدام الذكاء الاصطناعي في العمليات العسكرية، بل كيف يمكن ضمان بقاء القرار النهائي في يد الإنسان، بحيث تظل التكنولوجيا أداة في خدمة السياسة، لا بديلًا عنها.
سباق التسلح الخوارزمي:
إذا كان القرن العشرون قد عرف سباقات التسلح النووي والصاروخي، فإن القرن الحادي والعشرين قد يشهد سباقًا من نوع مختلف، سباقًا تتحول فيه الخوارزميات إلى أدوات قوة استراتيجية، يتعدى دورها حدود المساعدة التقنية وتسريع تحليل المعلومات لتحسين كفاءة العمل العسكري، فكلما زادت قدرة الأنظمة الذكية على تحليل البيانات في زمن قصير، أصبحت أكثر تأثيرًا في تشكيل القرار العسكري نفسه.
إن التحول الذي يشهده العالم اليوم لا يتعلق فقط بتطور التكنولوجيا، بل بتغير طبيعة القوة ففي الماضي كان التفوق العسكري يرتبط بحجم الجيوش وعدد الأسلحة، أما اليوم فقد أصبح مرتبطًا بصورة متزايدة بالقدرة على جمع البيانات وتحليلها، ولم يعد السلاح الأكثر تأثيرًا هو الصاروخ أو الطائرة، بل الخوارزمية القادرة على قراءة ملايين المؤشرات في وقت واحد واستخلاص أنماط لا يستطيع العقل البشري ملاحظتها.
إن أحد أخطر أبعاد التحول الحالي يتمثل في احتمال نشوء سباق تسلح جديد قائم على امتلاك أنظمة ذكاء اصطناعي أكثر تطورًا وقدرة على تحليل البيانات، ويختلف سباق التسلح الخوارزمي عن سباقات التسلح التقليدية في أنه أقل وضوحًا وأكثر سرعة، فالأسلحة التقليدية يمكن رصدها بوسائل الاستخبارات المختلفة، أما الخوارزميات فيمكن تطويرها داخل مراكز بحثية مغلقة دون أن يلاحظها أحد.
وقد يؤدي هذا الغموض إلى زيادة عدم الثقة بين الدول، حيث قد تخشى كل دولة أن تكون الدول الأخرى قد سبقتها في تطوير قدرات خوارزمية متقدمة. وبدلًا من أن يكون الذكاء الاصطناعي عامل استقرار، قد يتحول إلى عامل توتر دائم.
وقد يدفع هذا الوضع الدول إلى تسريع الاعتماد على الأنظمة الذكية في المجال العسكري، ليس فقط لتحقيق التفوق، بل أيضًا لتجنب التخلف عن المنافسين. وهكذا يصبح الذكاء الاصطناعي جزءًا من معادلة الردع الجديدة.
ضغط الزمن الخوارزمي:
من أخطر نتائج إدخال الذكاء الاصطناعي إلى المجال العسكري ما يمكن وصفه بضغط الزمن الخوارزمي، ففي الماضي كانت القرارات العسكرية الكبرى تستغرق وقتًا يسمح بالتقييم السياسي والاستراتيجي، أما اليوم فإن الأنظمة الذكية قادرة على تحليل المعلومات في زمن قصير للغاية، وقد يؤدي ذلك إلى تقليص دور التفكير الاستراتيجي لصالح ردود الفعل السريعة، خاصة عندما تبدو هذه التوصيات مبنية على تحليل كميات ضخمة من البيانات، وتتمثل الخطورة الحقيقية وراء ذلك في انتقال جزء من السلطة الفعلية تدريجيًا من الإنسان إلى النظام التقني، ولا يعني ذلك أن الذكاء الاصطناعي سيحل محل القادة السياسيين، بل يعني أن هامش استقلالهم في اتخاذ القرار قد يتقلص بصورة تدريجية.
الإشكالية الأخلاقية والقانونية:
لا تقتصر خطورة هذا التحول على الجانب التقني فقط، بل تمتد إلى الجانب الأخلاقي والقانوني، فإدخال الذكاء الاصطناعي في العمليات العسكرية يثير أسئلة لم يجد العالم لها إجابات واضحة حتى الآن،فإذا أصبحت الخوارزميات جزءًا من عملية الاستهداف العسكري، فمن يتحمل المسئولية عن الأخطاء المحتملة؟ هل هي الدولة التي استخدمت النظام، أم الشركة التي طورته، أم المهندسون الذين صمموه؟
إن الخوارزميات لا يمكن مساءلتها، ولا يمكن تحميلها المسئولية القانونية أو الأخلاقية، وهو ما يجعل استخدامها في العمليات العسكرية مسألة شديدة الحساسية، وغالبًا ما يُطرح استخدام الذكاء الاصطناعي باعتباره وسيلة لزيادة دقة الاستهداف وتقليل الخسائر البشرية، وهو هدف يبدو مشروعًا من الناحية النظرية، غير أن الواقع قد يكون أكثر تعقيدًا.فكلما أصبحت العمليات العسكرية أكثر دقة وأقل تكلفة، أصبح اتخاذ قرار استخدام القوة أسهل من الناحية السياسية، وهو ما قد يؤدي إلى زيادة اللجوء إلى القوة بدلًا من تقليصها.
السيادة الخوارزمية.. تحدي الاستقلال الرقمي:
السيادة الخوارزمية تشير إلى قدرة الدولة على الاحتفاظ بالتحكم الكامل في الأنظمة الرقمية والخوارزميات التي تشارك في صنع القرار الاستراتيجي، فالدولة التي تعتمد على أدوات ذكاء اصطناعي خارجية، أو على نظم تديرها شركات أجنبية، تواجه خطرًا يتمثل في أن تصبح قراراتها الأمنية والاستراتيجية مرتبطة بتقنيات لا تملك السيطرة الكاملة عليها، وقد تتأثر هذه القرارات بتحديثات أو قيود يفرضها مزودو التكنولوجيا.
السيادة الخوارزمية ليست مجرد مفهوم نظري، فهي تعكس تحولًا جوهريًا في طبيعة القوة. ففي الماضي، كانت السيادة مرتبطة بالسيطرة على الأرض والحدود الجغرافية، أما اليوم فتتعلق بالتحكم في البنية التحتية الرقمية والبيانات، والخوارزميات التي تحدد أولويات الدولة،وسرعة استجابتها للأزمات، فحتى الدولة التي تمتلك كمًا هائلًا من البيانات قد تصبح مقيدة في خياراتها إذا اعتمدت على أدوات تحليلية خارج نطاق سيطرتها.
يتضح هذا الخطر بشكل أكبر عند اعتماد بعض الدول على خدمات سحابية أو نظم ذكاء اصطناعي متقدمة مقدمة من شركات أجنبية. فهذه الأدوات، رغم كونها مصممة للغايات المدنية أو التجارية، يمكن أن تتحول سريعًا إلى عناصر قوة استراتيجية، مما يخلق اعتمادًا مزدوجًا: على الأداء التقني، وعلى قرار رقمي خارج السيطرة المباشرة للدولة.
السيادة الخوارزمية تشمل أيضًا البعد الأخلاقي والسياسي. فالقرارات التي تعتمد على تحليل خوارزمي متقدم قد تبدو علمية، لكنها قد تؤثر بصورة غير مباشرة في سياسات الدولة وقدرتها على الردع. ومن هنا يصبح التحدي الاستراتيجي ليس فقط في امتلاك التكنولوجيا، بل في توطينها، وضمان السيطرة عليها، واستخدامها بما يخدم أهداف الدولة الوطنية.
باختصار السيادة الخوارزمية تعني أن تبقى الدولة قادرة على التحكم في أدواتها الرقمية بالقدر نفسه الذي تتحكم به في جيشها وسلاحها التقليدي. أي فقدان لهذا التحكم قد يحوّل الذكاء الاصطناعي من أداة لتعزيز القوة إلى عامل مقيد للاستقلالية الوطنية، مع إعادة تعريف مفهوم السيادة في القرن الحادي والعشرين.
نحو عصر الاغتيالات الرقمية:
إن ما يشهده العالم اليوم قد يمثل بداية مرحلة جديدة يمكن وصفها بعصر "الاغتيالات الرقمية"، ليس بمعنى أن الخوارزميات ستنفذ عمليات القتل بصورة مستقلة بالضرورة، بل بمعنى أن قرارات الاستهداف قد تعتمد بصورة متزايدة على التحليل الآلي للبيانات وفي هذه الحالة قد يصبح القتل نتيجة عملية حسابية أكثر منه قرارًا سياسيًا واعيًا.
ولا يوجد حتى الآن اتفاق دولي واضح يحدد حدود استخدام الذكاء الاصطناعي في العمليات العسكرية، وبينما ترى بعض الدول أن هذه التكنولوجيا قد تجعل الحروب أكثر دقة وأقل تكلفة بشرية، يرى آخرون أنها قد تفتح الباب أمام سباق تسلح جديد أكثر خطورة من سباقات التسلح التقليدية حيث لا يمثل إدخال الذكاء الاصطناعي إلى المجال العسكري تطورا تقنيا فقط ، بل يمثل تحولًا عميقًا في طبيعة القوة السياسية والعسكرية.
وقد يكون السؤال الأهم اليوم ليس كيف ستستخدم الدول الذكاء الاصطناعي في الحروب، بل كيف سيغير الذكاء الاصطناعي طبيعة الحرب نفسها.
ويبقى السؤال مفتوحًا:
هل سيقود الذكاء الاصطناعي إلى عالم أكثر أمانًا عبر زيادة دقة الاستهداف، أم إننا أمام مرحلة جديدة تصبح فيها الخوارزميات شريكًا غير مرئي في قرارات استخدام القوة؟