لا داعى للذعر حتى الآن..دور الذكاء الاصطناعى التوليدى فى الانتخابات
29-9-2025

محمود بصيله
* باحث فى العلوم السياسية

على مر التاريخ قوبلت التكنولوجيات الجديدة بآمال ومخاوف مبالغ فيها، فغالبا ما يتم تصويرها كونها نقلة مفصلية فى التطور أو على أنها تهديد وجودى. وأنظمة الذكاء الاصطناعي التوليدية ليست باستثناء. فبعد إطلاق (ChatGPT)للجمهور العام تزايد الاهتمام بالأمر بشكل كبير. ومع ذلك فغالبا ما كانت التغطية الإعلامية لأنظمة الذكاء الاصطناعي التوليدية سلبية وتحذيرية. في الوقت نفسه تصاعدت مخاوف شديدة حول حالة الديمقراطية كجزء من الركود الديمقراطي المستمر والتحديات التي تواجه الديمقراطيات في جميع أنحاء العالم. فهناك مخاوف واسعة النطاق حول دور التكنولوجيا في الديمقراطية، وخاصة الانتخابات بعد استفتاء انسحاب بريطانيا من الاتحاد الأوروبي وانتخاب دونالد ترامب كرئيس للولايات المتحدة الأمريكية في 2016.

تتناول دراسة "لا داعي للذعر (حتى الآن): تقييم الأدلة والخطاب حول الذكاء الاصطناعي التوليدي والانتخابات" لفليكس سيمون وساشا ألتاي تقييم دور الذكاء الاصطناعي التوليدي في التأثير على الانتخابات ونتائج الانتخابات، عن طريق مساهمة أنظمة الذكاء الاصطناعي التوليدي في نشر المعلومات التي قد تكون صحيحة أو مغلوطة، وكيف تؤثر علي السلوك الانتخابي للجمهور، بالإضافة إلى مناقشة الأسباب الشائعة التي من المحتمل أن تسبب بعض القلق بين الناس حول تأثيرات الذكاء الاصطناعي، مما قد يؤدي إلى تقليل ثقتهم في العملية الانتخابية برمتها، وهل تلك الآراء السلبية المنتشرة حول مساهمة الذكاء الاصطناعي في نشر المعلومات المغلوطة لها تأثير حقيقي علي أرض الواقع عن طريق تقييم كيف تم استخدام الذكاء الاصطناعي بالفعل في الانتخابات الأمريكية عام2024، وتناقش الدراسة هل يمكن أن يكون هناك تأثيرات أكبر للذكاء الاصطناعي التوليدي في الانتخابات والعملية الديمقراطية في المستقبل أم لا.

العوامل التي ساهمت على تصوير الذكاء الاصطناعي كتهديد للانتخابات:

أولا- هناك الكثير من الادعاءات بشأن مخاطر التكنولوجيات الجديدة التي تهدف في بعض الأحيان إلى خدمة المصالح الخاصة لبعض الأطراف، وتصدر تلك الادعاءات عن طريق الأوساط الأكاديمية والخبراء بشأن تأثير هذه التكنولوجيا الجديدة، وتأثير تلك الادعاءات ينبع من كونها ممزوجة بتطورات حقيقية لتلك التكنولوجيا الجديدة، الأمر الذي يترك مجالا لعدم اليقين بين عامة الناس. قد تختلف الدوافع لنشر تلك الادعاءات باختلاف الفاعلين. ومع ذلك فإن هذه الادعاءات تكون دائما حول الدور السلبي الذي قد تلعبه التكنولوجيا في الديمقراطية، وبخاصة في الانتخابات.

ثانيًا- هناك أيضًا مستويات متباينة ومتعارضة من التخصصات، حيث يتجادل العلماء من مختلف التخصصات مع بعضهم بعضا بشأن تأثيرات تلك التكنولوجيا الجديدة. ومع ذلك، وبالنظر إلى أن الذكاء الاصطناعي مصدره هو علماء الحوسبة، فإن آراءهم قد تصدرت الخطاب العام لكن هذا أمر إشكالي. فخبراء علوم الحاسب العاملون على الذكاء الاصطناعي ليسوا بالضرورة أفضل الخبراء في تقييم الأثر الاجتماعي للتكنولوجيا، ولا هم الأفضل أو الوحيدون في فهم أنظمة الذكاء الاصطناعي. إضافة إلى ذلك فإن الاختلاف بين التخصصات المختلفة وغياب التعاون يمكن أن يؤدي إلى مخاوف غير متطابقة، حيث يمنح كل طرف الأولوية لمخاطر وفوائد مختلفة وفقًا لوجهة نظره وخبرته.

ثالثا- ديناميكيات اقتصاد الانتباه. إن التنافس على جذب الانتباه لا تحكمه دائمًا أسس عقلانية منطقية حول أفضل الأدلة المتاحة. بل إن الرسائل التي تحتوي على ادعاءات قوية حاسمة، أو مثيرة تميل إلى جذب انتباه أكبر مقارنة بالتصريحات الأكثر اعتدالًا أو ذات الصياغة الحذرة. فأولئك الذين يطلقون ادعاءات جريئة غالبًا ما يحظون بمزيد من الانتباه، الأمر الذي يؤدي بدوره إلى مزيد من التغطية الإعلامية، واهتمام أكبر من صانعي السياسات، وزيادة في التمويل، مما قد يرسخ بعض الآراء على حساب غيرها في التأثير على الرأي العام. كل هذا يشكل حوافز إضافية لإطلاق مثل هذه الادعاءات بدلًا من تقديم حجج أكثر دقة وتفصيلًا.

رابعا- التغير التكنولوجي يمثل تحديات وفرصا للفاعلين السياسيين. فالسياسيون لا يرغبون في أن ينظر إليهم كأطراف سلبية لا تفعل شيئًا، وخاصة في سياق الاضطرابات التكنولوجية السابقة وطلب الرأى العام للتدخل. ومع ذلك فإن حالة الذعر الأخلاقي المرتبطة بالتقنيات الجديدة، إلى جانب مساعدتها للسياسيين في تشكيل صورتهم العامة، يمكن أن يتم استخدامها في تجنب الحديث عن الإصلاح الاجتماعي، والعدالة، والمساواة، والفرص الاقتصادية. ويتم استخدامها في تشتيت انتباه الجمهور بعيدًا عن القضايا الأكثر أهمية.

خامسا- تأثير الفرصة السانحة بالمعنى الذي يفيد بأن الفعل يجب أن يحدث فورًا. وهناك بالفعل عدة أسباب وجيهة للعمل وفقًا لهذه القاعدة، وعند تطبيق ذلك على الذكاء الاصطناعي والانتخابات، فمن المنطقي أن يؤدي الوعى بهذه الديناميكيات إلى الدعوة لاتخاذ تدابير وقائية ضد الآثار السلبية المحتملة قبل أن تتحقق فعليا.

سادسا- إن القلق والخبرة الشخصية للأشخاص الذين يعملون في ظروف صعبة أو في بيئات سياسية غير مستقرة تساهم جزئيًا في التأثير على آرائهم حول الذكاء الاصطناعي والانتخابات. فقد شهد الصحفيون، والسياسيون، والأكاديميون، ونشطاءالمجتمع المدني في دول عدة حول العالم استخدام التقنيات الرقمية لإلحاق الضرر في سياق الانتخابات، أما أولئك الأشخاص الذين لديهم خبرة شخصية في مواجهة تراجع الديمقراطية، وكذلك الذين يتحملون العبء في محاولة الحفاظ على نظام معرفي يركز على البحث عن الحقيقة، والتبادل المفتوح للأفكار والمعلومات، واحترام المعرفة المؤسسية والمصادق عليها، فمن الطبيعي أن تكون لديهم نظرة مختلفة حول الكيفية التي قد تجعل بها التطورات التكنولوجية حياتهم وعملهم أكثر صعوبة مما هي عليه بالفعل. وهذا قد يؤدي إلى تقييم مختلف لتأثير الذكاء الاصطناعي على الانتخابات مقارنة بمن لم يتعرضوا للظروف نفسها.

التركيز على إساءة استخدام الذكاء الاصطناعي التوليدي في الانتخابات قد يصرف انتباهنا عن أضرار أخرى:

 المبالغة في تقدير مخاطر الذكاء الاصطناعي التوليدي في سياق الانتخابات، قد تعرضنا لخطر تجاهل الطرق الأشهر والأكثر خفاءً التي يساء بها استخدامه، مثل المساعدة في المضايقات الموجهة وزيادة الانحيازات. يشمل ذلك مضايقة النساء والأقليات المختلفة. بالمثل يتم استهداف الأقليات من خلال حملات مدعومة بالذكاء الاصطناعي، بما في ذلك هجمات ذات طابع عنصري أو معاد للأجانب عبر وسائل التواصل الاجتماعي.

مناقشة الادعاءات حول مخاطر الذكاء الاصطناعي في الانتخابات:

أولا- إن الذكاء الاصطناعي سيزيد من كمية المعلومات والمعلومات المغلوطة حول الانتخابات، حيث إن مثل هذه الزيادة خاصة في المعلومات المغلوطة سيكون لها عواقب مثل تلويث بيئة المعلومات، لكن وجود المزيد من المعلومات المغلوطة بسبب الذكاء الاصطناعي لا يعني بالضرورة أن الناس سيتلقون المزيد منها، حيث إن الإنترنت ممتلئ بالفعل بالكثير من المحتوي الرديء. حيث إنالعوائق أمام نشر المعلومات المضللة والوصول إليها منخفضة للغاية بالفعل، ولا يوجد سبب وجيه للافتراض بأن الناس سيبدون اهتماما أكبر للمعلومات المضللة المنشأة عن طريق الذكاء الاصطناعي مقارنة بالصيغ الأخرى الموجودةبالفعل من المعلومات المضللة.إن إنتاج المعلومات المضللة حول الانتخابات أمر سهل. فكل ما يتطلبه الأمر هو إخراج صورة من سياقها، أو استقطاع مقطع فيديو، أو ببساطة قول أشياء زائفة بشكل صريح. وفي ظل هذه الظروف، لا تملك المحتويات المولدة بالذكاء الاصطناعي مجالا واسعًا للتأثير.

ثانيًا- إن الذكاء الاصطناعي سيزيد من جودة المعلومات المغلوطة حول الانتخابات، لكن هذا لا يعني أنه بالضرورة سيحدث تغيير مؤثر في سياق الانتخابات، حيث إن الذكاء الاصطناعي التوليدي بالتأكيد يسمح بإنشاء معلومات خاطئة ذات جودة عالية لكن ليس من الواضح أن المعلومات المضللة ذات الجودة الأعلى ستكون أكثر نجاحًا بالفعل في إقناع الناس أو تضليلهم. فعوامل أخري قد تشكل الفارق في تحديد من ولماذا يقبل الناس ويشاركون المعلومات المضللة.بالإضافة إلى ذلك فإن صانعي المعلومات المغلوطة لديهم بالفعل العديد من الأدوات لتحسين جودة المعلومات لكن في الأغلب يلجأون إلى أدوات سهلة الاستخدام ورخيصة التكلفة، السبب الذي يجعل تلك الأساليب فعالة بشكل كاف هو أنه لا يهم جودة المعلومات المغلوطة لكن ما يهم هو ما تدعمه والغاية السياسية التي تلبيها، حيث إن مصدر المعلومات المغلوطة مهم أكثر من جودتها.

ثالثا- إن الذكاء الاصطناعي سيزيد من تخصيص المعلومات والمعلومات المغلوطة على نطاق واسع، لكن هناك بعض التعقيدات في هذا الأمر، حيث إن الجدوى التقنية لا تعني بالضرورة الفعالية العملية. ففعالية الإعلانات السياسية الموجهة بشكل عام تبقى موضع جدل، إذ تظهر الدراسات أنها محدودة التأثير، وصغيرة الحجم، وتعتمد بدرجة كبيرة على السياق، بالإضافة إلى أن تحقيق فاعلية واقعية في تخصيص الرسائل يتطلب بيانات مفصلة عن كل فرد. وعلى الرغم من أن جمع البيانات وتوافرها بشأن الناخبين أمر شائع في العديد من الدول، إلا أنه ليس ظاهرة متجانسة أو متسقة عبر جميع الدول، ولتنجح تلك الاستراتيجية يجب أن تصل الرسالة إلى هدفها، لكن وفقا للقائمين على الحملات الانتخابية فإن الناس لا يهتمون بهذا النوع من الإعلانات المخصصة، وغير ذلك إن تزايد وفرة البيانات على مستوى الناخبين وتطور أدوات الذكاء الاصطناعي بشكل متزايد لا يضمن بالضرورة أن يقوم الفاعلون السياسيون باستخدامها، وأخيرًا لمواجهة ذلك سيتم أيضًا استخدام الذكاء الاصطناعي من قبل الحكومات، والمؤسسات، ووسائل الإعلام لإعلام المواطنين وتزويدهم بمعلومات موثوقة.

رابعا- ظهور أنماط جديدة من تلقي المعلومات، حيث إن إدماج أنظمة الذكاء الاصطناعي مع الوسائل الرقمية الموجودة بالفعل، والاستخدام المتزايد للذكاء الاصطناعي التوليدي في البحث عن المعلومات، يؤدي إلى تغير أنماط تلقي المعلومات المتعلقة بالانتخابات، ونظرا لاحتمال أن عددا أكبر من الناس سيستخدمون هذه الأنظمة كمصادر للأخبار، ونظرًا لثغرات هذه الأنظمة، يبدو أن الخوف القائم حاليا يتمثل في أن المستخدمين سيكونون أكثر عرضة لتلقي معلومات مضللة، لأن هذه الأنظمة قد تزودهم بمعلومات غير صحيحة، لكن الحصول علي معلومات تبدو حقيقية من نظام ذكاء اصطناعي توليدي لا يختلف بشكل كبير عن عيوب التواصل في الحياة اليومية،  حيث إنه يمكن الحصول علي معلومات مغلوطة من عدة مصادر أخرى.

خامسا- زعزعة الواقع، حيث إن قدرة الذكاء الاصطناعي على إنشاء محتوى يبدو حقيقيا ستزرع القلق حول ما هو حقيقي، مما سيزيد الشك حول المعلومات الصحيحة، وعلى الرغم من أن هذا سيشكل فرقا، إلا أن مصادر المعلومات الموثوقة الراسخة لن تتأثر على الإطلاق.

سادسا- العلاقات بين البشر والذكاء الاصطناعي من المرجح أن تتزايد مع اعتماد أكبر على أنظمة الذكاء الاصطناعي كرفقاء، لكن على الرغم من ذلك لا يوجد أسباب كافية لتجعلنا نعتقد أن رفقاء الذكاء الاصطناعي سيحلون محل العلاقات المعقدة بين البشر. حيث إن وجود قدرات ذكاء اصطناعي لا يضمن تلاعبا غير قابل للإيقاف بالرأى العام أو السلوك الانتخابي.

الخطاب التحذيري بشأن أثر الذكاء الاصطناعي على الانتخابات قد يؤدي إلى تقليل الثقة في الديمقراطية:

تؤدي التحذيرات بشأن مخاطر الذكاء الاصطناعي في حد ذاتها إلى تقليل ثقة الناس في المؤسسات الديمقراطية، والطرح الذى قدمته وسائل الإعلام بأن الذكاء الاصطناعي لديه تأثيرات سلبية على الانتخابات يمكن أن يؤدي إلى تقليل ثقة الشعب في العملية الديمقراطية، وإضعاف ثقتهم في نتائج الانتخابات. حين تؤكد وسائل الإعلام على المخاطر الناتجة عن الذكاء الاصطناعي، وهذا يؤدي إلي شعور بحتمية أن نتائج الانتخابات سيتم التلاعب بها بواسطة الذكاء الاصطناعي، حتى لو لم يؤثر الذكاء الاصطناعي على نتائج انتخابات معينة. فالشعور فقط أن الذكاء الاصطناعي قد أفسد العملية الانتخابية قد يؤدي إلي تشكيك الناخبين في شرعية النتائج. مثل هذا الأمر قد يكون ضارا بشكل كبير في الانتخابات متقاربة النتائج، التي تكون فيها ثقة الشعب في نتائج الانتخابات ضرورية للمحافظة على الاستقرار السياسي.

كيف تم استخدام الذكاء الاصطناعي بالفعل في الانتخابات؟

في الولايات المتحدة قبل الانتخابات الرئاسية في 2024، نشرت وكالة الأمن السيبراني والبنية التحتية أن قدرات الذكاء الاصطناعي لن تقدم مخاطر جديدة بل ستضخم المخاطر الموجودة بالفعل، وصرح مجتمع الاستخبارات الأمريكي أن أنظمة الذكاء الاصطناعي تساعد في تطوير وتسريع بعض نواحي عمليات التأثير الأجنبي، لكن حتى الآن لم يشهد مجتمع الاستخبارات أنها أحدثت تأثيرا ثوريا علي هذه العمليات. بعد الانتخابات يبدو الآن واضحًا أن تأثير الذكاء الاصطناعي التوليديلم يكن بالقدر من الأهمية الذي كان يتم تصويره، حيثإن التضليل المتوقع للمعلومات المغلوطة المصنوعة بواسطة الذكاء الاصطناعي لم يظهر علي الإطلاق، في يوم الانتخابات لعبت المعلومات المغلوطة دورا أوليا، مثل التضليل بشأن نسبة الأصوات وآليات الاقتراع، لكن هذا التضليل اعتمد علي وسائل تقليدية، مثل الصور والفيديوهات التي يتم استخدامها خارج سياقها، بالإضافة إلى ذلك تم التوصل إلىتحليل لمكتبة الإعلانات الخاصة بـ"ميتا" ومركز شفافية الإعلانات الخاص بـ "جوجل"، أنه لم يكن هناك استخدام واسع النطاق للذكاء الاصطناعي في الانتخابات العامة بهدف خداع الناخبين، بل تم استخدامه بشكل أكبر في الدعاية.

مثال آخر هو الانتخابات في المملكة المتحدة والاتحاد الأوروبي، أثناء تلك الانتخابات ووفقا للتقديرات المتاحة كانت نسبة انتشار المعلومات المضللة الناتجة عن طريق الذكاء الاصطناعي منخفضة للغاية، أحد الأبحاث من مؤسسة "آلان تورينج" وجد فقط 16 حالة مؤكدة من مساهمة الذكاء الاصطناعي في نشر المعلومات المضللة أثناء الانتخابات العامة في المملكة المتحدة، و11 حالة فقط في انتخابات فرنسا والاتحاد الأوروبي مجتمعين، تلك النسبة أقل بكثير من النسبة التي توقعها العديد من الناس قبل الانتخابات. التقرير نفسه توصل إلى أنه لا يوجد دليل على أن الذكاء الاصطناعي ساهم في نشر المعلومات المضللة أو أنه أثر بشكل كبير على نتيجة الانتخابات في المملكة المتحدة وأوروبا، وأن الذكاء الاصطناعي لعب دورا أقل في نشر المعلومات المضللة من الوسائل التقليدية ذات التأثير البشري، علي الرغم من ذلك ينوه التقرير إلى أن الذكاء الاصطناعي تم استخدامه بطرق مؤذية خاصة للتحريض علي الكراهية تجاه الشخصيات السياسية.

ختامًا، توصلت الدراسة إلى أنه قد يكون الذكاء الاصطناعي حتى الآن ليس لديه تأثير كبير على الديمقراطية أو الانتخابات، لكن تقنيات الذكاء الاصطناعي لا تزال في إطار التطور، وقد تشهد قفزة كبيرة مما قد يزيد من فعاليتها ليتم استخدامها بشكل أكبر في الانتخابات، وبالتأكيد هذا الأمر سيزيد من المخاطر المصاحبة للذكاء الاصطناعي.

المصدر:

· Felix M. Simon and Sacha Altay, Don’t Panic (Yet): Assessing the Evidence and Discourse Around Generative AI and Elections, The Knight First Amendment Institute, July 7, 2025.

 


رابط دائم: