الذكاء الاصطناعى يرى ويسمع
15-1-2023

م. زياد عبد التواب
* خبير التحول الرقمي وأمن المعلومات، الرئيس السابق لمركز المعلومات ودعم اتخاذ القرار برئاسة مجلس الوزراء

قامت أدوات عصر المعلومات وخاصة تقنيات الذكاء الاصطناعى وتعلم الآلةMachine Learning  بتدمير المقولة الشهيرة مستقرة المعنى التى تقول: "ليس من رأى كمن سمع"، وهى المقولة التى كانت تستخدم للدلالة على صحة خبر أو موقف ما، ففى الماضى كانت الشائعات تنتشر من خلال الأحاديث بين البشر، فهذا يختلق خبرا غير صحيح ثم يقوم بالحديث مع مجموعة من الأفراد فيقوم أغلبهم بإعادة الحديث بتفاصيل هذا الخبر مع آخرين، وربما يقوم كل منهم بإضافة تفاصيل إضافية لم تكن فى الخبر الأصلى، بالطبع كانت ولا تزال الشائعات تعتمد على جزئية واحدة صحيحة يمكن تشبيهها بالنواة؛ حيث يتم حولها نسج الكثير من الأخبار والمعلومات الخاطئة وذلك لكسب المصداقية والإقناع والإزعاج أيضا وهى الأدوات التى تعد الوقود المحرك لماكينة الشائعات فى كل زمان ومكان.

استمر الأمر كذلك حتى وصلنا إلى عصر الطباعة، وهنا تقلص الاهتمام بما نسمع مقارنة بما نقرأ من مطبوعات والتى احتاجت الدخول إلى عصر الآلة والبخار لتحقيق سرعة الانتشار المنشودة، ثم جاء عصر التصوير الفوتوغرافى فأصبحت الصورة تتكلم وانتشرت عبارات، مثل: "صورة بألف معنى"، و"صورة تغنى عن ألف كلمة"، وغيرها من التعبيرات الشهيرة.

ومع بدايات التصوير الفوتوغرافى - القرن التاسع عشر- بدأ التزييف أيضا، سواء بإضافة أو حذف بعض من تفاصيل الصورة وصولا إلى تزييف كل التفاصيل أو ما يطلق عليه تعبير "الفبركة الكاملة"، وهنا تجدر الإشارة إلى مدى انتشار تلك الآلية ومدى إيمان الناس بها سواء لعدم درايتهم بوجود أدوات للتزييف أو ببساطة لاتباعهم المقولة السابق الإشارة إليها فى أول المقال.

خلال تلك الفترة استخدم الإعلام غير المسئول تلك الأدوات لنشر كل ما هو غريب - وغير حقيقى أحيانا- مثل صور غير واضحة المعالم لما أطلق عليه مركبات الفضاء UFOأو لكائنات فضائية Aliensأو لأشباحGhosts  أو لجثث متحركة، كما تم استخدامها بصورة كبيرة فى عمليات التزييف السياسى أيضا وخاصة خلال فترات الحروب واشتداد الصراعات السياسية، ولعل أشهر تلك الحالات ما تم خلال فترة الرايخ الثالث بألمانيا وخاصة خلال فترة الحرب العالمية الثانية.

والحقيقة أنه وعلى الرغم من تصديق البعض تصديقا كاملا لا يدع مجالا للشك فإنه وعلى الجانب الآخر وصل الأمر ببعض ممن هم غارقون فى نظرية المؤامرة إلى التشكيك فى أمور مستقرة ومصدقة مثل التشكيك فى عملية هبوط الإنسان على سطح القمر بادعاء أن تلك الصور مفبركة أيضا.

أتى بعد ذلك عصر الحواسب الآلية، وهنا بدأت موجة جديدة من تغيير الصور وانتشرت تلك الصور الغريبة ولكن بدقة وحرفية أكبر، ما جعل بعض الصحف ووسائل الإعلام تقع فى فخ التصديق وتقوم بنشر بعض من تلك الصور، أتذكر فى أوائل الثمانينيات الصورة الشهيرة لما أطلق عليه آنذاك غابة شجرية بألمانيا تحتوى على تلافيف أشجار كتبت عبارة التوحيد وأيضا ما نشر فى بعض الصحف خلال أوائل التسعينيات من صورة لكائن غريب بجسم حيوان ورأس فتاة، ادَّعى الخبر أنها بنت عاقة استهزأت بنصيحة والدتها بضرورة قراءة القرآن الكريم.

بعد ذلك بقليل استمرت الأدوات والتقنيات المستخدمة فى معالجة الصور الثابتة Still Imagesفى التطور وصولا إلى مستوى متقدم جدا يجعل التعرف إلى الصورة المفبركة من الصورة الحقيقية أمرا فى غاية الصعوبة بل قد يحتاج إلى خبراء متخصصين للتعرف إليها.

ثم احتاج الأمر إلى زمن طويل حتى يعتاد الناس على وجود تلك الصور المزيفة وإلى التعرف إلى الأدوات الفنية المستخدمة فى فبركتها وخلال تلك الفترة اتجه الجميع بقناعة غريبة إلى مقاطع الفيديو المصورة ووضعوا فيها كل ثقتهم بصورة تلقائية غير مبررة إلا ربما لاعتقادهم بأن الفبركة مقصورة على الصور الثابتة فقط، ولكن للأسف الثقة بتلك المقاطع أدت إلى العديد من المشكلات، فمن بدأ بتزييف الصور اتجه أيضا إلى تزييف المقاطع المصورة من خلال المونتاج أو تغيير الصوت؛ حيث بدأ هذا المشوار بمقاطع مصورة غير واضحة Low Qualityلا يمكن التحقق من حركة الشفاه وذلك من خلال أصوات شبيهة حتى وصلنا إلى ما يطلق عليه Deepfakeوهو المصطلح الذى ظهر عام 2017 حيث انتشرت التطبيقات القادرة على توليد مقاطع فيديو مفبركة بالكامل وبجودة عاليةHigh Quality  وذلك على مستوى الصوت والصورة.

أما عن البدايات فلقد دخل البحث الأكاديمى على الخط بداية من عام 1997 وظهر أول برنامج أكاديمى عام 2017 يتم من خلاله عمل مقاطع فيديو زائفة للرئيس الأسبق باراك أوباما، وتطور الأمر بعد ذلك بصورة غير مسبوقة ما تزال تأثيراتها فى الإعلام وفى جمهور المشاهدين كبيرة ومتشعبة.

لم يستمر الأمر داخل الجامعات والمراكز البحثية، فقد انطلق خارجها فتلقفه جمهور من هواة المبرمجين وقاموا بتطوير العديد من التطبيقات، هذا بالإضافة إلى انتشار العديد من التطبيقات المطورة بواسطة شركات برمجيات متخصصة بصورة أكثر احترافية.

أما عن الاستخدامات والأغراض فكثيرة ومتعددة، منها محاولة تزييف التاريخ من خلال توليد مقاطع مصورة لشخصيات فارقت الحياة ليتم على لسانهم إعطاء رسائل مختلفة عما ألفه الناس من تاريخ هؤلاء وما عاصروه من أحداث، ومن الأغراض الأخرى ما هو مرتبط بالابتزاز والمشاهد الإباحية أو فن التمثيل والسينما أو فى الأمور السياسية والدينية أيضا.

وكما أن إنشاء تلك المقاطع يحتاج إلى خوارزميات معقدة للذكاء الاصطناعى وتعلم الآلة، فإن منصات التواصل الاجتماعى الشهيرة تعمد حاليا إلى تطوير خوارزميات قادرة على اكتشاف المقاطع المفبركة، الغريب أن سياسات النشر لدى العديد من تلك المنصات لا تسمح لهم بمحو تلك المقاطع حتى الآن، بل تقوم فقط بالإشارة إلى أنها مفبركة بنظام الـDeepfake وهو أسلوب يراه البعض غير كاف لمكافحة تلك المقاطع المغلوطة فيما يراها آخرون أسلوبا مناسبا لرفع الوعى وتنميته بكيفية الاكتشاف، وهنا تبقى فقط الصفحات الموثقة الخاصة بالجهات الموثوق بها كملاذ آمن وربما وحيد للحصول على المعلومات الموثقة والسليمة، وربما يستمر الأمر حتى تصل تقنيات الذكاء الاصطناعى إلى الدرجة المتقدمة من الاحترافية التى تستطيع عندها قراءة الأخبار المكتوبة والمرئية والمسموعة، ومن خلال مقارنتها بما تعرفه بالفعل من معلومات، أن تستطيع اكتشاف الزيف والمساهمة بفاعلية فى الحرب الدائرة حاليا لمكافحة الشائعات والأخبار المغلوطة.

 


رابط دائم: