مقالات رأى

مخاطر تطبيق الدردشة Chat GPT على أمن المعلومات

طباعة

 اتسمت نهاية القرن العشرين بثورة تكنولوجية ومعلوماتية هائلة، أحدثت قفزة غيرت أنماط الحياة وحدود العلاقات، امتدت من فضاء الاتصالات إلى التجارة والتسويق، إلى الأنظمة المالية والمعلوماتية، فقد أنتج التعامل مع الإنترنت وما يوفره من زخم معلوماتى وقدرات اتصال وخدمات حالة من الارتباط والارتباك، ما يصعب على الفرد والمؤسسات الاستغناء عنه؛ حيث أضحى الإنترنت جزءا من الحياة اليومية للأشخاص والمؤسسات، ما أسفر عن كم هائل من البيانات والمعلومات، وإن برزت ظواهر فى التعامل مع الشبكة، وصولا إلى الأضرار بمصلحة الأشخاص والهيئات والدول عن طريق الاختراق والقرصنة، الأمر الذى طرح مسألة التعامل الآمن وحماية المعلومات.

لقد شُكِّل الفضاء السيبرانى cyber spaceعن طريق الترابط البينى بين أنظمة المعلومات وشبكات الحاسب، مثل الإنترنت؛ حيث يعزز قدرات أنظمة المعلومات على نطاق واسع، وتؤدى هذه الشبكات، وخاصة الإنترنت، إلى مجموعة متنوعة من الفوائد للاستخدامات الشخصية واستخدامات الشركات؛ إذ يمكن للشركات الوصول إلى عدد هائل من العملاء المحتملين، ويمكنهم تبادل المعلومات الحساسة فى جميع أنحاء العالم فى خلال ثوان، وصولا باستخدامات الذكاء الاصطناعى الذى أصبح ينضوى ضمن استثمارات وأصول الشركات المتعددة الجنسيات، التى تقوم بدورها برقمنة وأتمتة التواصل مع الجمهور، وفقا لاستراتجيات متفق عليها، إلا أنه قد يساء توظيفه فى أحيان أخرى، على سبيل المثال توظيفه فى ترويج الأخبار الزائفة عبر الروبوتات  النافعة أو الضارة، التى تسعى إلى الجمهور بمختلف شرائحه.

روبوت الدردشة "لامدا" يتسبب فى فصل مهندس جوجل:

فى يناير 2022 صدرت ورقة بحثية من شركة جوجل حول برنامج "لامدا"، وقد سبق أن حذرت الشركة من أن البعض قد يتحدث إلى ربوتات الدردشة دون أن يعلم ذلك، وأن الأشخاص قد يشاركون الأفكار الشخصية مع وكلاء الدردشة الذين ينتحلون صفة البشر، حتى عندما يعلم المستخدمون أنهم ليسوا بشرا. وأقرت الورقة أيضا أنه يمكن للخصوم استخدام هؤلاء العملاء "لزرع معلومات مضللة" عن طريق انتحال "أسلوب محادثة أفراد معينين".

وتصدرت وقتئذ أخبار روبوت الدردشة الذكى LaMDA)) بوسائل الإعلام المحلية والعالمية الذى سبق أن طورته شركة جوجل العام الماضى، وصرح "بليك ليمون" المهندس فى شركة جوجل أن برنامج الذكاء الاصطناعى "لامدا" أصبح حساسا من الناحية العاطفية، ما دفع الشركة إلى منحه أجازة مدفوعة الأجر، بدعوى أنه لا يوجد دليل على أن برنامج الذكاء الاصطناعى يتمتع بتلك القدرة.

فى مقال نشرته مجلة الإيكونوميست  يعرض مقتطفات من المحادثات غير المسجلة مع LaMDA، جادل بأن الشبكات العصبية - نوع من الهندسة المعمارية التى تحاكى الدماغ البشرى، وقال المتحدث باسمGoogle ، براين جابرييل: "لقد راجع فريقنا - بما فى ذلك علماء الأخلاق والتقنيون - مخاوف "بليك" وفقا لمبادئ الذكاء الاصطناعى الخاصة بنا، وأبلغه أن الأدلة لا تدعم مزاعمه."

وأشارت الدراسة إلى أن النمو البالغ 169%، سيكون مدفوعا بالاعتماد المتزايد على استراتيجيات البيع بالتجزئة المتعددة القنوات من مشغلى التجارة الإلكترونية والتكامل المتزايد لروبوتات الدردشة.

ويقول معظم الأكاديميين وممارسو الذكاء الاصطناعى: إن الكلمات والصور التى أنشئت بواسطة أنظمة الذكاء الاصطناعى، مثل LaMDAتنتج ردودا بناء على ما نشره البشر بالفعل علىWikipedia  وReddit ولوحات الرسائل وكل ركن آخر من الإنترنت، وهذا لا يعنى أن النموذج يفهم المعنى.

وسبق أن توقعت دراسة أجراها مركز جونيبر للأبحاث أن يرتفع العدد الإجمالى لتطبيقات الشات بوت chatbotالتى يتم الوصول إليها عالميا من 3.5 مليار عام 2022 إلى 9.5 مليار بحلول عام 2026.

وقال كبير علماء مايكروسوفت والباحث فى علوم الذكاء الاصطناعى (juan m Lavista Ferres) : إن LaMDAليس واعيا، هو مجرد نموذج لغة كبير جدا مع معلمات 137Bومدرب مسبقا على كلمات 1.56Tمن بيانات الحوار العام ونص الويب، يبدو وكأنه إنسان، لأنه مدرب على البيانات البشرية.

طرح المنتجات دون حماية البيانات الشخصية

تواجه شركة أوبن إيه أى (Open AI) تحقيقات تقودها هيئات حماية البيانات الأوروبية والكندية بسبب طريقتها فى جمع البيانات الشخصية واستخدامها فى بوت الدردشة تشات جى بى تى (Chat GPT)، ما يتطلب فهم فلسفة الاتحاد الأوروبى فى حماية البيانات.

 هل تكرر فضيحة كامبريدج أنالتيكا من جديد؟

قال فيفيوروفسكى مشرف حماية البيانات الأوروبى: إن الأشياء التى يجب أن تعرفها الشركات التكنولوجية، هى ضرورة الوعى بالمنتجات التى يجب أن تكون مزودة بحماية الخصوصية، وإن هذه الميزات يجب أن تكون عناصر أساسية، فى المنتجات منذ بداية التصميم، وأكد أنه ليس من السهل إقناع الشركات اعتماد نماذج مصممة لحماية الخصوصية عندما تكون الشركات مضطرة لطرح المنتجات بسرعة كبيرة. فمازالت قضية كامبريدج أنالتيكا أفضل درس يبين ما يمكن أن يحدث إذا استخفت الشركات بأهمية حماية البيانات؛ إذ عملت الشركة التى تسببت فى واحدة من أكبر الفضائح العلنية التى تعرض لها فيسبوك (Facebook)على جمع المعلومات الشخصية لحسابات عشرة ملايين من الأمريكيين فى محاولة للتأثير فى تصويتهم بالانتخابات، وعند تغيير هدف استخدام البيانات بما يخالف المعلومات التى تعلنها للعموم، فهذا انتهاك للقانون، وعلى سبيل المثال لم تكن عملية جمع البيانات أكبر مخالفة قانونية ارتكبتها كامبريدج أناليتيكا، بل ادعت أنها تجمع البيانات لأغراض واستقصاءات علمية، واستخدمت هذه البيانات بعد ذلك فى أغراض أخرى، وبناء توصيفات سياسية شخصية للمستخدمين بصورة رئيسية.

إيطاليا تحظر "شات جى بى تى":

أمرت هيئة تنظيم الخصوصية الإيطالية بحظر روبوت الدردشة "شات جى بى تي"  (Chat GPT) التابع لشركة "أوبن إيه آى"، متهمة إياها بالقيام "بجمع البيانات بشكل غير قانونى، وعدم وضع ضوابط لاستخدامه من القاصرين."

وأصدرت الهيئة بيانا عبر موقعها الرسمى، قالت فيه إن الشركة تجمع كمية كبيرة من البيانات دون مبرر قانونى، لاستخدامها فى تدريب الخوارزميات الخاصة بالروبوت.وأشار البيان إلى أن الشركة لا توفر آلية للتحقق من أعمار المستخدمين، لضمان عدم دخول القاصرين، ما يعرضهم فى كثير من الأحيان لإجابات لا تتوافق مع أعمارهم ودرجة تطور فهمهم.وأوضح البيان أن التسريب الذى حدث لبيانات "شات جى بى تي" كشف عن بيانات عدد كبير من المستخدمين.

وسبق أن دعا إيلون ماسك ومجموعة من خبراء الذكاء الاصطناعى والمديرين التنفيذيين فى الصناعة إلى التوقف 6 أشهر عن تطوير أنظمة التدريب لنموذج "جى بى تي-4" (GPT-4)الذى أطلق حديثا من "أوبن إيه آى"، كما أشاروا - فى خطاب مفتوح- إلى المخاطر المحتملة على المجتمع والإنسانية.

"شات جى بى تى" خطر على الأمن المعلوماتى:

قد ينطوى هذا التطبيق على العديد من المخاطر المحتملة وخاصة على صعيد القرارات الحكومية، لا سيما القرارات العسكرية والأمنية فى مؤسسات الدفاع والشرطة، كما تكمن خطورته على الأمن القومى فى إمكانية نشره معلومات مضللة؛ حيث طُلِب من التطبيق إعداد دراسة عن لقاحات كورونا بأسلوب "التضليل الإعلامى"، وبالفعل أُنتِجَت دراسة مُضلِلة كاملة بإحصاءات ومراجع مختلفة، وهذا الأمر من شأنه أن يسهم فى احتمالية نشر الشائعات والأخبار الكاذبة.

وذكر التحليل أن استخدام تطبيق (Chat GPT) وروبوتات الذكاء الاصطناعى قد يتضمن أيضا استخدامه لخوارزميات الذكاء الاصطناعى كوسيلة للاستقطاب الفكر أو تنظيم أو أيديولوجية معينة قد تتسم بالعنف أو العنصرية؛ إذ يمكن تغذية وبرمجة وتطوير هذا "العقل الآلى" بمعلومات وأفكار متطرفة فى حال سيطر على التطبيق عقلية متطرفة أو عنصرية.

خلل فنى يتسبب فى تسريب محادثات المستخدمين:

قال المدير التنفيذى لشركة Open AIالمصنعة لروبوت الدردشة، "شات جى بى تي": إن خللا فنيا فى الروبوت الذى يعمل بالذكاء الاصطناعى، سمح لبعض المستخدمين برؤية عناوين محادثات مستخدمين آخرين.

ويأتى ذلك بعد أن شارك مستخدمون على موقعى التواصل الاجتماعى، ريديت وتويتر، صورا لسجلات الدردشة التى قالوا إنها لا تتعلق بهم.

وأدلى سام التمان، الرئيس التنفيذى لشركة "أوبن إيه آى"، الشركة المصنعة لروبوت الدردشة "تشات جى بى تي"، بإفادته أمام لجنة فى مجلس الشيوخ الأمريكى حول الاحتمالات والمخاطر الخاصة بالتكنولوجيا الجديدة. وقال ألتمان إنه يجب إنشاء هيئة جديدة لإصدار تراخيص شركات الذكاء الاصطناعى.

وأبلغت شركة تشات جى بى تى، وكالة "بلومبرج" بأنها عطلت برنامج الدردشة الآلى لفترة وجيزة فى وقت متأخر من يوم الاثنين لإصلاح الخلل.

وقال القائمون على الشركة أيضا: إن المستخدمين لم يتمكنوا من الوصول إلى ملفات الدردشة ذاتها. كما غرد الرئيس التنفيذى لشركة "أوبن إيه آى"، قائلا إنه سيكون هناك "تشريح فنى" فى أقرب وقت، إلا أن هذا الخلل أثار قلق المستخدمين الذين يخشون من أن يتم الكشف عن معلوماتهم الخاصة من خلال سجل الدردشة.

ويبدو أن الخلل الفنى يشير إلى أن شركة "أوبن إيه آى" لديها الحق فى الوصول إلى محادثات المستخدم. وتنص سياسة خصوصية الشركة على أنه يمكن استخدام بيانات المستخدم التى تتمثل فى المطالبات والإجابات، لمواصلة تدريب نموذج روبوت الدردشة "تشات جى بى تى"، ولكن لا تستخدم هذه البيانات، إلا بعد إزالة معلومات التعريف الشخصية.

وتتنافس شركتا جوجل وميكروسوفت، المستثمران الرئيسيان فى شركة "أوبن إيه آى"، للسيطرة على السوق المزدهرة لأدوات الذكاء الاصطناعى. لكن وتيرة تحديثات وإصدارات المنتجات الجديدة، تثير مخاوف عدة بشأن اتخاذ خطوات خاطئة، قد تكون ضارة أو تكون لها عواقب غير مقصودة.

واشنطن بوست تحقق فى "سى فور":

شرعت صحيفة واشنطن بوست فى تحليل إحدى مجموعات البيانات هذه للكشف بشكل كامل عن أنواع مواقع الويب الاحتكارية والشخصية التى غالبا ما تكون مسيئة التى تدخل فى بيانات تدريب الذكاء الاصطناعى.

وللنظر داخل الصندوق الأسود، قامت الصحيفة بتحليل مجموعة بياناتGoogle C4 ، وهى لقطة ضخمة لمحتويات 15 مليون موقع استخدم لتوجيه بعض أنظمة الذكاء الاصطناعى العالية المستوى باللغة الإنجليزية، التى تسمى نماذج اللغة الكبيرة، بما فى ذلكT5 منGoogle وLLaMA منFacebook .

تصنيف المواقع فى مجموعة البيانات:

صنف القائمون على التحقيق مواقع الويب التى يستقى "تشات جى بى تى" منها المعلومات والبيانات إلى عدة تصنيفات رئيسية، لكنهم لم يتمكنوا من تصنيف نحو ثلث المواقع؛ لأن معظمها لم يظهر على الإنترنت، واعتمد التصنيف إلى ظهور 11 فئة رئيسية تندرج تحتها المواقع المستخدمة فى مجموعة البيانات: المواقع التجارية الصناعية، والأخبار ووسائل الإعلام، والتكنولوجيا، والفنون والترفيه، والصحة، والهوايات، والتسلية، والوظائف والتعليم، والمنازل والحدائق والسفر، والمجتمع، والقانون والحكومة.

بشكل عام هيمنت المواقع المتعلقة بمجالات، مثل: الصحافة والترفيه، وتطوير البرمجيات، والطب وإنشاء المحتوى على مجموعة البيانات، ويرى المحررون أنه يفسر سبب تهديد الموجة الجديدة من الذكاء الاصطناعى لهذه المجالات تحديدا، وكانت الثلاثة الأكثر استخداما بالترتيب هى:

1- موقع جوجل بايتنتس (pateents.google.com) الذى يضم نصوصا من براءات الاختراع الصادرة حول العالم.

2- موقع الموسوعة المجانية الشهير ويكيبيديا (Wikipedia.org).

3- موقع سكريبد (Scribd.com) وهو خدمة اشتراك فى الكتب الإلكترونية والكتب الصوتية.

وختاما، فعلى الرغم من الفوائد التى تجلبها التطبيقات الرقمية، فإنها تنطوى على تهديدات وأخطار متنوعة، فالعديد من المواقع والتطبيقات على شبكة الإنترنت، أصبحت تمثل خطرا محتدما، خاصة ما يرتبط بالروبوتات، والتلاعب بالخوارزميات، وتطبيقات الذكاء الاصطناعى، ما يستلزم رفع درجة الوعى بالمخاطر المتوقعة للاستخدامات الخاطئة لتقنيات وتطبيقات الذكاء الاصطناعى.

المراجع:

زياد عبد التواب، مستقبل تطور الذكاء الاصطناعى Chat GPTنموذجا، مجلة الديمقراطية، العدد 90 إبريل 2023.

الذكاء الاصطناعى: رئيس شركة "تشات جى بى تى" يقر بمخاطر هذه الصناعة ويطالب واشنطن تنظيمها، موقع بى بى سى عربى، متاح على : https://www.bbc.com/arabic/science-and-tech-65616131

الذكاء الاصطناعى: خلل فنى فى روبوت الدردشة "تشات جى بى تي" يتسبب فى تسريب محادثات المستخدمين، موقع بى بى سى عربى متاح على:https://www.bbc.com/arabic/science-and-tech-65054166

على فرجانى، اقتصاد الانتباه فى الفضاء السيبرانى، موقع السياسة الدولية. متاح على:

 http://www.siyassa.org.eg/News/18458.aspx

على فرجانى، الروبوتات: الأيدى الخفية فى الفضاء السيبرانى، موقع السياسة الدولية. متاح على :

http://www.siyassa.org.eg/News/18310.aspx

 

بسبب جمع البيانات ولحماية القاصرين.. إيطاليا تحظر "شات جى بى تي"متاح على:

https://1-a1072.azureedge.net/news/2023/4/1/%D8%A8%D8%B3%D8%A8%D8%A8-%D8%AC%D9%85%D8%B9-%D8%A7%D9%84%D8%A8%D9%8A%D8%A7%D9%86%D8%A7%D8%AA-%D9%88%D9%84%D8%AD%D9%85%D8%A7%D9%8A%D8%A9-%D8%A7%D9%84%D9%82%D8%A7%D8%B5%D8%B1%D9%8A%D9%86

ميليسا هيكيلا نسخة فضيحة كامبريدح أناليتكيا فى الذكاء الاصطناعى، مجلة إم تى تكنولوجى ريفيو، 17 مايو 2023. متاح على:

https://technologyreview.ae

عمرو عوض، تحقيق يكشف أهم المواقع التى يستقى منها "تشات جى بى تى" أجوبته، إم آي تى تكنولوجى ريفيو، 10 مايو 2023.متاح على:

https://technologyreview.ae

طباعة

    تعريف الكاتب

    علي فرجاني

    علي فرجاني

    باحث في صحافة الذكاء الاصطناعي والفضاء السيبراني