مع ظهور "ChatGPT" بدا الأمر مبهر للغاية، كيف يمكن لبرنامج إلكتروني أن يبدو بشريا إلى هذا الحد، ولكن مع مرور قليل من الوقت خرجت تساؤلات قلقة بشأن الاستخدامات السيئة لمثل هذا النوع من التكنولوجيا؟.
أخبر ChatGPT بالعناصر الغذائية الموجودة في مطبخك، وتلقى إجابة فورية بوصفة لذيذة من أجل وجبتك التالية، هذا هو الوضع أيضا إذا أردت أن تخطط لنشر الشائعات أو توجيه الرأي العام، فقط أرسل معطياتك وانتظر النتائج.
تستند "شات جي بي تي" إلى تقنية معالجة لغة متقدمة، طورتها شركة OpenAI، إذ جرى تدريب الذكاء الاصطناعي باستخدام قواعد البيانات النصية من الإنترنت، بما في ذلك الكتب والمجلات وإدخالات ويكيبيديا، وجرى بالفعل إدخال 300 مليار كلمة في النظام.
والنتيجة النهائية هي روبوت محادثة يمكن أن يبدو بشريًا بشكل مخيف، علاوة على ذلك لديه بمعرفة موسوعية.
بحسب تقرير نشره موقع "بي بي سي"، يحذر الأكاديميون والباحثون في مجال الأمن السيبراني وخبراء الذكاء الاصطناعي من أنه يمكن استخدام "ChatGPT" من قبل جهات فاعلة سيئة لزرع المعارضة ونشر الدعاية على وسائل التواصل الاجتماعي.
تجربة الانتخابات الأمريكية
وفقا لدراسة نشرتها جامعة جورج تاون ومرصد ستانفورد للإنترنت و"أوبن إيه آي"، حتى الآن يتطلب نشر المعلومات الخاطئة عملاً بشريًا كبيرًا، لكن الذكاء الاصطناعي مثل "شات جي بي تي" سيجعل من السهل جدًا على جيوش المتصيدين توسيع نطاق أعمالهم.
يمكن أن تؤثر أنظمة معالجة اللغة المتطورة مثل ChatGPT في عمليات التأثير على وسائل التواصل الاجتماعي.
وتسعى مثل هذه الحملات إلى صرف الانتباه عن النقد وإلقاء نظرة إيجابية على حزب حكومي أو سياسي ما، ويمكنها أيضًا الدفاع عن السياسات أو ضدها، باستخدام حسابات مزيفة، يقومون أيضًا بنشر معلومات مضللة على وسائل التواصل الاجتماعي.
وذكرت الدراسة أن إحدى هذه الحملات أُطلقت بالفعل في الفترة التي سبقت الانتخابات الأمريكية عام 2016.
اختتمت لجنة الاستخبارات بمجلس الشيوخ في عام 2019 الآلاف من حسابات فيسبوك وتويتر وإنستجرام ويوتيوب، التي أنشأتها وكالة أبحاث الإنترنت ومقرها سانت بطرسبرغ والتي ركزت على الإضرار بحملة هيلاري كلينتون ودعم دونالد ترامب.
الأزمة قد تتفاقم اليوم، إذ أن الانتخابات المستقبلية قد تضطر إلى التعامل مع طوفان كبير من المعلومات المضللة.
أوبرا تضمّن مزايا ChatGPT داخل متصفحها#اليوم pic.twitter.com/gZXbfBpQul— صحيفة اليوم (@alyaum) February 14, 2023
تأثير واسع وفعّال
ذكر تقرير منظمة العفو الدولية الذي صدر في يناير: "إن إمكانات النماذج اللغوية لمنافسة المحتوى المكتوب بشريًا بتكلفة منخفضة تشير إلى أنها توفر مزايا كبيرة لمروجي الدعاية".
وحذر التقرير من أن هذه المزايا يمكن أن توسع الوصول إلى عدد أكبر من الجهات الفاعلة، ومع قدرة كبيرة على التأثير، وتجعل رسائل الحملة أكثر تفصيلاً وفعالية.
وقال جوش جولدشتاين، المؤلف المشارك للورقة البحثية وزميل الأبحاث في مركز جورج تاون للأمن والتكنولوجيا الناشئة، بحسب تقرير "بي بي سي"، إن أنظمة الذكاء الاصطناعي يمكنها تحسين جودة المحتوى وتجعل من الصعب على مستخدمي الإنترنت العاديين التعرف عليها كجزء من حملات التضليل المنسقة.
وأضاف: "يمكن أن تنتج نماذج اللغة المصنعة قدرًا كبيرًا من المحتوى الأصلي في كل مرة.. وتسمح لكل دعاية بعدم الاعتماد على نسخ ولصق نفس النص عبر حسابات وسائل التواصل الاجتماعي أو المواقع الإخبارية".
ومضى غولدشتاين قائلا: "إذا أغرقت حسابات الذكاء الاصطناعي المنصة بمعلومات أو دعاية غير صحيحة، فستجعل من الصعب على الجمهور تمييز ما هو صحيح".
هل سيسرق "Chat GPT" وظائف البشر؟ #اليوم pic.twitter.com/JcI6gaJ5wS— صحيفة اليوم (@alyaum) February 3, 2023
مقالات مزيفة
يؤكد فنسنت كونيتسر، أستاذ علوم الكمبيوتر في جامعة كارنيجي ميلون أن برنامج مثل ChatGPT يمكنه أن يوسع انتشار الحسابات المزيفة على مستوى غير مسبوق، وقد يصبح من الصعب تمييز كل من هذه الحسابات عن الحسابات البشرية.
وحذرت كل من الورقة البحثية في يناير 2023 التي شارك في تأليفها غولدشتاين وتقرير مماثل من شركة الأمن WithSecure Intelligence، من قدرة نماذج اللغة المصنعة على إنشاء مقالات إخبارية مزيفة بسرعة وكفاءة يمكن نشرها عبر وسائل التواصل الاجتماعي، مما يزيد الشائعات والأخبار المضللة.