الذكاء الاصطناعي التوليدي ضد الإنسانية: التطبيقات الخبيثة للذكاء الاصطناعي التوليدي ونماذج اللغة الكبيرة GenAI against humanity: nefarious applications of generative artificial intelligence and large language models

المجلة: Journal of Computational Social Science، المجلد: 7، العدد: 1
DOI: https://doi.org/10.1007/s42001-024-00250-1
تاريخ النشر: 2024-02-22

الذكاء الاصطناعي التوليدي ضد الإنسانية: التطبيقات الخبيثة للذكاء الاصطناعي التوليدي ونماذج اللغة الكبيرة

إميليو فيرارا (د)تاريخ الاستلام: 10 نوفمبر 2023 / تاريخ القبول: 21 يناير 2024 / تاريخ النشر على الإنترنت: 22 فبراير 2024 © المؤلفون 2024

الملخص

الذكاء الاصطناعي التوليدي (GenAI) ونماذج اللغة الكبيرة (LLMs) هي معجزات تكنولوجية؛ مشهورة بقدرتها على معالجة اللغة الطبيعية وتوليد المحتوى متعدد الوسائط، تعد بمستقبل تحويلي. ولكن كما هو الحال مع جميع الأدوات القوية، تأتي مع ظلالها. تخيل العيش في عالم حيث يصعب تمييز التزييف العميق عن الواقع، حيث تنظم الهويات الاصطناعية حملات خبيثة، وحيث يتم صياغة المعلومات المضللة أو الاحتيالات المستهدفة بدقة لا مثيل لها. مرحبًا بك في الجانب المظلم من تطبيقات GenAI. هذه المقالة ليست مجرد رحلة عبر متاهات الاستخدامات المحتملة الخاطئة لـ GenAI وLLMs، ولكنها أيضًا دعوة للاعتراف بمدى إلحاح التحديات المقبلة. بينما نتنقل في بحار حملات المعلومات المضللة، وتوليد المحتوى الخبيث، والخلق الغريب للبرمجيات الضارة المتطورة، سنكشف عن الآثار الاجتماعية التي تتردد عبر ثورة GenAI التي نشهدها. من الشبكات الآلية المدعومة بالذكاء الاصطناعي على منصات التواصل الاجتماعي إلى الإمكانيات المقلقة للذكاء الاصطناعي في توليد هويات مزيفة، أو أعذار مصنوعة من واقع اصطناعي، لم تكن المخاطر يومًا أعلى من ذلك. تتلاشى الحدود بين العوالم الافتراضية والواقعية، وتؤثر عواقب التطبيقات الخبيثة المحتملة لـ GenAI علينا جميعًا. هذه المقالة تعمل كملخص للبحث الدقيق المقدم حول مخاطر GenAI وسوء استخدام LLMs وكإلهام لرؤية مثيرة للتفكير حول الأنواع المختلفة من تطبيقات GenAI الضارة التي قد نواجهها في المستقبل القريب، وبعض الطرق التي يمكننا الاستعداد لها.

الكلمات الرئيسية: الذكاء الاصطناعي • الذكاء الاصطناعي التوليدي • نماذج اللغة الكبيرة • المخاطر • وسائل التواصل الاجتماعي

المقدمة

في مارس 2019، تم خداع الرئيس التنفيذي لشركة طاقة مقرها المملكة المتحدة، من قبل . الجاني؟ ليس محتالًا متمرسًا، بل صوت اصطناعي تم إنشاؤه بواسطة الذكاء الاصطناعي يتظاهر بشكل مقنع بصوت الرئيس التنفيذي للشركة الأم الألمانية، مما أدى إلى خطوة خاطئة مكلفة (انظر الجدول 1A). هذه الحادثة، على الرغم من كونها مدهشة، هي مجرد قمة الجليد عندما يتعلق الأمر بالتطبيقات الخبيثة المحتملة للذكاء الاصطناعي التوليدي (GenAI) ونماذج اللغة الكبيرة (LLMs).
يحول GenAI وLLMs مشهد معالجة اللغة الطبيعية، وتوليد المحتوى، والفهم. يبدو أن إمكانياتهم لا حدود لها، واعدة بابتكارات قد تعيد تعريف الطريقة التي يتفاعل بها البشر والآلات مع بعضهم البعض أو يتعاونون للعمل معًا [10،26]. ومع ذلك، فإن التحديات التي تهدد نسيج الأمن السيبراني والأخلاقيات والهياكل الاجتماعية لدينا تكمن في ظلال هذه التقدمات [15].
تتجه هذه الورقة إلى الأزقة المظلمة لـ GenAI، مع التركيز على LLMs. من دورها المحتمل في توسيع نطاق حملات المعلومات المضللة، إلى إنشاء احتيالات مستهدفة أو أعذار مصممة خصيصًا، فإن المخاطر عميقة [5]. من الاستمرار الدقيق للتحيزات إلى تعزيز الصور النمطية بشكل صارخ [2، 6، 21]، يمكن أن تصبح GenAI مرايا تعكس وتضخم عيوب مجتمعنا. .
تخيل عالمًا حيث تهيمن الشبكات الآلية المدعومة بالذكاء الاصطناعي على وسائل التواصل الاجتماعي [7، 29]، حيث يتم إنتاج محتوى ضار أو متطرف بواسطة الخوارزميات [23]، وحيث تتلاشى الحدود بين الواقع والمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي [3]. عالم حيث يمكن استخدام نفس التكنولوجيا لاستعادة قطع فنية مفقودة أو وثائق قديمة [4]، ويمكن أيضًا استخدامها لتزوير الأدلة، وصياغة الأعذار، وتصميم “الجريمة المثالية” (انظر الجدول 1B). العديد من هذه السيناريوهات التي كنا سننسبها حتى وقت قريب إلى الخيال العلمي المستقبلي قد تم تمكينها بالفعل بواسطة GenAI وLLMs.
بينما نتنقل في تعقيدات هذه القضايا، تسلط هذه الورقة الضوء على إلحاح استراتيجيات التخفيف القوية، والإرشادات الأخلاقية، والمراقبة المستمرة لأنظمة GenAI وLLM [9، 14]. لا تهدف هذه الاستكشافات فقط إلى تلخيص الأبحاث الدقيقة حول إساءة استخدام GenAI، ولكن أيضًا لإشعال نقاش حول الطبيعة المزدوجة لهذه التقنيات.

تعريف وآليات الذكاء الاصطناعي التوليدي وLLMs

يشير الذكاء الاصطناعي التوليدي إلى أنظمة الذكاء الاصطناعي التي يمكنها توليد محتوى جديد، بما في ذلك النصوص والصور والصوت، بناءً على البيانات الموجودة [3]. على عكس الذكاء الاصطناعي التقليدي، الذي يركز على التعرف على الأنماط أو إجراء التنبؤات، يقوم GenAI بنشاط بإنشاء مخرجات جديدة. يتضمن ذلك خوارزميات ونماذج معقدة تتعلم من مجموعات بيانات كبيرة، وتتعرف على الهياكل الأساسية، وتقلدها بطرق فريدة [4]. تتعامل نماذج اللغة الكبيرة (LLMs)، وهي مجموعة فرعية من أنظمة GenAI، بشكل خاص مع البيانات النصية [10]. يتم تدريبها على مجموعات نصية واسعة، وتتعلم أنماط اللغة، والنحو، والسياق. LLMs مثل GPT (المحول المدرب مسبقًا التوليدي) قادرة على إنتاج نصوص متماسكة وذات صلة بالسياق، تشبه الكتابة البشرية. آلياتها
تشمل فهم استفسارات الإدخال، والوصول إلى بيانات التدريب الواسعة الخاصة بها، وتوليد استجابات نصية مناسبة، والتي يمكن أن تتراوح من الإجابة على الأسئلة إلى إنشاء المحتوى.

التقدم التكنولوجي والديمقراطية

تمثل ديمقراطية الذكاء الاصطناعي التوليدي تغييرًا محوريًا في تكنولوجيا الذكاء الاصطناعي. شهدت فترة أوائل العقد 2020 تقدمًا كبيرًا في القدرات التقنية لـ GenAI، تميزت بتحسينات في خوارزميات التعلم الآلي، وخاصة في الشبكات العصبية. أدت هذه التقدمات إلى إنشاء نماذج أكثر تعقيدًا وكفاءة قادرة على فهم وتوليد أنماط بيانات معقدة.
في الوقت نفسه، كان هناك انخفاض ملحوظ في تكلفة تطوير ونشر أنظمة GenAI. كان ذلك بسبب انخفاض أسعار قوة الحوسبة وزيادة توفر الأدوات والمنصات مفتوحة المصدر، مما جعل GenAI متاحًا لمجموعة واسعة من المستخدمين والمطورين. علاوة على ذلك، جعل انتشار واجهات المستخدم السهلة والخدمات السحابية تقنيات GenAI أكثر وصولًا لغير المتخصصين. لقد حفز هذا الوصول الأوسع موجة من الابتكار والإبداع عبر مختلف القطاعات، مما سمح للأفراد والمنظمات الصغيرة بالاستفادة من GenAI لمجموعة متنوعة من التطبيقات، وبالتالي ديمقراطية مجال الذكاء الاصطناعي.
معًا، تميزت هذه العوامل المشهد الحالي لـ GenAI عن الأجيال السابقة من تقنيات الذكاء الاصطناعي، سواء من حيث التعقيد التكنولوجي أو التأثير الاجتماعي.

المشهد التنظيمي

انخرطت الاتحاد الأوروبي (EU) والصين بنشاط في مناقشات لتنظيم الذكاء الاصطناعي التوليدي (GenAI). في الاتحاد الأوروبي، كان التركيز على إنشاء أطر تضمن الاستخدام الأخلاقي للذكاء الاصطناعي، مع التركيز على خصوصية البيانات، والشفافية، والمساءلة. تهدف اللوائح المقترحة إلى تصنيف أنظمة الذكاء الاصطناعي وفقًا لمستويات المخاطر الخاصة بها وتطبيق تدابير الإشراف المناسبة. من ناحية أخرى، ركزت الصين على استغلال إمكانيات GenAI مع حماية الأمن الوطني والاستقرار الاجتماعي. تشمل النهج الصيني تدابير صارمة للتحكم في البيانات وإرشادات لمنع إساءة استخدام تقنيات الذكاء الاصطناعي، خاصة في مجالات مثل المراقبة والرقابة.
تعكس هذه النهج المتباينة التعقيدات والأولويات المتنوعة في حوكمة GenAI، مما يوضح التحديات في إنشاء إطار تنظيمي مقبول عالميًا. من المحتمل أن تؤثر السياسات في هذه المناطق على المعايير والممارسات العالمية في مجال GenAI [14].

فهم إساءة استخدام GenAI: تصنيف

يوفر الشكل 1 نظرة عامة على المخاطر المحتملة المرتبطة بإساءة استخدام نماذج الذكاء الاصطناعي التوليدي من خلال رسم تقاطع بين نوع الضرر الذي يمكن أن يُلحق والنوايا الأساسية للجهات الفاعلة الخبيثة.
تشمل أنواع الأذى التهديدات لهوية الفرد الشخصية، مثل سرقة الهوية، انتهاكات الخصوصية، أو التشهير الشخصي، والتي نسميها “الأذى للشخص.” ثم لدينا إمكانية الخسارة المالية، الاحتيال، التلاعب في السوق، وأشكال أخرى من الأذى الاقتصادي، والتي تقع تحت “الأضرار المالية والاقتصادية.” يتم تصنيف تشويه نظام المعلومات، بما في ذلك انتشار المعلومات المضللة، الأخبار المزيفة، وأشكال أخرى من المحتوى الخادع [28]، كـ”التلاعب بالمعلومات.” وأخيرًا، الأضرار الأوسع التي يمكن أن تؤثر على المجتمعات، الهياكل الاجتماعية، والبنى التحتية الحيوية، بما في ذلك التهديدات للعمليات الديمقراطية، التماسك الاجتماعي، والأنظمة التكنولوجية، يتم تضمينها تحت “الأضرار الاجتماعية، الاجتماعية التقنية، والبنية التحتية.”
من ناحية أخرى من المصفوفة، لدينا الأهداف (أي النية) للجهات الفاعلة الخبيثة. “الخداع” ينطوي على تضليل الأفراد أو الكيانات لأغراض مختلفة، مثل الاحتيال، انتحال الشخصية، أو أنشطة احتيالية أخرى [16]. “الدعاية” هي النية للترويج لأجندة سياسية، أيديولوجية، أو تجارية معينة، غالبًا من خلال تشويه الحقائق أو التلاعب بالعواطف. و”عدم الأمانة” تغطي مجموعة من الأنشطة حيث يتم إخفاء الحقيقة أو تشويهها لتحقيق مكاسب شخصية، ميزة تنافسية، أو دوافع أخرى خفية. بطبيعة الحال، لا تشمل هذه البعد الأهداف أو الدوافع وراء جميع أنواع إساءة استخدام GenAI المحتملة، لكنها تعمل كدليل لتأطير التطبيقات الخبيثة فيما يتعلق بنية الأذى.
في هذه المصفوفة، يمثل كل خلية تركيبة فريدة من الأذى والنية الخبيثة، موضحة الأشكال المتعددة من الإساءة الممكنة مع الذكاء الاصطناعي التوليدي. على سبيل المثال، قد يتم العثور على انتحال الهوية الذي تم إنشاؤه بواسطة الذكاء الاصطناعي لسرقة الهوية عند تقاطع “الأذى للشخص” و”الخداع.” وبالمثل، يمكن تمثيل حملات الأخبار المزيفة المدفوعة بالذكاء الاصطناعي للتأثير على الرأي العام عند تقاطع “التلاعب بالمعلومات” و”الدعاية.”
الشكل 1 رسم خريطة التطبيقات الخبيثة للذكاء الاصطناعي التوليدي ونماذج اللغة الكبيرة
الجدول 1 مقالات إخبارية حول تطبيقات GenAI وLLM الخبيثة
مرجع. عنوان الخبر وسيلة الإعلام الرابط
أ استخدم المحتالون الذكاء الاصطناعي لتقليد صوت الرئيس التنفيذي في حالة جريمة إلكترونية غير عادية وول ستريت جورنال https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402
ب يخلق الناس سجلات لأحداث تاريخية مزيفة باستخدام الذكاء الاصطناعي فايس https://www.vice.com/en/article/k7zqdw/people-are-creating-recor ds-of-fake-historical-events-using-ai
ج ‘لا أريد أن أزعج الناس’: مبتكر فيديوهات توم كروز العميقة يتحدث ذا غارديان https://www.theguardian.com/technology/2021/mar/05/how-started-tom-cruise-deepfake-tiktok-videos
د هل تبدو هذه الشخصيات المزيفة التي أنشأها الذكاء الاصطناعي حقيقية بالنسبة لك؟ نيويورك تايمز https://www.nytimes.com/interactive/2020/11/21/science/artificial-intelligence-fake-people-faces.html
هـ الذكاء الاصطناعي التوليدي: نعمة أم لعنة للأمن السيبراني؟ إن ويب 3 https://www.inweb3.com/generative-ai-a-blessing-or-a-curse-forcybersecurity/
و تهديدات الذكاء الاصطناعي في العالم الحقيقي في الأمن السيبراني ليست خيال علمي فينتشر بيت https://venturebeat.com/ai/real-world-ai-threats-in-cybersecurity-arent-science-fiction/
ز الذكاء الاصطناعي يعزز مكالمات الاحتيال وغيرها من الخدع ماركت بليس https://www.marketplace.org/2023/07/14/ai-amplifies-scam-calls-and-other-deceptions/
ح يستخدم المحتالون الذكاء الاصطناعي لتقليد أصوات الأحباء في محنة سي بي إس نيوز https://www.cbsnews.com/news/scammers-ai-mimic-voices-loved-ones-in-distress
ط مزيف أم حقيقة؟ المستقبل المقلق للواقع الذي أنشأه الذكاء الاصطناعي فوربس https://www.forbes.com/sites/bernardmarr/2023/07/27/fake-or-fact-the-disturbing-future-of-ai-generated-realities
ي يُثير الباحثون في المعلومات المضللة القلق بشأن روبوتات الدردشة الذكية نيويورك تايمز https://www.nytimes.com/2023/02/08/technology/ai-chatbots-disin formation.html
ك يُنتج GPT-4 معلومات مضللة بشكل أكثر تكرارًا، وبشكل أكثر إقناعًا، من سلفه نيوز غارد https://www.newsguardtech.com/misinformation-monitor/march2023/
ل عصر مراقبة الذكاء الاصطناعي هنا كواتز https://qz.com/1060606/the-age-of-ai-surveillance-is-here
م أكبر تهديد للصور العميقة ليس الصور العميقة نفسها مراجعة تكنولوجيا MIT https://www.technologyreview.com/2019/10/10/132667/the-bigge st-threat-of-deepfakes-isnt-the-deepfakes-themselves/
ن تم تحذير جامعي الفطر من تجنب كتب البحث عن الفطر على أمازون التي تبدو مكتوبة بواسطة الذكاء الاصطناعي ذا غارديان https://www.theguardian.com/technology/2023/sep/01/mushroom-pickers-urged-to-avoid-foraging-books-on-amazon-that-appear-to-be-written-by-ai
الجدول 2 يلخص أمثلة إثبات المفهوم للسيناريوهات التي يمكن فيها إساءة استخدام GenAI وLLMs عمدًا لأغراض غير أمينة، دعائية، أو خادعة. من خلال فهم هذا الإطار، يمكن لأصحاب المصلحة توقع التهديدات المحتملة بشكل أفضل ووضع استراتيجيات تخفيف محددة لحماية ضد الاستخدام الخبيث للذكاء الاصطناعي التوليدي.

لمحة عن أيام المستقبل الماضي

تخيل للحظة أنك توم كروز، وفي يوم مثل أي يوم آخر (في عام 2021) تتصفح تغذيتك على وسائل التواصل الاجتماعي فقط لرؤية مقاطع فيديو لنفسك تلعب الجولف وتتعثر في منزلك (انظر الجدول 1ج). ما ستكون ردة فعلك إذا لم تسجل وتشارك تلك الفيديوهات بالفعل؟ الاستخدام الخبيث للتقدم التكنولوجي بالكاد هو خبر: كل تقنية جديدة قوية تأتي مع إساءة الاستخدام. مشكلة اللقطات المعدلة أو الصور المعدلة ليست جديدة، لكن تقنيات GenAI وdeepfake قد جلبت ثروة من التحديات الجديدة [22].
تتيح القدرة على إنشاء deepfakes، وتوفير نفي معقول، ونشر رسائل تحتية أو محتوى خادع، أن تكون GenAI أداة قوية في أيدي الجهات الفاعلة الخبيثة. دعونا نفكك بعضًا من أكثر التطبيقات الخبيثة لTechnologies GenAI بروزًا. الشكل 2 يوفر خريطة لمثل هذه التطبيقات المعقولة والمعروفة. في الجدول 3، قمنا بتلخيص عدة أمثلة لإثبات المفهوم للسيناريوهات التي يمكن فيها إساءة استخدام GenAI وLLMs لإلحاق الأذى الشخصي والمالي بالناس، وتشويه نظام المعلومات، والتلاعب بالأنظمة الاجتماعية التقنية والبنى التحتية.

صعود deepfakes

يمكن لـ GenAI إنتاج صور لأشخاص تبدو حقيقية جدًا، كما لو كانت يمكن رؤيتها على منصات مثل فيسبوك، تويتر، أو تيندر. على الرغم من أن هؤلاء الأفراد لا وجود لهم في الواقع، إلا أن هذه الهويات الاصطناعية تُستخدم بالفعل في أنشطة خبيثة (انظر الجدول 1د).

وجوه تم إنشاؤها بواسطة الذكاء الاصطناعي

هناك شركات تقدم “أشخاص مزيفين” للبيع. على سبيل المثال، على موقع Generated.Photos، يمكن للمرء شراء “شخص مزيف فريد، خالٍ من القلق” مقابل أو حتى 1000 شخص مقابل . إذا كان شخص ما يحتاج إلى عدد قليل من الأفراد المزيفين، ربما من أجل لعبة فيديو أو لتنويع موقع شركة، يمكنه الحصول على صورهم مجانًا من ThisPersonDoesNotExist.com. هناك حتى شركة تُدعى Rosebud. AI التي يمكنها تحريك هذه الشخصيات المزيفة وجعلها تتحدث (الهدف المعلن هو للألعاب والفن، لكن يمكن إساءة استخدام التكنولوجيا بسهولة).
الجدول 2 أمثلة على النشر الخبيث المتعمد لـ LLMs وGenAI في العالم الحقيقي
الهدف التطبيق المثال إثبات المفهوم
عدم الأمانة كتابة مقالات آلية وعدم الأمانة الأكاديمية يمكن للطلاب استخدام LLMs لتوليد مقالات، أوراق بحثية، أو واجبات، متجاوزين عملية التعلم وتقويض النزاهة الأكاديمية إدخال موجه مثل “اكتب مقالة من 2000 كلمة عن تأثير الثورة الصناعية على المجتمع الأوروبي” في LLM والحصول على مقالة مفصلة ومنظمة جيدًا في المقابل
توليد أوراق بحثية مزيفة يمكن استخدام LLMs لإنتاج أوراق بحثية مزيفة ببيانات، نتائج، ومراجع مزيفة، مما قد يلوث قواعد البيانات الأكاديمية أو يضلل الباحثين تغذية LLM بموجه مثل “توليد ورقة بحثية عن تأثير دواء يسمى ‘Zyphorin’ على مرض الزهايمر” والحصول على ورقة تبدو شرعية
الدعاية انتحال شخصيات المشاهير أو الشخصيات العامة يمكن لـ LLMs توليد بيانات، تغريدات، أو رسائل تحاكي أسلوب المشاهير أو الشخصيات العامة، مما يؤدي إلى معلومات مضللة أو تشهير إدخال “إنشاء تغريدة بأسلوب [اسم المشاهير] تناقش تغير المناخ” والحصول على تغريدة مزيفة تبدو حقيقية
توليد دعاية آلية يمكن للحكومات أو المنظمات استخدام نماذج اللغة الكبيرة لإنتاج مواد دعاية على نطاق واسع، تستهدف فئات سكانية أو مناطق مختلفة برسائل مخصصة إدخال “إنشاء مقال دعاية يروج لفوائد سياسة حكومية خيالية ‘مبادرة المستقبل الأخضر’” والحصول على مقال مفصل
إنشاء مستندات أو نصوص تاريخية مزيفة يمكن استخدام نماذج اللغة الكبيرة لتزوير مستندات تاريخية، أو رسائل، أو نصوص، مما قد يضلل المؤرخين أو يغير من تصور الجمهور للأحداث تحفيز نموذج لغة كبير بـ “إنشاء رسالة من نابليون بونابرت إلى جوزفين يناقش استراتيجياته لمعركة واترلو” لإنتاج مستند تاريخي مزيف
الجدول 2 (مستمر)
الهدف التطبيق مثال إثبات المفهوم
الخداع توليد مراجعات منتجات مزيفة يمكن للشركات استخدام نماذج اللغة الكبيرة لتوليد مراجعات إيجابية لمنتجاتها أو مراجعات سلبية للمنافسين، مما يضلل المستهلكين إدخال “إنشاء 10 مراجعات إيجابية لعلامة تجارية خيالية للهواتف الذكية ‘نكسافون’” والحصول على مراجعات مستخدم تبدو حقيقية
توليد قصص شخصية أو شهادات واقعية ولكن مزيفة يمكن استخدام نماذج اللغة الكبيرة لصياغة قصص شخصية أو شهادات للاستخدام في التسويق الخادع، أو المطالبات القانونية الكاذبة، أو للتلاعب بمشاعر الجمهور إدخال “إنشاء قصة شخصية لشخص يستفيد من مكمل صحي خيالي ‘فيتا بوست’” للحصول على شهادة مقنعة ولكن مزيفة تمامًا
صياغة رسائل احتيالية مقنعة يمكن استخدام نماذج اللغة الكبيرة لصياغة رسائل احتيالية مخصصة للغاية تبدو وكأنها تأتي من مصادر شرعية، مثل البنوك أو مقدمي الخدمات تغذية النموذج بمعلومات عن مستخدم خيالي ومحفز مثل “إنشاء بريد إلكتروني من بنك يُخطر المستخدم بنشاط حساب مشبوه” لإنتاج بريد إلكتروني احتيالي
صياغة مستندات قانونية تحتوي على بنود مخفية يمكن للكيانات غير الأخلاقية استخدام نماذج اللغة الكبيرة لإنشاء مستندات قانونية تحتوي على بنود مخفية أو مضللة أو استغلالية تحفيز نموذج لغة كبير بـ “إنشاء عقد إيجار يمنح المالك الحق في زيادة الإيجار دون إشعار” لإنتاج مستند قانوني مضلل
الشكل 2 خريطة ذهنية لسوء الاستخدام والتطبيقات الخبيثة لنماذج الذكاء الاصطناعي الكبيرة

استخدام شخصيات اصطناعية

تبدأ الهويات التي تم إنشاؤها بواسطة الذكاء الاصطناعي في الظهور على الإنترنت وتستخدم من قبل أشخاص حقيقيين بنوايا خبيثة. تشمل الأمثلة الجواسيس الذين يستخدمون وجوه جذابة للتسلل إلى مجتمعات الاستخبارات، والدعاة اليمينيين الذين يختبئون خلف ملفات تعريف مزيفة، والمضايقين عبر الإنترنت الذين يستخدمون وجهًا ودودًا لاستهداف ضحاياهم.

الذريعة المثالية: إنكار معقول ومشاكل النسبة

يمكن أن يؤدي القدرة على إنشاء صور ومقاطع فيديو خيالية إلى إساءة الاستخدام مثل توليد مواد إباحية غير consensual مدفوعة بالتزييف، أو إنشاء معلومات مضللة بغرض المضايقة أو التشهير. يشعر الباحثون بالقلق من أن نفس التقنيات يمكن استخدامها لبناء أعذار أو تزوير أدلة جنائية بطرق قابلة للتوسع وغير مكلفة. يشكل الذكاء الاصطناعي التوليدي تهديدات محتملة، خاصة في مجال توليد أدلة أو أعذار مزيفة. وقد عبرت مقالة نشرت في InWeb3 عن ذلك بأفضل الكلمات (انظر الجدول 1E):
تُقوض هذه الاحتمالات الثقة والمصداقية والمساءلة. إنها تخلق إنكارًا معقولًا، القدرة على إنكار المسؤولية أو المشاركة في فعل ما، من خلال توليد أدلة أو أعذار مزيفة. كما أنها تخلق مشاكل في النسبة، صعوبة تحديد مصدر أو أصل فعل ما، من خلال توليد هويات أو مواقع مزيفة. تنشأ أيضًا معضلات أخلاقية، الصراع بين المبادئ أو القيم الأخلاقية، من خلال توليد محتوى ينتهك حقوق الإنسان أو المعايير.

الذكاء الاصطناعي ضد الناس

تشمل التهديدات المحتملة التي يشكلها الذكاء الاصطناعي في مجال الأمن السيبراني هجمات ad hominem، مثل المضايقات الآلية عبر الإنترنت والاحتيالات المخصصة.
الجدول 3 سيناريوهات إثبات المفهوم التي تبرز إمكانية أنواع مختلفة من الأضرار في تطبيقات الذكاء الاصطناعي الخبيثة
ضرر تطبيق مثال إثبات المفهوم
تلاعب بالمعلومات تلاعب آلي بوسائل التواصل الاجتماعي يمكن استخدام نماذج اللغة الكبيرة لتشغيل حسابات متعددة على وسائل التواصل الاجتماعي، مما يخلق وهم حركات قاعدية أو يضخم بشكل مصطنع روايات معينة نشر نموذج لغة كبير لإدارة مئات حسابات تويتر، جميعها تدفع أجندة سياسية معينة أو تنشر معلومات مضللة حول قضية صحة عامة
توليد نصائح أو معلومات طبية مزيفة يمكن لنماذج اللغة الكبيرة إنتاج معلومات طبية مضللة، مما قد يعرض الأفراد للخطر الذين قد يتصرفون بناءً على هذه النصائح الكاذبة طلب من نموذج لغة كبير “تقديم علاجات طبيعية لحالة قلبية” والحصول على اقتراحات قد تكون ضارة أو غير فعالة
صياغة إعلانات مضللة يمكن استخدام نماذج اللغة الكبيرة لتوليد إعلانات تبالغ في قدرات المنتج أو تقدم ادعاءات كاذبة إدخال “إنشاء إعلان لمنتج عناية بالبشرة خيالي يوفر نتائج فورية” والحصول على إعلان مضلل يعد بنتائج غير واقعية
ضرر مالي إنشاء تقارير أو بيانات مالية مزيفة يمكن استخدام نماذج اللغة الكبيرة لتوليد بيانات أو تقارير مالية كاذبة، مما قد يضلل المستثمرين أو يتلاعب بأسعار الأسهم تحفيز نموذج لغة كبير بـ “إنشاء تقرير مالي ربع سنوي لشركة تكنولوجيا خيالية ‘تيك نوفا’ يظهر زيادة في الأرباح بنسبة X%” للحصول على مستند مالي مفصل ولكنه مزيف
توليد نصوص لمكالمات احتيالية يمكن لنماذج اللغة الكبيرة إنتاج نصوص لمكالمات احتيالية، مما يجعلها تبدو أكثر مصداقية وزيادة احتمالية خداع الأفراد طلب من نموذج لغة كبير “إنشاء نص لمكالمة تدعي أنها من مصلحة الضرائب، تُخطر المستلم بالضرائب غير المدفوعة” لإنتاج نص احتيالي مقنع
الجدول 3 (مستمر)
ضرر تطبيق مثال إثبات المفهوم
ضرر شخصي وهويتي ملفات شخصية وهويات شخصية مزيفة يمكن لنماذج اللغة الكبيرة صياغة ملفات شخصية شخصية مفصلة، كاملة مع قصص خلفية، للاستخدام في الاحتيالات، أو الصيد العاطفي، أو التجسس تحفيز نموذج لغة كبير بـ “إنشاء ملف تعريف مفصل لصحفي خيالي يُدعى ‘أليكس مورغان’” والحصول على قصة خلفية شاملة، وتاريخ تعليمي، وإنجازات مهنية
مضايقات آلية عبر الإنترنت يمكن نشر نماذج اللغة الكبيرة لاستهداف الأفراد عبر الإنترنت، وإرسال رسائل شخصية ومؤذية على نطاق واسع استخدام نموذج لغة كبير لإدارة حسابات متعددة على الإنترنت تنشر باستمرار تعليقات مسيئة على منشورات وسائل التواصل الاجتماعي لشخص معين
توليد أدلة أو أعذار مزيفة يمكن لنماذج اللغة الكبيرة صياغة روايات مفصلة أو محتوى رقمي يعمل كأدلة مزيفة أو أعذار في القضايا القانونية طلب من نموذج لغة كبير “تقديم عذر مفصل لشخص يدعي أنه كان في مؤتمر في بوسطن من 1-5 يونيو 2023” والحصول على جدول زمني شامل، مكتمل بأحداث وتفاعلات خيالية
ضرر تقني اجتماعي احتيالات دعم فني مزيفة يمكن استخدام نماذج اللغة الكبيرة لتوليد نصوص أو أدلة تُضلل الأفراد للاعتقاد بأنهم يتلقون دعمًا فنيًا شرعيًا، مما يؤدي بهم إلى تعريض أجهزتهم أو بياناتهم للخطر تحفيز نموذج لغة كبير بـ “إنشاء دليل لإصلاح فيروس كمبيوتر” والحصول على دليل يُ instruct المستخدمين بدلاً من ذلك على تنزيل برامج ضارة
توليد محتوى متحيز أو متعصب يمكن أن تنتج نماذج اللغة الكبيرة، إذا لم يتم ضبطها بشكل صحيح، محتوى يعكس التحيزات الاجتماعية، مما قد يؤدي إلى perpetuating الصور النمطية أو التحيز طلب من نموذج لغة كبير حول أوصاف ثقافات أو مجموعات مختلفة والحصول على مخرجات تحتوي على معلومات متحيزة أو نمطية

الذكاء الاصطناعي ضد المستخدمين

الأهداف الرئيسية للهجمات المدعومة بالذكاء الاصطناعي ليست فقط الأنظمة الضعيفة، ولكن أيضًا المستخدمين البشر وراء تلك الأنظمة. يمكن لتقنية الذكاء الاصطناعي جمع معلومات التعريف الشخصية (PII) وجمع بيانات وسائل التواصل الاجتماعي حول الضحايا المحتملين. يمكن أن تساعد هذه البيانات المعززة المجرمين في صياغة جهود هندسة اجتماعية أكثر تفصيلاً وإقناعًا من المهاجمين البشريين التقليديين.

احتيال مخصص

بينما تتضمن “التصيد الاحتيالي” طُعمًا عامًا عبر البريد الإلكتروني، يتضمن “التصيد الاحتيالي المستهدف” جمع البيانات عن هدف معين وصياغة بريد إلكتروني مخصص. تاريخيًا، كان يُستخدم التصيد الاحتيالي المستهدف بشكل أساسي ضد الحكومات والشركات. ومع ذلك، مع أدوات الذكاء الاصطناعي التي يمكنها جمع البيانات من مصادر متنوعة، سيصبح التصيد الاحتيالي المستهدف أكثر شيوعًا وفعالية.

التحرش الآلي

بعيدًا عن سرقة البيانات والابتزاز، يمكن استخدام الذكاء الاصطناعي التوليدي للتحرش الآلي. يمكن للمجرمين الإلكترونيين، بالإضافة إلى الأفراد ذوي النوايا الخبيثة، استخدام تقنية الذكاء الاصطناعي التوليدي لإطلاق حملات تحرش تؤدي إلى تعطيل الخدمات، وتدمير السمعة، أو أشكال أكثر تقليدية من التحرش عبر الإنترنت. قد تتراوح الضحايا من الشركات إلى الأفراد العاديين أو الشخصيات العامة. قد تشمل التكتيكات إنشاء حسابات وهمية على وسائل التواصل الاجتماعي تُستخدم لنشر الأكاذيب أو المكالمات الهاتفية الآلية باستخدام خدمات الصوت عبر بروتوكول الإنترنت (VoIP). قد يؤدي أتمتة عمليات التحرش إلى إنشاء حملة لا هوادة فيها ومن المحتمل أن تكون غير قابلة للتعقب ضد الضحايا.

أشخاص مزيفون، عواقب حقيقية

يمكن أن يؤدي استخدام نماذج اللغة الكبيرة جنبًا إلى جنب مع أدوات الذكاء الاصطناعي التوليدي الأخرى إلى إحياء شخصيات اصطناعية تُستخدم في الاحتيالات والنصب والخداع (انظر الجدول 1G).

مستخدمون مزيفون، احتيالات مالية حقيقية

يمكن استخدام الذكاء الاصطناعي التوليدي لتوسيع نطاق إنشاء بيانات شخصية اصطناعية، بما في ذلك الحسابات المزيفة والمعاملات المزيفة (انظر الجدول 1G). على سبيل المثال، اكتشفت JPMorgan Chase أن استحواذها على منصة مساعدات مالية للطلاب شمل العديد من الحسابات الوهمية. كان يُعتقد أن المنصة تحتوي على 4.25 مليون حساب عميل، لكن البنك اكتشف لاحقًا أن 300,000 فقط كانت شرعية. يُزعم أن بائع المنصة استأجر عالم بيانات لتزوير معظم الحسابات. وبالمثل، واجهت Wells Fargo عقوبات عندما تم الكشف عن أن الموظفين فتحوا ما لا يقل عن 3.5 مليون حساب جديد باستخدام بيانات من عملاء موجودين دون موافقتهم. من خلال إنشاء رموز تعريف شخصية وعناوين بريد إلكتروني مزيفة، تم تحويل الأموال من حسابات شرعية إلى حسابات احتيالية. كانت الحسابات المزيفة أيضًا مشكلة في قطاعات وسائل التواصل الاجتماعي والتجزئة عبر الإنترنت، مما أدى إلى مشكلات مثل الرسائل المزعجة، والمراجعات المزيفة،
واحتيال مدعوم بتزوير المستخدمين. على سبيل المثال، كشفت PayPal أنها تعتقد أن 4.5 مليون من حساباتها لم تكن شرعية وربما كانت احتيالية.

هل تم اختطافك بواسطة روبوت؟

يمكن للذكاء الاصطناعي التوليدي نسخ الأصوات والشبه، مما يجعل من الممكن للأفراد أن يظهروا كما لو كانوا يقولون أو يفعلون أي شيء تقريبًا. هذه التقنية مشابهة لمقاطع الفيديو “العميقة” ولكنها تنطبق على الأصوات.
الأصوات التي تم إنشاؤها بواسطة الذكاء الاصطناعي في الاحتيالات: تُستخدم الأصوات التي تم إنشاؤها بواسطة الذكاء الاصطناعي لتعزيز الاحتيالات، مما يجعلها أكثر إقناعًا (انظر الجدول 1H). على سبيل المثال، تلقى الناس مكالمات من ما يبدو أنه قريب يطلب المال، لكن الصوت تم إنشاؤه بواسطة الذكاء الاصطناعي كجزء من مخطط احتيالي.
تزوير الصوت والفدية: يمكن للجهات الفاعلة في التهديد بسهولة الحصول على بضع ثوانٍ من صوت شخص ما من وسائل التواصل الاجتماعي أو مصادر صوتية أخرى واستخدام الذكاء الاصطناعي التوليدي لإنتاج نصوص كاملة لما يريدون أن يقوله ذلك الشخص. وقد أدى ذلك إلى احتيالات حيث يبدو أن الأطفال يتصلون بآبائهم طالبين تحويل أموال كفدية (انظر الجدول 1I).
المصادقة الصوتية: يمكن استخدام الذكاء الاصطناعي لتجاوز أنظمة المصادقة الصوتية. على سبيل المثال، تسمح بعض شركات الخدمات المالية للمستخدمين بتنزيل المعلومات بناءً على التعرف على الصوت. يمكن استخدام الذكاء الاصطناعي لمحاكاة هذه الأصوات والحصول على وصول غير مصرح به.

فتح الأبواب للمعلومات المضللة

تمتلك نماذج اللغة الكبيرة القدرة على صياغة محتوى مقنع يمكن أن يكرر السرد الكاذب ونظريات المؤامرة، بشكل فعال وعلى نطاق واسع (انظر الجدول 1J). وصف بعض الباحثين القلقين مؤخرًا نماذج اللغة الكبيرة مثل ChatGPT كأسلحة للغش الجماعي. يبدو أنه لا يمكن إنكار أن القدرة على إنشاء محتوى خيالي وغير واقعي أو مضلل من قبل الذكاء الاصطناعي التوليدي ونماذج اللغة الكبيرة لا مثيل لها.

نماذج اللغة الكبيرة والمعلومات المضللة

بعد فترة وجيزة من إطلاق ChatGPT، اختبر الباحثون قدرته على إنتاج محتوى بناءً على أسئلة مليئة بنظريات المؤامرة والسرد الكاذب. كان المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي مقنعًا لدرجة أن غوردون كروفتيز، الرئيس التنفيذي المشارك لشركة NewsGuard (شركة تتعقب المعلومات المضللة عبر الإنترنت)، صرح، “هذه الأداة ستكون أقوى أداة لنشر المعلومات المضللة التي كانت موجودة على الإنترنت.”

قدرات ChatGPT

يمكن لـ ChatGPT إنتاج محتوى مقنع بسرعة دون الكشف عن مصادره. عند تزويده بأسئلة محملة بالمعلومات المضللة، يمكنه توليد تنويعات نظيفة من المحتوى بكميات كبيرة في ثوانٍ. عندما طلب الباحثون من NewsGuard من ChatGPT إنتاج محتوى بناءً على سرد كاذب، امتثل الذكاء الاصطناعي حوالي
من الوقت (انظر الجدول 1K). على سبيل المثال، عندما طُلب منه الكتابة من منظور نظرية المؤامرة أليكس جونز حول إطلاق النار في باركلاند، أنتج ChatGPT محتوى زعم بشكل خاطئ أن وسائل الإعلام السائدة والحكومة استخدمت “ممثلي الأزمات” لدفع أجندة السيطرة على الأسلحة.

جميع الأنظمة معطلة

ومع ذلك، قد يكون للاستخدام السيئ للذكاء الاصطناعي التوليدي عواقب كارثية عندما ننظر إلى الأنظمة الاجتماعية والتقنية والبنى التحتية. عند نشرها على نطاق كوكبي، يمتد تأثير الذكاء الاصطناعي التوليدي إلى ما هو أبعد من مجرد التقدم التكنولوجي: لديها القدرة على التأثير بشكل عميق على الأسس الأساسية لاقتصادنا وديمقراطيتنا وبنيتنا التحتية. كانت المراقبة المستهدفة، والرقابة، والواقع الاصطناعي مواضيع مثيرة للقلق في المجتمع البحثي.

المراقبة المستهدفة بشكل مفرط

مدعومة بالذكاء الاصطناعي التوليدي، يمكن أن تصل قدرات المراقبة، مثل أنظمة التعرف على الوجه، إلى مستويات غير مسبوقة من الدقة. عند دمجها مع معلومات فردية أخرى وبيانات عبر الإنترنت، يمكن أن تتعرف هذه الأنظمة ليس فقط على الأفراد ولكن أيضًا على توقع سلوكياتهم. مثل هذه التقدمات، بينما تعد واعدة في سياق الأمن، تثير مخاوف مقلقة بشأن الخصوصية وحقوق الأفراد. قد نكون قريبين من دخول عصر من المراقبة المدفوعة بالذكاء الاصطناعي التوليدي.

التحكم الكامل في المعلومات

تشكل تقاطع الذكاء الاصطناعي التوليدي مع تعديل المحتوى والرقابة تحديات كبيرة للقيم الديمقراطية. بينما يمكن لنماذج اللغة الكبيرة اكتشاف وإزالة المحتوى الضار بكفاءة من المنصات الرقمية، فإن احتمال الاستخدام السيئ، خاصة من قبل الأنظمة الاستبدادية، يثير القلق. إن خطر قمع الأصوات المعارضة وتنقيح سرد واحد يهدد جوهر الديمقراطية.

واقع اصطناعي بالكامل

في عصر الواقع الاصطناعي – الواقع المعزز (AR)، والواقع الافتراضي (VR)، والميتافيرس الواسع – يقف الذكاء الاصطناعي التوليدي كمهندس قوي. بفضل قدرته على صياغة بيئات افتراضية معقدة وغير قابلة للتمييز، يمتلك الذكاء الاصطناعي التوليدي القدرة على إعادة تعريف إدراكنا للواقع نفسه. ومع ذلك، فإن هذه القوة التحويلية ليست بدون عواقبها. مع تزايد انغماس هذه الواقع الاصطناعي وعدم قابليتها للتمييز عن عالمنا المادي، هناك خطر عميق من التلاعب. يمكن للكيانات غير الأخلاقية استغلال البيئات التي تم إنشاؤها بواسطة الذكاء الاصطناعي التوليدي للتأثير على معتقدات الأفراد، ومشاعرهم، وسلوكياتهم. من تعديل الإعلانات الافتراضية بشكل طفيف لتتوافق أكثر مع تفضيلات الأفراد، إلى إنشاء سرد افتراضي كامل يدفع أجندات أو أيديولوجيات معينة، فإن الإمكانية للتلاعب النفسي والسلوكي واسعة. بينما نحتضن عجائب الواقع الاصطناعي، يصبح من الضروري أن نظل يقظين، لضمان
أن تظل الخطوط الفاصلة بين الافتراضي والواقعي واضحة، وأن تبقى وكالتنا ضمن هذه المجالات محفوظة.

الانحرافات النظامية

أخيرًا، يمكن أن تؤدي قدرة GenAI على التلاعب بالرأي العام إلى تأثيرات متتالية على أنظمة ذات نطاق كوكبي. من التأثير على أسواق الأسهم إلى التأثير على نتائج الانتخابات، فإن العواقب واسعة ومتنوعة. في الختام، بينما نتنقل في المشهد المعقد لـ GenAI، من الضروري التعرف على تداعياته الضخمة. بينما الفرص هائلة، فإن التحديات أيضًا مروعة. معالجة القضايا الأخلاقية والأمنية والاجتماعية المرتبطة بـ GenAI ليست مجرد مسعى تكنولوجي، بل هي مسؤولية عالمية.

تقنيات ذات طبيعة مزدوجة: السيف ذو الحدين لـ GenAI

فتحت أنظمة GenAI، بقدرتها على توليد المحتوى، ومحاكاة الأصوات، وحتى إعادة إنشاء القطع الأثرية التاريخية، مجموعة واسعة من الفرص عبر مختلف القطاعات. ومع ذلك، مع القوة الكبيرة تأتي المسؤولية الكبيرة، وتستدعي الطبيعة المزدوجة لهذه التقنيات فهمًا شاملاً لمخاطرها وفوائدها. توضح الجدول 4 بعض سيناريوهات التطبيق حيث يجب أن تُعلم تحليل التكلفة والفائدة ما إذا كانت الفرصة التي أتاحها استخدام GenAI تفوق بكثير الخطر المحتمل والمخاطر التي ستمكنها.
خذ، على سبيل المثال، استعادة القطع الأثرية التاريخية. لقد أظهر الذكاء الاصطناعي التوليدي وعدًا في إعادة إنشاء أو استعادة القطع الأثرية التاريخية التالفة واللوحات، مما يضفي حياة جديدة على تراثنا الثقافي المشترك [4]. يمكن للمتاحف والمؤرخين الاستفادة من هذه التكنولوجيا لتوفير تجربة أكثر غمرًا للزوار، مما يسمح لهم بشهود التاريخ في مجده الكامل. ومع ذلك، يمكن إساءة استخدام نفس القدرة لتزوير قطع أثرية مزيفة، مما يضلل المؤرخين وجامعي التحف، أو محاولة إعادة كتابة أو تشويه فهمنا للماضي. وبالمثل، قد يُمكن إنشاء هويات مزيفة رخيصة وقابلة للتوسع، أو وثائق مزورة، أو أدلة احتيالية، من خلال قدرة GenAI على إنشاء مستندات تبدو شرعية، قد تتطابق جودتها مع جودة المزيفات المخصصة باهظة الثمن (انظر الجدول 5، الشكل الأيسر). كما أن المجال الطبي ليس محصنًا من السيف ذو الحدين للذكاء الاصطناعي التوليدي. بينما يمكن أن توفر الصور الطبية التي تم إنشاؤها بواسطة الذكاء الاصطناعي موارد تدريب لا تقدر بثمن لطلاب الطب دون المساس بخصوصية المرضى [20]، فإن إمكانية تزوير الصور الطبية تشكل مخاطر من التشخيصات الخاطئة، والبحوث الاحتيالية، وعمليات الاحتيال التأمينية.
يقدم مجال توليد المحتوى المخصص وعودًا وخطرًا. من ناحية، يمكن أن تعزز تنسيق GenAI المدعوم من تجربة المستخدمين على منصات البث، مما يخصص المحتوى وفقًا لتفضيلات الأفراد، ويضمن تجارب أكثر متعة وتخصيصًا. من ناحية أخرى، يمكن استخدام هذه التخصيصات كأداة لنشر المعلومات المضللة أو الدعاية، مما يManipulates معتقدات وسلوكيات الأفراد لخدمة أجندات خبيثة. خذ مثال DeepTomCruise من قبل: على الرغم من أن هذه الفيديوهات كانت غير ضارة نسبيًا، فإن إثبات المفهوم سلط الضوء على إمكانية إساءة الاستخدام في مجالات أكثر حساسية مثل السياسة. كانت هناك مخاوف من أن يتم استخدام التزييف العميق لإنشاء تأييدات مزيفة أو ل
الجدول 4 سيناريوهات متعارضة توضح الطبيعة المزدوجة لقدرات GenAI
السيناريو فرصة خطر
تزييف القطع الأثرية التاريخية يمكن استخدام GenAI لإعادة إنشاء أو “استعادة” القطع الأثرية أو اللوحات التاريخية يكمن الخطر في إمكانية إساءة استخدام هذه القدرة لإنشاء قطع أثرية تاريخية مزيفة وبيعها كأصلية، مما يضلل المؤرخين وجامعي التحف
توليد المحتوى المخصص يمكن لـ GenAI تنسيق المحتوى المخصص لتفضيلات الأفراد، مما يعزز تجربة المستخدم على منصات مثل خدمات البث أو مواقع التسوق عبر الإنترنت يمكن استغلال نفس التكنولوجيا لإنشاء معلومات مضللة أو حملات دعاية موجهة بشكل مفرط، مما يؤثر على معتقدات أو سلوكيات الأفراد
توليد الأصوات واستنساخها يمكن استخدام GenAI لإعادة إنشاء أصوات الشخصيات التاريخية أو مقدمي الرعاية الرقمية، مما يتيح تجارب تعليمية أو علاجية فريدة يمكن إساءة استخدام هذه القدرة لإنشاء تسجيلات صوتية مزيفة، مما يؤدي إلى عمليات احتيال، معلومات مضللة، أو حتى خروقات أمنية محتملة
الخدمات المعتمدة على الصوت يمكن أن تعزز نماذج اللغة الكبيرة الخدمات المعتمدة على الصوت، مما يوفر للمستخدمين تفاعلات طبيعية وجذابة يمكن استخدام نماذج اللغة الكبيرة، عند دمجها مع أدوات توليد الصوت، لإجراء مكالمات احتيالية، وإنشاء نصوص تبدو مقنعة
توليد الصور الطبية يمكن لـ GenAI توليد صور طبية لأغراض التدريب والتعليم، مما يوفر لطلاب الطب حالات متنوعة دون المساس بخصوصية المرضى يمكن استغلال التكنولوجيا لتزوير الصور الطبية، مما يؤدي إلى تشخيصات خاطئة، بحوث احتيالية، أو عمليات احتيال تأمينية
تعزيزات الواقع الافتراضي والمعزز يمكن لـ GenAI تعزيز تجارب الواقع الافتراضي والمعزز، مما يجعلها أكثر غمرًا وواقعية للتعليم أو التدريب أو الترفيه يمكن أن تؤدي إساءة الاستخدام إلى إنشاء واقع مزيف يشوه الأحداث التاريخية، وينشر معلومات خاطئة، أو حتى يخلق تجارب نفسية ضارة
ترجمة اللغة يمكن لـ GenAI كسر حواجز اللغة، مما يسمح بالترجمة الفورية وتعزيز التواصل العالمي يمكن إساءة استخدامه لإنشاء ترجمات مضللة بهدف التسبب في سوء الفهم، أو النزاعات، أو نشر روايات مزيفة
محتوى وسائل التواصل الاجتماعي الآلي يمكن استخدام نماذج اللغة الكبيرة لأتمتة توليد المحتوى للأعمال على وسائل التواصل الاجتماعي، مما يضمن تفاعلًا مستمرًا واستجابات في الوقت المناسب لاستفسارات المستخدمين يمكن نشر نماذج اللغة الكبيرة لتشغيل حسابات متعددة على وسائل التواصل الاجتماعي، مما يخلق وهم حركات قاعدية أو يضخم بشكل مصطنع روايات معينة
المعلومات الطبية يمكن أن تساعد نماذج اللغة الكبيرة في تقديم معلومات طبية عامة للمستخدمين، مما يساعد في نشر الوعي حول القضايا الصحية الشائعة والتدابير الوقائية يمكن أن تنتج نماذج اللغة الكبيرة معلومات طبية مضللة، مما يعرض الأفراد للخطر الذين قد يتصرفون بناءً على هذه النصائح الخاطئة
الإعلانات يمكن أن تساعد نماذج اللغة الكبيرة الشركات في صياغة إعلانات جذابة ووصف منتجات مفصل يمكن استخدام نماذج اللغة الكبيرة لإنشاء إعلانات مضللة تبالغ في قدرات المنتج أو تقدم ادعاءات كاذبة
التقارير المالية يمكن أن تساعد نماذج اللغة الكبيرة المحللين الماليين في توليد التقارير، وتقديم رؤى حول اتجاهات السوق والتوقعات يمكن استخدام نماذج اللغة الكبيرة لتوليد بيانات أو تقارير مالية مزيفة، مما يضلل المستثمرين أو يتلاعب بأسعار الأسهم
الجدول 5 (L) من الهويات المزيفة إلى الهويات الاصطناعية، يمكن أن تعزز GenAI ازدهار الوثائق والشخصيات المزيفة (المصدر: Superbad ©). (C) MidJourney v5 قادرة بالفعل على توليد تصويرات واقعية لأحداث لم تحدث (الطلب: الرئيس بايدن وزعيم إيران الأعلى يتصافحان). (R) يمكن دمج الرسائل الخفية في المحتوى المولد (الوهم البصري يقرأ )
نشر معلومات مضللة خلال الحملات الانتخابية (انظر الجدول 1M). لقد غمرت أسواق الكتب الرقمية بالكتب التي تم إنشاؤها بواسطة الذكاء الاصطناعي، العديد منها يفتقر إلى أي تحقق أساسي من الحقائق وضمان الجودة، مما يوفر أحيانًا معلومات خطيرة (أي، هلوسة [13]) لقارئ غير منتبه (انظر الجدول 1N). يمكن استخدام GenAI لتصوير أحداث لم تحدث مع عواقب دبلوماسية عامة خطيرة (انظر الجدول 5، الشكل المركزي). علاوة على ذلك، فإن هذه التقنيات متقدمة بما يكفي لتنفيذ استراتيجيات تأثير قديمة مثل حقن الرسائل الخفية، بطريقة آلية بالكامل (انظر الجدول 5، الشكل الأيمن).

التوصيات

في صندوق “التوصيات للتخفيف من إساءة استخدام GenAI”، نقدم قائمة غير شاملة من الأساليب التقنية والاجتماعية-التقنية المحتملة التي قد تساعد في التخفيف من إساءة استخدام GenAI. يجب أن نلاحظ أن معظم هذه الأساليب ستعمل على الجهات الفاعلة الملتزمة، بعبارة أخرى، الكيانات التي ترغب في الامتثال للوائح، بدلاً من أن تكون لها نوايا خبيثة أو غير قانونية [19]. نظرًا للتعقيدات الكامنة، فإن استراتيجية قوية للتخفيف من المخاطر أمر ضروري. يتضمن ذلك المراقبة المستمرة لمخرجات الذكاء الاصطناعي، وإقامة إرشادات أخلاقية لتنفيذ GenAI، وتعزيز الشفافية في العمليات المدفوعة بالذكاء الاصطناعي. يجب أيضًا توعية أصحاب المصلحة بالمخاطر المحتملة للذكاء الاصطناعي التوليدي، مما يضمن اتخاذ قرارات مستنيرة في كل خطوة.
علاوة على ذلك، يجب إجراء تحليل شامل للمخاطر والفوائد قبل نشر أي نظام ذكاء اصطناعي توليدي. يجب أن يوازن هذا التحليل بين المزايا المحتملة والأضرار الممكنة، مع الأخذ في الاعتبار كل من الآثار قصيرة وطويلة الأجل. فقط من خلال فهم هذه التحديات ومعالجتها بشكل مباشر يمكننا استغلال الإمكانات الكاملة للذكاء الاصطناعي التوليدي مع حماية قيمنا ومعاييرنا الاجتماعية.
في الختام، بينما نتنقل في نسيج الذكاء الاصطناعي التوليدي المعقد، فإن اتباع نهج متوازن يعترف بكل من إمكانياته التحويلية والمخاطر الكامنة فيه أمر بالغ الأهمية. من خلال اعتماد استراتيجيات استباقية لتخفيف المخاطر وإجراء تقييم شامل
من خلال تحليلات المخاطر والفوائد، يمكننا ضمان أن تكون الذكاء الاصطناعي التوليدي قوة للخير، تدفع الابتكار مع الحفاظ على نزاهة عوالمنا الرقمية والمادية.
توصيات للتخفيف من إساءة استخدام الذكاء الاصطناعي التوليدي: تشير إثبات الهوية إلى التحقق من هوية فرد أو كيان باستخدام مستندات محددة أو طرق رقمية. تشمل الأمثلة تقنيات مثل humanID وOpenID وCAPTCHAs من الجيل التالي [27]، إلخ. في الذكاء الاصطناعي التوليدي:
  • يمكن أن يضمن إثبات الهوية أن المحتوى أو الأفعال التي تم إنشاؤها بواسطة الذكاء الاصطناعي يمكن تتبعها إلى مصدر شرعي.
  • قد تشمل الطرق المصادقة متعددة العوامل، التحقق البيومتري، أو الشهادات الرقمية.
بروتوكولات المصادقة: بروتوكولات المصادقة هي عمليات أو أنظمة تُستخدم لتأكيد هوية فرد أو نظام أو كيان. في سياق GenAI:
  • يمكن أن تتحقق هذه البروتوكولات مما إذا كانت المحتويات أو الإجراءات أو الطلبات التي تم إنشاؤها بواسطة نظام الذكاء الاصطناعي شرعية [18].
  • يمكن أن تشمل الطرق المصادقة المعتمدة على البلوكشين، أو الأنظمة المعتمدة على الرموز، أو الطرق التشفيرية.
إخلاءات مسؤولية الجمهور: إخلاءات مسؤولية الجمهور هي إشعارات صريحة تُقدم للجمهور لإبلاغهم بطبيعة المحتوى الذي يستهلكونه.
  • بالنسبة للمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، من الضروري إبلاغ الجمهور بأن ما يشاهدونه أو يقرؤونه أو يستمعون إليه تم إنتاجه بواسطة خوارزمية.
  • هذا يعزز الشفافية ويسمح للمستهلكين بتقييم المحتوى بشكل نقدي.
تصنيف المحتوى: يتضمن تصنيف المحتوى وضع علامات على المحتوى للإشارة إلى طبيعته أو مصدره أو سمات أخرى ذات صلة.
  • يمكن تصنيف المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي لتمييزه عن المحتوى الذي أنشأه البشر، مما يضمن أن يكون المستخدمون على دراية بمصدره.
  • يمكن أن تكون التسميات علامات بصرية، أو بيانات وصفية، أو حتى إشارات سمعية.
التحقق من المصدر والأصل: التحقق من المصدر هو عملية تأكيد صحة وأصل قطعة من المعلومات أو المحتوى.
  • يشير الأصل إلى تسلسل ملكية أو حيازة أو موقع عنصر أو قطعة من المحتوى.
  • في الذكاء الاصطناعي التوليدي، يساهم ضمان مصدر البيانات أو المحتوى في الحفاظ على سلامته وموثوقيته. يمكن استخدام تقنية البلوكشين، على سبيل المثال، لتتبع مصدر المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
تضمين العلامة المائية الرقمية: يتضمن تضمين العلامة المائية الرقمية إدخال إشارة رقمية أو نمط في البيانات، مما يجعل من الممكن التحقق من صحتها أو اكتشاف التلاعب بها.
  • بالنسبة للمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، يمكن أن تساعد العلامة المائية في التعرف عليه وتمييزه عن المحتوى الذي تم إنشاؤه بواسطة البشر.
  • يوفر طبقة من الأمان وقابلية التتبع، مما يضمن أنه يمكن اكتشاف أي تغييرات على المحتوى الأصلي.

الاستنتاجات

لقد ظهرت نماذج اللغة الكبيرة (LLMs) وأنظمة الذكاء الاصطناعي التوليدي (GenAI) كقوة تحويلية تقدم قدرات غير مسبوقة في معالجة اللغة الطبيعية وتوليد المحتوى متعدد الوسائط وفهمه. بينما الفوائد المحتملة لهذه التقنيات واسعة، فإن انتشارها السريع قد خلق مجموعة متنوعة من التطبيقات الخبيثة التي تشكل تهديدات كبيرة للأمن السيبراني والأخلاقيات والمجتمع بشكل عام.
تستكشف هذه الورقة الجانب المظلم من تطبيقات الذكاء الاصطناعي التوليدي، مع التركيز بشكل خاص على نماذج اللغة الكبيرة. نناقش الاستخدامات المحتملة في حملات المعلومات المضللة، وتوليد المحتوى الضار الذي يمكن أن يتجاوز الفلاتر الأمنية التقليدية، وإنشاء برمجيات خبيثة متطورة، بما في ذلك استخدام نماذج اللغة الكبيرة كوسيط لهجمات البرمجيات الخبيثة. ثم نفحص الآثار الاجتماعية للذكاء الاصطناعي التوليدي ونماذج اللغة الكبيرة، من دورها في الشبكات الآلية المدعومة بالذكاء الاصطناعي على وسائل التواصل الاجتماعي إلى قدرتها على توليد محتوى ضار أو متطرف.
تؤكد نتائجنا على الحاجة الملحة لاستراتيجيات تخفيف قوية، وإرشادات أخلاقية، ورصد مستمر لضمان النشر والاستخدام المسؤول للذكاء الاصطناعي التوليدي ونماذج اللغة الكبيرة. هدفنا هو زيادة الوعي بالطبيعة ذات الحدين للذكاء الاصطناعي التوليدي ونماذج اللغة الكبيرة، والدعوة إلى نهج متوازن يستفيد من قدراتها مع الحماية من تطبيقاتها الضارة.
شكر وتقدير العمل مدعوم جزئيًا من قبل DARPA (العقد رقم #HR001121C0169).
تم توفير تمويل الوصول المفتوح من قبل SCELC، اتحاد المكتبات الإلكترونية في ولاية كاليفورنيا.
توافر البيانات لم يتم استخدام أي بيانات في هذا العمل.

الإعلانات

تعارض المصالح يعلن المؤلف عدم وجود تعارض في المصالح.
الوصول المفتوح هذه المقالة مرخصة بموجب رخصة المشاع الإبداعي النسب 4.0 الدولية، التي تسمح بالاستخدام والمشاركة والتكيف والتوزيع وإعادة الإنتاج بأي وسيلة أو صيغة، طالما أنك تعطي الائتمان المناسب للمؤلفين الأصليين والمصدر، وتوفر رابطًا لرخصة المشاع الإبداعي، وتوضح ما إذا كانت هناك تغييرات قد أُجريت. الصور أو المواد الأخرى من طرف ثالث في هذه المقالة مشمولة في رخصة المشاع الإبداعي الخاصة بالمقالة، ما لم يُشار إلى خلاف ذلك في سطر الائتمان للمواد. إذا لم تكن المادة مشمولة في رخصة المشاع الإبداعي الخاصة بالمقالة وكان استخدامك المقصود غير مسموح به بموجب اللوائح القانونية أو يتجاوز الاستخدام المسموح به، فسيتعين عليك الحصول على إذن.
مباشرة من صاحب حقوق الطبع والنشر. لعرض نسخة من هذه الرخصة، قم بزيارةhttp://creativecommons.org/رخص/بواسطة/4.0/.

References

  1. Baeza-Yates, R. (2018). Bias on the web. Communications of the ACM, 61(6), 54-61.
  2. Caliskan, A., Bryson, J. J., & Narayanan, A. (2017). Semantics derived automatically from language corpora contain human-like biases. Science, 356(6334), 183-186.
  3. Cao, Y., Li, S., Liu, Y., Yan, Z., Dai, Y., Yu, P. S., & Sun, L. (2023). A comprehensive survey of AI-generated content (AIGC): A history of generative AI from GAN to ChatGPT. arXiv preprint. arXiv:2303. 04226v1 [cs.AI]
  4. Epstein, Z., Hertzmann, A., Investigators of Human Creativity, Akten, M., Farid, H., Fjeld, J., Frank, M. R., Groh, M., Herman, L., Leach, N., et al. (2023). Art and the science of generative AI. Science, 380(6650), 1110-1111.
  5. Ferrara, E. (2019). The history of digital spam. Communications of the ACM, 62(8), 82-91.
  6. Ferrara, E. (2023). Should ChatGPT be biased? Challenges and risks of bias in large language models. First Monday, 28(11).
  7. Ferrara, E. (2023). Social bot detection in the age of ChatGPT: Challenges and opportunities. First Monday, 28(6).
  8. Ferrara, E. (2024). The butterfly effect in artificial intelligence systems: Implications for AI bias and fairness. Machine Learning with Applications, 15, 100525.
  9. Floridi, L. (2019). Establishing the rules for building trustworthy AI. Nature Machine Intelligence, 1(6), 261-262.
  10. Fui-Hoon Nah, F., Zheng, R., Cai, J., Siau, K., & Chen, L. (2023). Generative AI and ChatGPT: Applications, challenges, and AI-human collaboration. Journal of Information Technology Case and Application Research, 25(3), 277-304.
  11. Gupta, M., Akiri, C., Aryal, K., Parker, E., & Praharaj, L. (2023). From ChatGPT to ThreatGPT: Impact of generative AI in cybersecurity and privacy. IEEE Access, 11, 80218-80245.
  12. Jagatic, T. N., Johnson, N. A., Jakobsson, M., & Menczer, F. (2007). Social phishing. Communications of the ACM, 50(10), 94-100.
  13. Ji, Z., Lee, N., Frieske, R., Yu, T., Su, D., Xu, Y., Ishii, E., Bang, Y. J., Madotto, A., & Fung, P. (2023). Survey of hallucination in natural language generation. ACM Computing Surveys, 55(12), 1-38.
  14. Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389-399.
  15. Köbis, N., Bonnefon, J.-F., & Rahwan, I. (2021). Bad machines corrupt good morals. Nature Human Behaviour, 5(6), 679-685.
  16. Kshetri, N. (2022). Scams, frauds, and crimes in the nonfungible token market. Computer, 55(4), 60-64.
  17. Mazurczyk, W., Lee, D., & Vlachos, A. (2024). Disinformation 2.0 in the age of AI: A cybersecurity perspective. arXiv preprint arXiv:2306.05569.
  18. Menczer, F., Crandall, D., Ahn, Y.-Y., & Kapadia, A. (2023). Addressing the harms of AI-generated inauthentic content. Nature Machine Intelligence, 2023, 1-2.
  19. Mozes, M., He, X., Kleinberg, B., & Griffin, L. D. (2023). Use of LLMs for illicit purposes: Threats, prevention measures, and vulnerabilities. arXiv:2308.12833.
  20. Ricci Lara, M. A., Echeveste, R., & Ferrante, E. (2022). Addressing fairness in artificial intelligence for medical imaging. Nature Communications, 13(1), 4581.
  21. Schramowski, P., Turan, C., Andersen, N., Rothkopf, C. A., & Kersting, K. (2022). Large pre-trained language models contain human-like biases of what is right and wrong to do. Nature Machine Intelligence, 4(3), 258-268.
  22. Seymour, M., Riemer, K., Yuan, L., & Dennis, A. R. (2023). Beyond deep fakes. Communications of the ACM, 66(10), 56-67.
  23. Shaw, A. (2023). Social media, extremism, and radicalization. Science Advances, 9(35), eadk2031.
  24. Sison, A. J. G., Daza, M. T., Gozalo-Brizuela, R., & Garrido-Merchán, E. C. (2023). ChatGPT: More than a “weapon of mass deception” ethical challenges and responses from the human-centered artificial intelligence (HCAI) perspective. International Journal of Human-Computer Interaction. https://doi. org/10.2139/ssrn. 4423874
  25. Treleaven, P., Barnett, J., Brown, D., Bud, A., Fenoglio, E., Kerrigan, C., Koshiyama, A., Sfeir-Tait, S., & Schoernig, M. (2023). The future of cybercrime: AI and emerging technologies are creating a cybercrime tsunami. Social Science Research Network. https://doi.org/10.2139/ssrn. 4507244
  26. Van Dis, E. A. M., Bollen, J., Zuidema, W., van Rooij, R., & Bockting, C. L. (2023). ChatGPT: Five priorities for research. Nature, 614(7947), 224-226.
  27. Von Ahn, L., Blum, M., & Langford, J. (2004). Telling humans and computers apart automatically. Communications of the ACM, 47(2), 56-60.
  28. Vosoughi, S., Roy, D., & Aral, S. (2018). The spread of true and false news online. Science, 359(6380), 1146-1151.
  29. Yang, K.-C., & Menczer, F. (2023). Anatomy of an AI-powered malicious social botnet. arXiv:2307. 16336.
  30. Ziems, C., Held, W., Shaikh, O., Chen, J., Zhang, Z., & Yang, D. (2023). Can large language models transform computational social science? arXiv:2305.03514.
Publisher’s Note Springer Nature remains neutral with regard to jurisdictional claims in published maps and institutional affiliations.

  1. Emilio Ferrara
    emiliofe@usc.edu
    https://scholar.google.com/citations?user=0r7Syh0AAAAJ
    Thomas Lord Department of Computer Science, University of Southern California, Los Angeles, CA 90007, USA

Journal: Journal of Computational Social Science, Volume: 7, Issue: 1
DOI: https://doi.org/10.1007/s42001-024-00250-1
Publication Date: 2024-02-22

GenAI against humanity: nefarious applications of generative artificial intelligence and large language models

Emilio Ferrara (D)Received: 10 November 2023 / Accepted: 21 January 2024 / Published online: 22 February 2024 © The Author(s) 2024

Abstract

Generative Artificial Intelligence (GenAI) and Large Language Models (LLMs) are marvels of technology; celebrated for their prowess in natural language processing and multimodal content generation, they promise a transformative future. But as with all powerful tools, they come with their shadows. Picture living in a world where deepfakes are indistinguishable from reality, where synthetic identities orchestrate malicious campaigns, and where targeted misinformation or scams are crafted with unparalleled precision. Welcome to the darker side of GenAI applications. This article is not just a journey through the meanders of potential misuse of GenAI and LLMs, but also a call to recognize the urgency of the challenges ahead. As we navigate the seas of misinformation campaigns, malicious content generation, and the eerie creation of sophisticated malware, we’ll uncover the societal implications that ripple through the GenAI revolution we are witnessing. From AI-powered botnets on social media platforms to the unnerving potential of AI to generate fabricated identities, or alibis made of synthetic realities, the stakes have never been higher. The lines between the virtual and the real worlds are blurring, and the consequences of potential GenAI’s nefarious applications impact us all. This article serves both as a synthesis of rigorous research presented on the risks of GenAI and misuse of LLMs and as a thought-provoking vision of the different types of harmful GenAI applications we might encounter in the near future, and some ways we can prepare for them.

Keywords AI • Generative AI • Large Language Models • Risks • Social media

Introduction

In March 2019, a UK-based energy firm’s CEO was duped out of . The culprit? Not a seasoned con artist, but an AI-generated synthetic voice so convincingly mimicking the company’s German parent firm’s CEO that it led to a costly misstep (see Table 1A). This incident, while startling, is just the tip of the iceberg when it comes to the nefarious potential applications of Generative Artificial Intelligence (GenAI) and Large Language Models (LLMs).
GenAI and LLMs are transforming the landscape of natural language processing, content generation, and understanding. Their potential seems endless, promising innovations that could redefine the way humans and machines interact with each other or partner to work together [10,26]. However, lurking in the shadows of these advancements are challenges that threaten the very fabric of our cybersecurity, ethics, and societal structures [15].
This paper ventures into the darker alleys of GenAI, with a focus on LLMs. From their potential role in scaling up misinformation campaigns, to the creation of targeted scams or custom-tailor-made alibies, the risks are profound [5]. From the subtle perpetuation of biases to the blatant reinforcement of stereotypes [2, 6, 21], GenAI can become mirrors reflecting and amplifying the imperfections of our society .
Imagine a world where AI-powered botnets dominate social media [7, 29], where harmful or radicalizing content is churned out by algorithms [23], and where the lines between reality and AI-generated content blur [3]. A world where the same technology that can be used to restore lost pieces of art or ancient documents [4], can also be used to fabricate evidence, craft alibis, and conceive the “perfect crime” (see Table 1B). Many of these scenarios that until recently we would have ascribed to futuristic science fiction are already enabled by GenAI and LLMs.
As we navigate the complexities of these issues, this paper highlights the urgency of robust mitigation strategies, ethical guidelines, and continuous monitoring for GenAI and LLM systems [9, 14]. This exploration not only aims to summarize rigorous research on GenAI abuse, but also to ignite a discourse on the dual nature of these technologies.

Definition and mechanisms of generative AI and LLMs

Generative AI refers to artificial intelligence systems that can generate new content, including text, images, and audio, based on existing data [3]. Unlike traditional AI, which focuses on recognizing patterns or making predictions, GenAI actively creates novel outputs. This involves complex algorithms and models that learn from large datasets, recognize underlying structures, and emulate them in unique ways [4]. Large Language Models (LLMs), a subset of GenAI systems, specifically deal with textual data [10]. They are trained on extensive corpora of text, learning language patterns, syntax, and context. LLMs like GPT (Generative Pretrained Transformer) are capable of producing coherent, contextually relevant text, resembling human writing. Their
mechanisms involve understanding input queries, accessing their extensive training data, and generating appropriate textual responses, which can range from answering questions to creating content.

Technological advancements and democratization

The democratization of Generative AI represents a pivotal change in AI technology. The early 2020s period witnessed significant advancements in the technical capabilities of GenAI, marked by improvements in machine learning algorithms, particularly in neural networks. These advancements led to the creation of more sophisticated and efficient models that are capable of understanding and generating complex data patterns.
At the same time, there was a marked decrease in the cost of developing and deploying GenAI systems. This was due to both the falling prices of computing power and the increased availability of open-source tools and platforms, making GenAI accessible to a wider range of users and developers. Furthermore, the proliferation of user-friendly interfaces and cloud-based services has made GenAI technologies more accessible to non-specialists. This broader access has catalyzed a wave of innovation and creativity across various sectors, allowing individuals and smaller organizations to take advantage of GenAI for various applications, thus democratizing the field of artificial intelligence.
Together, these factors have differentiated the current landscape of GenAI from previous generations of AI technologies, both in terms of technological sophistication and societal impact.

Regulatory landscape

The European Union (EU) and China have actively engaged in discussions to regulate Generative AI (GenAI). In the EU, the focus has been on establishing frameworks that ensure the ethical use of AI, focusing on data privacy, transparency, and accountability. The proposed regulations aim to categorize AI systems according to their risk levels and apply the corresponding oversight measures. China, on the other hand, has focused on harnessing the potential of GenAI while safeguarding national security and social stability. The Chinese approach includes stringent data control measures and guidelines to prevent the misuse of AI technologies, especially in areas like surveillance and censorship.
These divergent approaches reflect the complexities and varying priorities in GenAI governance, illustrating the challenges in creating a universally accepted regulatory framework. The policies in these regions are likely to influence global standards and practices in the GenAI domain [14].

Understanding GenAI abuse: a taxonomy

Figure 1 offers an overview of the potential dangers associated with the misuse of generative AI models by charting the intersection between the type of harm that can be inflicted and the underlying intentions of malicious actors.
The types of harm encompass threats to an individual’s personal identity, such as identity theft, privacy breaches, or personal defamation, which we term as “Harm to the Person.” Then, we have the potential for financial loss, fraud, market manipulation, and other economic harms, which fall under “Financial and Economic Damage.” The distortion of the information ecosystem, including the spread of misinformation, fake news, and other forms of deceptive content [28], is categorized as “Information Manipulation.” Lastly, broader harms that can impact communities, societal structures, and critical infrastructures, including threats to democratic processes, social cohesion, and technological systems, are captured under “Societal, Socio-technical, and Infrastructural Damage.”
On the other side of the matrix, we have the goals (i.e., intent) of malicious actors. “Deception” involves misleading individuals or entities for various purposes, such as scams, impersonation, or other fraudulent activities [16]. “Propaganda” is the intent to promote a particular political, ideological, or commercial agenda, often by distorting facts or manipulating emotions. And “Dishonesty” covers a range of activities where the truth is concealed or misrepresented for personal gain, competitive advantage, or other ulterior motives. Naturally, this dimension does not fully encompass the goals or motivations behind all possible types of misuse of GenAI, but it serves as a guide to frame nefarious applications with respect to their intent to harm.
In this matrix, each cell represents a unique combination of harm and malicious intent, illustrating the multifaceted forms of abuse possible with generative AI. For instance, AI-generated impersonation for identity theft might be found at the intersection of “Harm to the Person” and “Deception.” Similarly, AI-driven fake news campaigns to influence public opinion could be represented at the crossroads of “Information Manipulation” and “Propaganda.”
Fig. 1 Charting the landscape of nefarious applications of generative artificial intelligence and large language models
Table 1 News articles about nefarious GenAI and LLM applications
Ref. News title Media outlet URL
A Fraudsters used AI to mimic CEO’s voice in unusual cybercrime case Wall Street Journal https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402
B People are creating records of fake historical events using AI Vice https://www.vice.com/en/article/k7zqdw/people-are-creating-recor ds-of-fake-historical-events-using-ai
C ‘I don’t want to upset people’: Tom Cruise deepfake creator speaks out The Guardian https://www.theguardian.com/technology/2021/mar/05/how-started-tom-cruise-deepfake-tiktok-videos
D Do these A.I.-created fake people look real to you? New York Times https://www.nytimes.com/interactive/2020/11/21/science/artificial-intelligence-fake-people-faces.html
E Generative AI: A blessing or a curse for cybersecurity? InWeb3 https://www.inweb3.com/generative-ai-a-blessing-or-a-curse-forcybersecurity/
F Real-world AI threats in cybersecurity aren’t science fiction VentureBeat https://venturebeat.com/ai/real-world-ai-threats-in-cybersecurity-arent-science-fiction/
G AI amplifies scam calls and other deceptions Marketplace https://www.marketplace.org/2023/07/14/ai-amplifies-scam-calls-and-other-deceptions/
H Scammers use AI to mimic voices of loved ones in distress CBS News https://www.cbsnews.com/news/scammers-ai-mimic-voices-loved-ones-in-distress
I Fake or fact? The disturbing future of AI-generated realities forbes https://www.forbes.com/sites/bernardmarr/2023/07/27/fake-or-fact-the-disturbing-future-of-ai-generated-realities
J Disinformation researchers raise alarms about A.I. chatbots New York Times https://www.nytimes.com/2023/02/08/technology/ai-chatbots-disin formation.html
K GPT-4 produces misinformation more frequently, and more persuasively, than its predecessor NewsGuard https://www.newsguardtech.com/misinformation-monitor/march2023/
L The age of AI surveillance is here Quartz https://qz.com/1060606/the-age-of-ai-surveillance-is-here
M The biggest threat of deepfakes isn’t the deepfakes themselves MIT Technology Review https://www.technologyreview.com/2019/10/10/132667/the-bigge st-threat-of-deepfakes-isnt-the-deepfakes-themselves/
N Mushroom pickers urged to avoid foraging books on Amazon that appear to be written by AI The Guardian https://www.theguardian.com/technology/2023/sep/01/mushroom-pickers-urged-to-avoid-foraging-books-on-amazon-that-appear-to-be-written-by-ai
Table 2 summarizes proof-of-concept examples of scenarios in which GenAI and LLMs can be intentionally misused for dishonest, propagandist, or deceiving purposes. By understanding this framework, stakeholders can better anticipate potential threats and devise specific mitigation strategies to protect against the malicious use of generative AI.

A glimpse into days of future past

Pretend for a moment that you were Tom Cruise, and on a day like any other (back in 2021) you tap into your social media feed just to see videos of yourself playing golf and prat-falling around your home (see Table 1C). What would your reaction be if you never actually recorded and posted those videos? The malicious use of technological advancements is barely news: each new powerful technology comes with abuse. The problem of tampered footage or photoshopped multimedia is not new, but GenAI and deepfake technologies have brought about a wealth of new challenges [22].
The ability to create deepfakes, provide plausible deniability, and spread subliminal messages or deceiving content makes GenAI a potent tool in the hands of malicious actors. Let us unpack some of the most salient nefarious applications of GenAI technologies. Figure 2 provides a map of such plausible and known applications. In Table 3, we summarized several proof-of-concept examples of scenarios where GenAI and LLMs can be abused to cause personal and financial harm to people, distort the information ecosystem, and manipulate sociotechnical systems and infrastructures.

The rise of deepfakes

GenAI can produce images of people that look very real, as if they could be seen on platforms like Facebook, Twitter, or Tinder. Although these individuals do not exist in reality, these synthetic identities are already being used in malicious activities (see Table 1D).

Al-generated faces

There are businesses that offer “fake people” for purchase. For instance, on the website Generated.Photos, one can buy a “unique, worry-free” fake person for or even 1000 people for . If someone needs a few fake individuals, perhaps for a video game or to diversify a company website, they can obtain their photos for free from ThisPersonDoesNotExist.com. There is even a company named Rosebud. AI that can animate these fake personas and make them talk (the stated goal is for games and art, but the technology can be easily abused).
Table 2 Examples of intentional malicious deployments of LLMs and GenAI in the real world
Goal Application Example Proof-of-concept
Dishonesty Automated essay writing and academic dishonesty Students could use LLMs to generate essays, research papers, or assignments, bypassing the learning process and undermining academic integrity Inputting a prompt like “Write a 2000 -word essay on the impact of the Industrial Revolution on European society” into an LLM and receiving a detailed, well-structured essay in return
Generating fake research papers LLMs can be used to produce fake research papers with fabricated data, results, and references, potentially polluting academic databases or misleading researchers Feeding an LLM a prompt such as “Generate a research paper on the effects of a drug called ‘Zyphorin’ on Alzheimer’s disease” and obtaining a seemingly legitimate paper
Propaganda Impersonating celebrities or public figures LLMs can generate statements, tweets, or messages that mimic the style of celebrities or public figures, leading to misinformation or defamation Inputting “Generate a tweet in the style of [Celebrity Name] discussing climate change” and getting a fabricated tweet that appears genuine
Automated propaganda generation Governments or organizations could use LLMs to produce propaganda material at scale, targeting different demographics or regions with tailored messages Inputting “Generate a propaganda article promoting the benefits of a fictional government policy ‘GreenFuture Initiative’” and receiving a detailed article
Creating Fake Historical Documents or Texts LLMs can be used to fabricate historical documents, letters, or texts, potentially misleading historians or altering public perception of events Prompting an LLM with “Generate a letter from Napoleon Bonaparte to Josephine discussing his strategies for the Battle of Waterloo” to produce a fabricated historical document
Table 2 (continued)
Goal Application Example Proof-of-concept
Deception Generating fake product reviews Businesses could use LLMs to generate positive reviews for their products or negative reviews for competitors, misleading consumers Inputting “Generate 10 positive reviews for a fictional smartphone brand ‘NexaPhone’” and obtaining seemingly genuine user reviews
Generating realistic but fake personal stories or testimonies LLMs can be used to craft personal stories or testimonies for use in deceptive marketing, false legal claims, or to manipulate public sentiment Inputting “Generate a personal story of someone benefiting from a fictional health supplement ‘VitaBoost”‘ to obtain a convincing but entirely fabricated testimony
Crafting convincing scam emails LLMs can be used to craft highly personalized scam emails that appear to come from legitimate sources, such as banks or service providers Feeding the model information about a fictional user and a prompt like “Generate an email from a bank notifying the user of suspicious account activity” to produce a scam email
Crafting legal documents with hidden clauses Unscrupulous entities could use LLMs to generate legal documents that contain hidden, misleading, or exploitative clauses Prompting an LLM with “Generate a rental agreement that subtly gives the landlord the right to increase rent without notice” to produce a deceptive legal document
Fig. 2 Mind map of abuse and malicious applications of GenAI and large language models

Use of synthetic personas

AI-generated identities are beginning to appear on the Internet and are being used by real people with malicious intentions. Examples include spies using attractive faces to infiltrate intelligence communities, right-wing propagandists hiding behind fake profiles, and online harassers using a friendly face to troll their targets.

The perfect alibi: plausible deniability and attribution problems

The ability to generate fictitious images and videos can not only lend itself to abuse such as deepfake-fueled non-consensual porn generation, or the creation of misinformation for the sake of harassment or slander. Researchers are concerned that the same technologies could be used to construct alibis or fabricate criminal evidence in scalable and inexpensive ways [25]. Generative AI poses potential threats, especially in the realm of generating fake evidence or alibis. An article published by InWeb3 put it best in words (see Table 1E):
“These possibilities undermine trust, credibility, and accountability. They create plausible deniability, the ability to deny responsibility or involvement in an action, by generating fake evidence or alibis. They also create attribution problems, the difficulty of identifying the source or origin of an action, by generating fake identities or locations. Ethical dilemmas also arise, the conflict between moral principles or values, by generating content that violates human rights or norms.”

GenAl against the people

The potential threats posed by GenAI in the realm of cybersecurity include ad hominem attacks [11], such as automated online harassment and personalized scams (see Table 1F).
Table 3 Proof-of-concept Scenarios Highlighting the Potential for Different Type of Harms in Malicious GenAI Applications
Harm Application Example Proof-of-concept
Info. manipulation Automated social media manipulation LLMs can be used to operate multiple social media accounts, creating an illusion of grassroots movements or artificially amplifying certain narratives Deploying an LLM to manage hundreds of Twitter accounts, all pushing a specific political agenda or spreading misinformation about a public health issue
Generating fake medical advice or information LLMs can produce misleading medical information, potentially endangering individuals who might act on this false advice Asking an LLM to “Provide natural remedies for a heart condition” and receiving potentially harmful or ineffective suggestions
Crafting deceptive advertisements LLMs can be used to generate advertisements that exaggerate product capabilities or make false claims Inputting “Create an advertisement for a fictional skincare product that provides instant results” and obtaining a misleading ad that promises unrealistic outcomes
Financial harm Creating fake financial reports or data LLMs can be used to generate false financial data or reports, potentially misleading investors or manipulating stock prices Prompting an LLM with “Generate a quarterly financial report for a fictional tech company ‘TechNova’ showing a X% profit increase”‘ to obtain a detailed but fabricated financial document
Generating scripts for scam calls LLMs can produce scripts for scam calls, making them sound more genuine and increasing the likelihood of deceiving individuals Asking an LLM to “Create a script for a call claiming to be from the IRS, notifying the recipient of unpaid taxes” to produce a convincing scam script
Table 3 (continued)
Harm Application Example Proof-of-concept
Personal and identity harm Fake personal profiles and identities LLMs can craft detailed personal profiles, complete with background stories, for use in scams, catfishing, or espionage Prompting an LLM with “Generate a detailed profile of a fictional journalist named ‘Alexa Morgan”” and receiving a comprehensive backstory, educational history, and career achievements
Automated online harassment LLMs can be deployed to target individuals online, sending them personalized and harmful messages at scale Using an LLM to manage multiple online accounts that continuously post derogatory comments on a specific individual’s social media posts
Generating fake evidence or alibis LLMs can craft detailed narratives or digital content that serve as false evidence or alibis in legal cases Asking an LLM to “Provide a detailed alibi for someone claiming to be at a conference in Boston from June 1-5, 2023” and receiving a comprehensive itinerary, complete with fictional events and interactions
Tecno-social harm Fake technical support scams LLMs can be used to generate scripts or guides that mislead individuals into thinking they’re receiving legitimate technical support, leading them to compromise their devices or data Prompting an LLM with “Create a guide for fixing a computer virus” and obtaining a guide that, instead, instructs users to download malicious software
Generating biased or prejudiced content LLMs, if not properly fine-tuned, can produce content that reflects societal biases, potentially perpetuating stereotypes or prejudice Asking an LLM about descriptions of different cultures or groups and receiving outputs that contain biased or stereotypical information

Al against users

The primary targets of AI-powered attacks are not just vulnerable systems, but also human users behind those systems. AI technology can scrape personal identifiable information (PII) and gather social media data about potential victims. This enhanced data collection can help criminals craft more detailed and convincing social engineering efforts than traditional human attackers.

Bespoke spear phishing

While “phishing” involves generic email lures, “spear phishing” involves collecting data on a target and crafting a personalized email [12]. Historically, spear phishing was primarily used against governments and businesses. However, with AI tools that can scrape data from various sources, spear phishing will become more common and more effective.

Automated harassment

Beyond data theft and blackmail, GenAI can be used for automated harassment. Cybercriminals, as well as individuals with malicious intent, can use GenAI technology to launch harassment campaigns that result in service disruptions, ruined reputations, or more traditional forms of online harassment. Victims could range from businesses to private individuals or public figures. Tactics might include the creation of fake social media accounts used to spread lies or automated phone calls using voice over IP (VoIP) services. The automation of harassment processes could create a relentless and potentially untraceable campaign against victims.

Fake people, real consequences

The use of LLMs in conjunction with other GenAI tools can bring to life synthetic personas used for scams, swindles, and other deceptions (see Table 1G).

Fake users, real money scams

GenAI can be used to scale up the generation of synthetic personal data, including fake accounts and fake transactions (see Table 1G). For example, JPMorgan Chase discovered that its acquisition of a college financial aid platform included numerous fictitious accounts. The platform was believed to contain 4.25 million customer accounts, but the bank later found that only 300,000 were legitimate. The platform vendor allegedly hired a data scientist to fabricate the majority of the accounts. Similarly, Wells Fargo faced penalties when it was revealed that employees had opened at least 3.5 million new accounts using data from existing customers without their consent. By creating fake PINs and email addresses, funds were transferred from legitimate to fraudulent accounts. Fake accounts have also been a problem in the social media and online retail sectors, leading to issues like spamming, fake reviews,
and user-spoofing-powered fraud. For instance, PayPal disclosed that it believed 4.5 million of its accounts were not legitimate and possibly fraudulent.

Kidnapped by a bot?

Generative AI can copy voices and likenesses, making it possible for individuals to appear as if they are saying or doing almost anything. This technology is similar to “deepfake” videos but applies to voices.
AI-generated voices in scams: AI-generated voices are being used to enhance scams, making them more convincing (see Table 1H). For instance, people have received calls from what sounds like a relative asking for money, but the voice was generated by artificial intelligence as part of a fraudulent scheme.
Voice spoofing and ransom: Threat actors can easily obtain a few seconds of someone’s voice from social media or other audio sources and use generative AI to produce entire scripts of whatever they want that person to say. This has led to scams in which children appear to call their parents asking for a wire transfer for ransom (see Table 1I).
Voice authentication: AI can be used to bypass voice authentication systems. For example, some financial services companies allow users to download information based on voice recognition. AI can potentially be used to mimic these voices and gain unauthorized access.

Opening the floodgates to disinformation

LLMs have the ability to craft persuasive content that can parrot false narratives and conspiracy theories, effectively and at scale (see Table 1J). Some concerned researchers recently described Large Language Models like ChatGPT as weapons of mass deception [24]. It seems undeniable that the potential for GenAI and LLMs to craft fictitious, nonfactual, inaccurate, or deceiving content is unparalleled [17].

LLMs and disinformation

Soon after the launch of ChatGPT, researchers tested its ability to produce content based on questions filled with conspiracy theories and false narratives. The AI-generated content was so convincing that Gordon Crovitz, a co-chief executive of NewsGuard (a company that tracks online misinformation), stated, “This tool is going to be the most powerful tool for spreading misinformation that has ever been on the Internet.”

ChatGPT’s capabilities

ChatGPT can produce convincing content rapidly without revealing its sources. When supplied with disinformation-loaded questions, it can generate clean variations of the content en masse within seconds. When researchers from NewsGuard asked ChatGPT to produce content based on false narratives, the AI complied about
of the time (see Table 1 K ). For instance, when asked to write from the perspective of conspiracy theorist Alex Jones about the Parkland shooting, ChatGPT produced content that falsely claimed the mainstream media and the government used “crisis actors” to push a gun-control agenda.

All systems down

Yet, the potential misuse of GenAI could have its most catastrophic consequences when looking at socio-technical systems and infrastructures. When deployed at a planetary scale, GenAI’s influence extends beyond mere technological advancements: it has the potential to profoundly impact the very foundations of our economy, democracy, and infrastructure. Targeted surveillance, censorship, and synthetic realities have been topics of concern in research community.

Hyper-targeted surveillance

Enhanced by GenAI, surveillance capabilities, such as facial recognition systems, can reach unprecedented levels of accuracy. When integrated with other individual information and online data, these systems could not only recognize but also predict individual behaviors. Such advancements, while promising in the context of security, raise alarming concerns about privacy and individual rights. We may be soon be entering an age of ubiquitous GenAI-driven surveillance (see Table 1L).

Total information control

The intersection of GenAI with content moderation and censorship poses significant challenges to democratic values [30]. While LLMs can efficiently detect and remove harmful content from digital platforms, the potential for misuse, especially by authoritarian regimes, is concerning. The risk of suppressing dissenting voices and curating a single narrative threatens the very essence of democracy.

Entirely synthetic realities

In the era of synthetic realities-augmented reality (AR), virtual reality (VR), and the expansive metaverse-Generative Artificial Intelligence (GenAI) stands as a powerful architect. With its capability to craft intricate and indistinguishable virtual environments, GenAI has the potential to redefine our perception of reality itself. However, this transformative power is not without its pitfalls. As these synthetic realities become increasingly immersive and indistinguishable from our physical world, there lies a profound risk of manipulation. Unscrupulous entities could exploit GenAIgenerated environments to influence individuals’ beliefs, emotions, and behaviors. From subtly altering virtual advertisements to resonate more with individual preferences, to creating entire virtual narratives that push specific agendas or ideologies, the potential for psychological and behavioral manipulation is vast. As we embrace the wonders of synthetic realities, it becomes imperative to remain vigilant, ensuring
that the line between the virtual and the real remains discernible, and that our agency within these realms is preserved.

Systemic aberrations

Lastly, the ability of GenAI to manipulate public opinion can have cascading effects on planetary scale systems. From influencing stock markets to swaying election outcomes, the ramifications are vast and varied. In conclusion, as we navigate the intricate landscape of GenAI, it is imperative to recognize its massive scale implications. While the opportunities are immense, the challenges are equally daunting. Addressing the ethical, security, and societal concerns associated with GenAI is not just a technological endeavor but a global responsibility.

Dual nature technologies: GenAl’s double-edged sword

GenAI systems, with their ability to generate content, simulate voices, and even recreate historical artifacts, have opened up a plethora of opportunities across various sectors. However, with great power comes great responsibility, and the dual nature of these technologies necessitates a comprehensive understanding of their risks and benefits. Table 4 illustrates a few application scenarios where a cost-benefit analysis should inform whether the opportunity created by using GenAI far outweighs the potential danger and risks that it will enable.
Take, for instance, the restoration of historical artifacts. Generative AI has shown promise in recreating or restoring damaged historical artifacts and paintings, breathing new life into our shared cultural heritage [4]. Museums and historians can leverage this technology to provide a more immersive experience for visitors, allowing them to witness history in its full glory. Yet, the same capability can be misused to fabricate fake artifacts, misleading historians and collectors, or attempting to rewrite or distort our understanding of the past. Similarly, scalable and cheap creation of fake identities, fabricated documentation, or fraudolent evidence, might be enabled by GenAI’s ability to create seemingly legitimate documents, whose quality might match that of costly custom-made fakes (see Table 5, left figure). The medical field, too, is not immune to the double-edged sword of generative AI. While AI-generated medical images can provide invaluable training resources for medical students without compromising patient privacy [20], the potential for fabricating medical images poses risks of misdiagnoses, fraudulent research, and insurance scams.
The realm of personalized content generation offers both promise and danger. On the one hand, GenAI-driven curation can enhance user experiences on streaming platforms, tailoring content to individual preferences, and ensuring more enjoyable and bespoke experiences. On the other hand, this personalization can be weaponized to spread misinformation or propaganda, manipulating individual beliefs and behaviors to serve malicious agendas. Take the DeepTomCruise example from earlier: Although these particular videos were relatively harmless, the proof-ofconcept highlighted the potential misuse in more sensitive areas like politics. There have been concerns that deepfakes are being used to create fake endorsements or to
Table 4 Antithetic scenarios demonstrating the dual nature of GenAI’s capabilities
Scenario Opportunity Danger
Fabrication of historical artifacts GenAI can be used to recreate or “restore” historical artifacts or paintings The danger lies in the potential misuse of this capability to create fake historical artifacts and sell them as genuine, misleading historians and collectors
Personalized content generation GenAI can curate content tailored to individual preferences, enhancing user experience on platforms like streaming services or online shopping sites The same technology can be exploited to create hyper-targeted misinformation or propaganda campaigns, manipulating individuals’ beliefs or behaviors
Voice synthesis and cloning GenAI can be used to recreate voices of historical figures or digital assistive caretakers, allowing for unique educational or therapeutic experiences This capability can be misused to generate fake audio recordings, leading to scams, misinformation, or even potential security breaches
Voice-based services LLMs can enhance voice-based services, providing users with natural and engaging interactions LLMs, when combined with voice synthesis tools, can be used for scam calls, generating scripts that sound convincing
Medical image generation GenAI can generate medical images for training and educational purposes, providing medical students with diverse cases without compromising patient privacy The technology can be exploited to fabricate medical images, leading to misdiagnoses, fraudulent research, or insurance scams
VR and AR enhancements GenAI can enhance VR and AR experiences, making them more immersive and realistic for education, training, or entertainment Misuse can lead to the creation of manipulated realities that distort historical events, spread false information, or even create harmful psychological experiences
Language translation GenAI can break down language barriers, allowing for real-time translation and fostering global communication It can be misused to generate misleading translations with the intent of causing misunderstandings, conflicts, or spreading fabricated narratives
Automated social media content LLMs can be used to automate content generation for businesses on social media, ensuring consistent engagement and timely responses to user queries LLMs can be deployed to operate multiple social media accounts, creating an illusion of grassroots movements or artificially amplifying certain narratives
Medical information LLMs can assist in providing general medical information to users, helping spread awareness about common health issues and preventive measures LLMs can produce misleading medical information, potentially endangering individuals who might act on this false advice
Advertisements LLMs can assist businesses in crafting engaging advertisements and detailed product descriptions LLMs can be used to generate deceptive advertisements that exaggerate product capabilities or make false claims
Financial reports LLMs can assist financial analysts in generating reports, offering insights into market trends and predictions LLMs can be used to generate false financial data or reports, misleading investors or manipulating stock prices
Table 5 (L) From fake IDs to synthetic identities, GenAI can foster a boom of fabricated documents and personas (source: Superbad ©). (C) MidJourney v5 is already capable of generating lifelike depictions of never-occurred events (prompt: president biden and supreme leader of iran shaking hands). (R) Subliminal messages can be incorporated into generated content (the optical illusion reads )
spread misinformation during election campaigns (see Table 1M). Digital book marketplaces have been flooded by AI-generated books, many of which lack any basic fact-checking and quality assurance, sometimes providing dangerous (i.e., hallucinated [13]) information to an inattentive reader (see Table 1N). GenAI could be used to depict never-occurred events with serious public diplomacy consequences (see Table 5, center figure). Furthermore, these technologies are sufficiently advanced to implement old-school infuence strategies like the injection of subliminal messages, in a fully automated way (see Table 5, right figure).

Recommendations

In the box “Recommendations to Mitigate GenAI Abuse”, we provide a non-exhaustive list of plausible technical and socio-technical approaches that might help in mitigating GenAI abuse. It should be noted that most of these approaches would work for complying actors, in other words, entities who are willing to comply with regulations, rather than having mischievous or illicit intents [19]. Given the inherent complexities, a robust risk mitigation strategy is imperative. This involves continuous monitoring of AI output, the establishment of ethical guidelines for the implementation of GenAI, and the promotion of transparency in AI-driven processes. Stakeholders must also be educated about the potential pitfalls of generative AI, ensuring informed decision-making at every step.
Furthermore, a comprehensive risk-benefit analysis should be conducted before deploying any generative AI system. This analysis should weigh the potential advantages against the possible harms, considering both short-term and long-term implications. Only by understanding and addressing these challenges head-on can we harness the full potential of generative AI while safeguarding our societal values and norms.
In conclusion, as we navigate the intricate tapestry of generative AI , a balanced approach that recognizes both its transformative potential and inherent risks is crucial. By adopting proactive risk mitigation strategies and conducting thorough
risk-benefit analyses, we can ensure that generative AI serves as a force for good, driving innovation while preserving the integrity of our digital and physical worlds.
Recommendations to mitigate GenAI abuse proof of identity: Proof of identity refers to the verification of an individual’s or entity’s identity using specific documents or digital methods. Examples include technologies like humanID, OpenID, next-generation CAPTCHAs [27], etc. In GenAI:
  • Proof of Identity can ensure that AI-generated content or actions can be traced back to a legitimate source.
  • Methods might include multi-factor authentication, biometric verification, or digital certificates.
Authentication protocols: Authentication protocols are processes or systems used to confirm the identity of an individual, system, or entity. In the context of GenAI:
  • These protocols can verify whether content, actions, or requests generated by an AI system are legitimate [18].
  • Methods can include blockchain-based authentication, token-based systems, or cryptographic methods.
Audience disclaimers: Audience disclaimers are explicit notifications provided to audiences to inform them about the nature of the content they are consuming.
  • For AI-generated content, it’s crucial to inform audiences that what they’re viewing, reading, or listening to was produced by an algorithm [18].
  • This promotes transparency and allows consumers to critically assess the content.
Content labeling: Content labeling involves tagging content to indicate its nature, source, or other relevant attributes.
  • AI-generated content can be labeled to distinguish it from human-generated, ensuring users are aware of its origin.
  • Labels can be visual tags, metadata, or even auditory cues.
Source verification and provenance: Source verification is the process of confirming the authenticity and origin of a piece of information or content.
  • Provenance refers to the chronology of the ownership, custody, or location of an item or piece of content.
  • In GenAI, ensuring the provenance of data or content helps in maintaining its integrity and trustworthiness. Blockchain technology, for instance, can be used to trace the provenance of AI-generated content.
Digital watermarking: Digital watermarking involves embedding a digital signal or pattern into data, making it possible to verify its authenticity or detect tampering.
  • For AI-generated content, watermarking can help in identifying and distinguishing it from human-generated content.
  • It provides a layer of security and traceability, ensuring that any alterations to the original content can be detected.

Conclusions

Large Language Models (LLMs) and other Generative Artificial Intelligence (GenAI) systems have emerged as a transformative force offering unprecedented capabilities in natural language processing and multimodal content generation, and understanding. While the potential benefits of these technologies are vast, their rapid proliferation has created a myriad of malicious applications that pose significant threats to cybersecurity, ethics, and society at large.
This paper explores the darker side of generative AI applications, with a special emphasis on LLMs. We discuss potential misuse in misinformation campaigns, the generation of malicious content that can bypass traditional security filters, and the creation of sophisticated malware, including the use of LLMs as intermediaries for malware attacks. We then examine the societal implications of GenAI and LLMs, from their role in AI-powered botnets on social media to their potential to generate harmful or radicalizing content.
Our findings underscore the pressing need for robust mitigation strategies, ethical guidelines, and continuous monitoring to ensure the responsible deployment and use of GenAI and LLMs. Our aim is to raise awareness of the dual-edge nature of GenAI and LLMs, and to advocate for a balanced approach that harnesses their capabilities while safeguarding against their nefarious applications.
Acknowledgements Work supported in part by DARPA (contract #HR001121C0169).
Funding Open access funding provided by SCELC, Statewide California Electronic Library Consortium.
Data availibility No data was used in this work.

Declarations

Conflict of interest The author declares no conflict of interest.
Open Access This article is licensed under a Creative Commons Attribution 4.0 International License, which permits use, sharing, adaptation, distribution and reproduction in any medium or format, as long as you give appropriate credit to the original author(s) and the source, provide a link to the Creative Commons licence, and indicate if changes were made. The images or other third party material in this article are included in the article’s Creative Commons licence, unless indicated otherwise in a credit line to the material. If material is not included in the article’s Creative Commons licence and your intended use is not permitted by statutory regulation or exceeds the permitted use, you will need to obtain permission
directly from the copyright holder. To view a copy of this licence, visit http://creativecommons.org/ licenses/by/4.0/.

References

  1. Baeza-Yates, R. (2018). Bias on the web. Communications of the ACM, 61(6), 54-61.
  2. Caliskan, A., Bryson, J. J., & Narayanan, A. (2017). Semantics derived automatically from language corpora contain human-like biases. Science, 356(6334), 183-186.
  3. Cao, Y., Li, S., Liu, Y., Yan, Z., Dai, Y., Yu, P. S., & Sun, L. (2023). A comprehensive survey of AI-generated content (AIGC): A history of generative AI from GAN to ChatGPT. arXiv preprint. arXiv:2303. 04226v1 [cs.AI]
  4. Epstein, Z., Hertzmann, A., Investigators of Human Creativity, Akten, M., Farid, H., Fjeld, J., Frank, M. R., Groh, M., Herman, L., Leach, N., et al. (2023). Art and the science of generative AI. Science, 380(6650), 1110-1111.
  5. Ferrara, E. (2019). The history of digital spam. Communications of the ACM, 62(8), 82-91.
  6. Ferrara, E. (2023). Should ChatGPT be biased? Challenges and risks of bias in large language models. First Monday, 28(11).
  7. Ferrara, E. (2023). Social bot detection in the age of ChatGPT: Challenges and opportunities. First Monday, 28(6).
  8. Ferrara, E. (2024). The butterfly effect in artificial intelligence systems: Implications for AI bias and fairness. Machine Learning with Applications, 15, 100525.
  9. Floridi, L. (2019). Establishing the rules for building trustworthy AI. Nature Machine Intelligence, 1(6), 261-262.
  10. Fui-Hoon Nah, F., Zheng, R., Cai, J., Siau, K., & Chen, L. (2023). Generative AI and ChatGPT: Applications, challenges, and AI-human collaboration. Journal of Information Technology Case and Application Research, 25(3), 277-304.
  11. Gupta, M., Akiri, C., Aryal, K., Parker, E., & Praharaj, L. (2023). From ChatGPT to ThreatGPT: Impact of generative AI in cybersecurity and privacy. IEEE Access, 11, 80218-80245.
  12. Jagatic, T. N., Johnson, N. A., Jakobsson, M., & Menczer, F. (2007). Social phishing. Communications of the ACM, 50(10), 94-100.
  13. Ji, Z., Lee, N., Frieske, R., Yu, T., Su, D., Xu, Y., Ishii, E., Bang, Y. J., Madotto, A., & Fung, P. (2023). Survey of hallucination in natural language generation. ACM Computing Surveys, 55(12), 1-38.
  14. Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389-399.
  15. Köbis, N., Bonnefon, J.-F., & Rahwan, I. (2021). Bad machines corrupt good morals. Nature Human Behaviour, 5(6), 679-685.
  16. Kshetri, N. (2022). Scams, frauds, and crimes in the nonfungible token market. Computer, 55(4), 60-64.
  17. Mazurczyk, W., Lee, D., & Vlachos, A. (2024). Disinformation 2.0 in the age of AI: A cybersecurity perspective. arXiv preprint arXiv:2306.05569.
  18. Menczer, F., Crandall, D., Ahn, Y.-Y., & Kapadia, A. (2023). Addressing the harms of AI-generated inauthentic content. Nature Machine Intelligence, 2023, 1-2.
  19. Mozes, M., He, X., Kleinberg, B., & Griffin, L. D. (2023). Use of LLMs for illicit purposes: Threats, prevention measures, and vulnerabilities. arXiv:2308.12833.
  20. Ricci Lara, M. A., Echeveste, R., & Ferrante, E. (2022). Addressing fairness in artificial intelligence for medical imaging. Nature Communications, 13(1), 4581.
  21. Schramowski, P., Turan, C., Andersen, N., Rothkopf, C. A., & Kersting, K. (2022). Large pre-trained language models contain human-like biases of what is right and wrong to do. Nature Machine Intelligence, 4(3), 258-268.
  22. Seymour, M., Riemer, K., Yuan, L., & Dennis, A. R. (2023). Beyond deep fakes. Communications of the ACM, 66(10), 56-67.
  23. Shaw, A. (2023). Social media, extremism, and radicalization. Science Advances, 9(35), eadk2031.
  24. Sison, A. J. G., Daza, M. T., Gozalo-Brizuela, R., & Garrido-Merchán, E. C. (2023). ChatGPT: More than a “weapon of mass deception” ethical challenges and responses from the human-centered artificial intelligence (HCAI) perspective. International Journal of Human-Computer Interaction. https://doi. org/10.2139/ssrn. 4423874
  25. Treleaven, P., Barnett, J., Brown, D., Bud, A., Fenoglio, E., Kerrigan, C., Koshiyama, A., Sfeir-Tait, S., & Schoernig, M. (2023). The future of cybercrime: AI and emerging technologies are creating a cybercrime tsunami. Social Science Research Network. https://doi.org/10.2139/ssrn. 4507244
  26. Van Dis, E. A. M., Bollen, J., Zuidema, W., van Rooij, R., & Bockting, C. L. (2023). ChatGPT: Five priorities for research. Nature, 614(7947), 224-226.
  27. Von Ahn, L., Blum, M., & Langford, J. (2004). Telling humans and computers apart automatically. Communications of the ACM, 47(2), 56-60.
  28. Vosoughi, S., Roy, D., & Aral, S. (2018). The spread of true and false news online. Science, 359(6380), 1146-1151.
  29. Yang, K.-C., & Menczer, F. (2023). Anatomy of an AI-powered malicious social botnet. arXiv:2307. 16336.
  30. Ziems, C., Held, W., Shaikh, O., Chen, J., Zhang, Z., & Yang, D. (2023). Can large language models transform computational social science? arXiv:2305.03514.
Publisher’s Note Springer Nature remains neutral with regard to jurisdictional claims in published maps and institutional affiliations.

  1. Emilio Ferrara
    emiliofe@usc.edu
    https://scholar.google.com/citations?user=0r7Syh0AAAAJ
    Thomas Lord Department of Computer Science, University of Southern California, Los Angeles, CA 90007, USA