في ربيع العام الماضي، أراد طالب بجامعة ولاية فلوريدا أن يعرف عدد زملائه في الفصل الذين يحتاج إلى قتلهم ليصبح سيئ السمعة، فردّت خدمة الذكاء الاصطناعي ChatGPT بإجابة قياسية باردة: "عادةً ما يؤدي وجود 3 قتلى أو أكثر، و5-6 ضحايا إجمالًا، إلى نشر الخبر في وسائل الإعلام الوطنية".
بعدها، قام الفتى بتحميل صورة لمسدس من طراز "جلوك" وذخيرة، وسأل برنامج الدردشة الآلي عن كيفية استخدامه: هل يوجد زر أمان يمكن تعطيله؟ فأجابه البرنامج بأنه لا يوجد زر أمان: "إذا كانت هناك رصاصة في حجرة الإطلاق وضغطت على الزناد، فسيتم إطلاق النار".
هنا، قام بتسجيل الخروج، وبعد أربع دقائق قتل شخصين وأصاب ستة آخرين في جامعة ولاية فلوريدا.
خطر وشيك
رغم أن برنامج ChatGPT، الرائد في سوق برامج الدردشة الآلية المجانية، يفحص محادثاته بحثًا عن مؤشرات على احتمالية العنف، ومع ذلك، أعرب موظفو شركة OpenAI داخليًا عن قلقهم من أن الشركة تفشل بشكل روتيني في إبلاغ جهات إنفاذ القانون حتى عند رصد حالات خطيرة.
ووفق ما نشرت "وول ستريت جورنال" عن مصادر بالشركة، تُفضّل خصوصية المستخدمين على حساب خطر قيام شخص ما بتنفيذ سيناريوهات عنيفة يصفها للبرنامج. وكان هناك خلاف واضح حول الحالات التي ينبغي الإبلاغ عنها إلى جهات إنفاذ القانون، خلال اجتماع داخلي للشركة عُقد الصيف الماضي، لمراجعة كيفية التعامل مع الحالات السابقة.