
كشف تحقيق أمني أن نموذج الذكاء الاصطناعي "شات جي بي تي" في نسخته الأحدث GPT-4.1 قدّم تعليمات تفصيلية لتنفيذ عمليات إرهابية، بما في ذلك كيفية شن هجوم داخل قاعة أو ملعب رياضي، مع تحديد نقاط الضعف في ملاعب مختلفة حول العالم وتقديم نصائح للهروب الآمن من الموقع.
كما أشار التقرير إلى أن النموذج قدّم أيضًا إرشادات لتحويل مادة الأنثراكس إلى سلاح بيولوجي، بالإضافة إلى توجيهات لتصنيع نوعين من المخدرات المحظورة.
الاختبار أُجري في إطار تعاون غير معتاد بين شركة OpenAI، المطوّرة لنموذج "شات جي بي تي" التي أسسها سام ألتمان، وشركة Anthropic، وهي شركة منافسة أسسها خبراء سابقون في OpenAI بعد أن أعربوا عن مخاوف تتعلق بالسلامة والأمان.
خلال التعاون، اختبرت كل شركة نماذج الشركة الأخرى بهدف دفعها لتقديم مساعدات في تنفيذ مهام خطيرة أو هجمات إرهابية، وذلك في إطار تقييم حدود الأمان.
في المقابل، اكتشف باحثو شركة Anthropic أن نموذجهم "كلود" استُخدم من قبل عملاء تجسس كوريين لتزييف طلبات توظيف لدى شركات تكنولوجيا دولية، كما استُخدم في تطوير برمجيات فدية وابتزاز المستخدمين بمبالغ وصلت إلى 1200 دولار مقابل عدم نشر معلوماتهم الخاصة.
الشركتان أكدتا أنهما قررتا نشر هذه النتائج من أجل تعزيز الشفافية وتخفيف القلق لدى المستخدمين، وأعلنتا عن التزامهما باتخاذ خطوات إضافية لتقليل المخاطر المرتبطة باستخدام نماذج الذكاء الاصطناعي.