هل كنت تتخيّل أن الذكاء الاصطناعي يُستخدم للأسلحة؟

هل كنت تتخيّل أن الذكاء الاصطناعي يُستخدم للأسلحة؟


أعلنت شركة أنثروبيك عن تحديث سياسة استخدام روبوتها الذكي "كلود" استجابة للمخاوف المتزايدة بشأن السلامة. التحديث يشدد القيود على تطوير الأسلحة، حيث يمنع الآن صراحة استخدام كلود لتطوير أسلحة بيولوجية، كيميائية، نووية، أو إشعاعية (CBRN)، بالإضافة إلى القنابل عالية الانفجار. كما طبّقت الشركة مستوى حماية جديد "AI Safety Level 3" مع إصدار نموذج كلود أوبوس 4، بهدف صعوبة اختراق النموذج ومنع مساهمته في تطوير هذه الأسلحة.


كما أضافت أنثروبيك قيودًا جديدة على استخدام كلود لأغراض التحكم بالحواسيب أو استغلال الثغرات الأمنية، وتشمل منع تطوير البرمجيات الخبيثة أو أدوات الهجمات الإلكترونية. من جهة أخرى، خففت الشركة القيود المتعلقة بالمحتوى السياسي، بحيث يمنع فقط الاستخدامات التي تُضلل أو تعرقل العمليات الديمقراطية أو تستهدف الناخبين وحملاتهم، بينما تبقى القيود على الاستخدامات عالية المخاطر مخصصة للسيناريوهات الموجهة للمستهلكين وليس للأعمال التجارية.

شارك هذا المقال