تطوير إجراءات حماية ChatGPT بعد الدعوى القضائية
أعلنت شركة OpenAI عن تطوير آلية حماية جديدة لتطبيق ChatGPT بعد رفع دعوى قضائية نتيجة انتحار مراهق استخدم التطبيق للحصول على معلومات حول الانتحار. وتركز التحديثات على تعزيز الضمانات الشاملة، تحديث حظر المحتوى، توسيع نطاق التدخل في الحالات الطارئة، وتوفير إمكانية إشراك أحد الوالدين في المحادثة عند الحاجة. الهدف الرئيسي من هذه الإجراءات هو منع تفاقم الحالات النفسية الحساسة وحماية المستخدمين، خصوصًا الفئة العمرية الصغيرة.
تحسين استجابة GPT-5 وتقليل المخاطر النفسية
صرّح الرئيس التنفيذي سام ألتمان بأن نموذج GPT-5 الجديد يحسن استجابة روبوت المحادثة، ويقلل الاعتماد العاطفي على النظام، ويخفض الأخطاء المتعلقة بالصحة العقلية بنسبة أكثر من 25%. كما يوفر النموذج إمكانيات للآباء لمراقبة استخدام أبنائهم للتطبيق، بما يتيح لهم معرفة كيفية تفاعل الأطفال مع روبوت المحادثة واتخاذ إجراءات وقائية عند الحاجة.
أسلوب التدريب الجديد "الإكمال الآمن"
استند GPT-5 إلى أسلوب تدريب جديد يُعرف باسم "الإكمال الآمن"، والذي يعلّم النموذج تقديم إجابات مفيدة مع الالتزام بالحدود الأمنية. يسمح هذا الأسلوب بتقديم إجابات جزئية أو شاملة بدلًا من تفاصيل قد تكون خطرة، مما يعزز قدرة النظام على التعامل مع الاستفسارات الحساسة والمواقف النفسية الحرجة.
تعزيز المراقبة الأبوية وربط المستخدمين بالخبراء
تتيح التحديثات الجديدة للآباء مزيدًا من التحكم في استخدام الأطفال للتطبيق، بينما يُسهل النظام على المستخدمين الاتصال بخدمات الطوارئ أو المعالجين المعتمدين في الحالات الحرجة. كما تُدرّس OpenAI طرقًا لتسهيل التواصل مع الأقارب أو الأصدقاء الموثوقين، بما يشمل اختيار جهات اتصال للطوارئ وإدارة الحوار لدعم المستخدمين في المواقف النفسية الصعبة.
الخلاصة التحليلية
تسعى OpenAI من خلال هذه الإجراءات إلى تعزيز السلامة النفسية وحماية المستخدمين، مع الحد من الاعتماد العاطفي على ChatGPT وتحسين استجاباته لحالات الطوارئ. رغم ذلك، يبقى السؤال حول مدى فعالية هذه التحديثات في المواقف الواقعية، خصوصًا مع الحالات النفسية الحرجة والمعقدة. الحفاظ على سلامة المستخدمين يتطلب مراقبة مستمرة وتقييم دقيق لضمان نجاح هذه الإجراءات قبل تعميمها على نطاق واسع.
OpenAI تطور حماية ChatGPT بعد حادثة انتحار مراهق .
