يظهر أكثر من مليون شخص كل أسبوع نية انتحارية عند الدردشة مع ChatGPT، وفقًا لتقديرات OpenAI | تكنولوجيا

0 Comments


أكثر من مليون ChatGPT يرسل المستخدمون كل أسبوع رسائل تتضمن “مؤشرات صريحة على التخطيط أو النية الانتحارية المحتملة”، وفقًا لمدونة نشرتها OpenAI يوم الاثنين. يعد هذا الاكتشاف، وهو جزء من تحديث حول كيفية تعامل روبوت الدردشة مع المحادثات الحساسة، أحد أكثر التصريحات المباشرة من عملاق الذكاء الاصطناعي على نطاق كيف يمكن للذكاء الاصطناعي أن يؤدي إلى تفاقم مشكلات الصحة العقلية.

بالإضافة إلى تقديراتها بشأن الأفكار الانتحارية والتفاعلات ذات الصلة، قالت OpenAI أيضًا أن حوالي 0.07 من المستخدمين النشطين في أسبوع معين – حوالي 560.000 من مستخدميها المعلنين 800 مليون مستخدم أسبوعيًا – إظهار “العلامات المحتملة لحالات طوارئ الصحة العقلية المتعلقة بالذهان أو الهوس”. وحذر المنشور من صعوبة اكتشاف هذه المحادثات أو قياسها، وأن هذا تحليل أولي.

بينما تنشر شركة OpenAI بيانات حول قضايا الصحة العقلية المتعلقة بمنتجها البارز، تواجه الشركة تدقيقًا متزايدًا بعد دعوى قضائية حظيت بتغطية إعلامية كبيرة من عائلة صبي مراهق مات منتحرًا بعد تعامل مكثف مع ChatGPT. لجنة التجارة الفيدرالية الشهر الماضي بالإضافة إلى ذلك أطلقت تحقيقا واسع النطاق في الشركات التي تنشئ روبوتات محادثة تعمل بالذكاء الاصطناعي، بما في ذلك OpenAI، لمعرفة كيفية قياس التأثيرات السلبية على الأطفال والمراهقين.

ادعى OpenAI في منشوره أنه تم تحديثه مؤخرًا تحديث جي بي تي-5 خفضت عدد السلوكيات غير المرغوب فيها من منتجها وحسّنت سلامة المستخدم في تقييم نموذجي يشمل أكثر من 1000 محادثة حول إيذاء النفس والانتحار. ولم ترد الشركة على الفور على طلب للتعليق.

جاء في منشور الشركة: “تسجل تقييماتنا الآلية الجديدة أن نموذج GPT-5 الجديد متوافق بنسبة 91% مع السلوكيات المرغوبة لدينا، مقارنة بـ 77% لنموذج GPT-5 السابق”.

ذكرت OpenAI أن GPT-5 وسعت الوصول إلى الخطوط الساخنة للأزمات وأضافت تذكيرات للمستخدمين لأخذ فترات راحة أثناء الجلسات الطويلة. ولإجراء تحسينات على النموذج، قالت الشركة إنها جندت 170 طبيبًا من شبكة الأطباء العالمية لخبراء الرعاية الصحية للمساعدة في أبحاثها خلال الأشهر الأخيرة، والتي تضمنت تقييم سلامة استجابات نموذجها والمساعدة في كتابة إجابات برنامج الدردشة الآلي على الأسئلة المتعلقة بالصحة العقلية.

وقالت OpenAI: “كجزء من هذا العمل، قام الأطباء النفسيون وعلماء النفس بمراجعة أكثر من 1800 استجابة نموذجية تنطوي على مواقف خطيرة تتعلق بالصحة العقلية وقارنوا الاستجابات من نموذج الدردشة GPT-5 الجديد بالنماذج السابقة”. يتضمن تعريف الشركة لكلمة “مرغوب فيه” تحديد ما إذا كانت مجموعة من خبرائها قد توصلوا إلى نفس النتيجة حول ما يمكن أن يكون الرد المناسب في مواقف معينة.

لطالما كان باحثو الذكاء الاصطناعي والمدافعون عن الصحة العامة حذرين من روبوتات الدردشة. الميل إلى تأكيد قرارات المستخدمين أو الأوهام بغض النظر عما إذا كانت ضارة، وهي مشكلة تعرف باسم التملق. لقد توصل خبراء الصحة العقلية كما كانت تشعر بالقلق حول الأشخاص الذين يستخدمون روبوتات الدردشة المدعمة بالذكاء الاصطناعي للحصول على الدعم النفسي، وحذروا من مدى إمكانية إلحاق الضرر بالمستخدمين الضعفاء.

اللغة الواردة في منشور OpenAI تبعد الشركة عن أي روابط سببية محتملة بين منتجها وأزمات الصحة العقلية التي يعاني منها مستخدموها.

تخطي ترويج النشرة الإخبارية السابقة

وجاء في منشور OpenAI أن “أعراض الصحة العقلية والاضطراب العاطفي موجودة عالميًا في المجتمعات البشرية، وتعني زيادة قاعدة المستخدمين أن جزءًا من محادثات ChatGPT يتضمن هذه المواقف”.

الرئيس التنفيذي لشركة OpenAI سام التمان في وقت سابق من هذا الشهر، زعمت الشركة في منشور على X أن الشركة حققت تقدمًا في علاج مشكلات الصحة العقلية، معلنة أن OpenAI ستخفف القيود وستبدأ قريبًا في السماح للبالغين بإنشاء محتوى مثير.

“لقد جعلنا ChatGPT مقيدًا جدًا للتأكد من أننا كنا حذرين فيما يتعلق بقضايا الصحة العقلية. نحن ندرك أن هذا جعله أقل فائدة/متعة للعديد من المستخدمين الذين ليس لديهم مشاكل في الصحة العقلية، ولكن نظرًا لخطورة المشكلة، أردنا تصحيح هذا الأمر،” كما نشر ألتمان. “الآن بعد أن تمكنا من التخفيف من مشكلات الصحة العقلية الخطيرة ولدينا أدوات جديدة، سنكون قادرين على تخفيف القيود بأمان في معظم الحالات.”



Source link

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *