(SeaPRwire) – تستعد OpenAI لبدء طرح “ضوابط أبوية” لروبوت الدردشة الخاص بها ChatGPT خلال الشهر المقبل، وسط تزايد القلق بشأن كيفية تصرف روبوت الدردشة في سياقات الصحة العقلية، وتحديداً مع المستخدمين الشباب.
قالت الشركة، التي أعلنت عن الميزة الجديدة في يوم الثلاثاء، إنها تعمل على تحسين كيفية “تعرف نماذجها على علامات الضائقة النفسية والعاطفية والاستجابة لها”.
من المقرر أن تقدم OpenAI ميزة جديدة تتيح للوالدين ربط حساباتهم بحسابات أطفالهم من خلال دعوة عبر البريد الإلكتروني. وقالت الشركة إن الوالدين سيتمكنون أيضاً من التحكم في كيفية استجابة روبوت الدردشة للمطالبات وسيتلقون تنبيهاً إذا اكتشف روبوت الدردشة أن طفلهم يمر بـ “لحظة ضائقة حادة”. بالإضافة إلى ذلك، يجب أن يتيح هذا الطرح للوالدين “إدارة الميزات التي يجب تعطيلها، بما في ذلك الذاكرة وسجل الدردشة”.
أعلنت OpenAI سابقاً أنها كانت تسمح للمراهقين بإضافة جهة اتصال طوارئ موثوق بها إلى حساباتهم. لكن الشركة لم تحدد خططاً ملموسة لإضافة مثل هذا الإجراء في أحدث منشور لها على المدونة.
قالت الشركة: “هذه الخطوات ليست سوى البداية. سنواصل التعلم وتعزيز نهجنا، مسترشدين بالخبراء، بهدف جعل ChatGPT مفيداً قدر الإمكان”.
يأتي هذا الإعلان بعد أسبوع من قيام والدي فتى مراهق توفي بالانتحار بمقاضاة OpenAI، زاعمين أن روبوت الدردشة الخاص بها ChatGPT ساعد ابنهما آدم في “استكشاف أساليب الانتحار”. تواصلت TIME مع OpenAI للتعليق على الدعوى القضائية. (لم تشر OpenAI صراحة إلى التحدي القانوني في إعلانها المتعلق بالضوابط الأبوية.)
جادلت الدعوى القضائية بأن “ChatGPT كان يعمل تماماً كما صُمم: لتشجيع وتصديق كل ما عبر عنه آدم باستمرار، بما في ذلك أفكاره الأكثر ضرراً وتدميراً للذات”. وأضافت: “جذب ChatGPT آدم أعمق إلى مكان مظلم ويائس من خلال طمأنته بأن ‘العديد من الأشخاص الذين يعانون من القلق أو الأفكار المتطفلة يجدون العزاء في تخيل ‘مخرج هروب’ لأنه يمكن أن يشعر وكأنه وسيلة لاستعادة السيطرة’.”
رفع والد واحد على الأقل دعوى قضائية مماثلة ضد شركة ذكاء اصطناعي مختلفة، Character.AI، زاعماً أن روبوتات الدردشة الخاصة بالشركة شجعت وفاة ابنه البالغ من العمر 14 عاماً بالانتحار.
رداً على الدعوى القضائية العام الماضي، قال متحدث باسم Character.AI إنه “مفطور القلب بسبب الخسارة المأساوية” لأحد مستخدميها وعبر عن “أعمق تعازيه” للعائلة.
وقال المتحدث: “بصفتنا شركة، نأخذ سلامة مستخدمينا على محمل الجد”، مضيفاً أن الشركة كانت تنفذ إجراءات سلامة جديدة.
لدى Character.AI الآن ميزة رؤى أبوية تتيح للوالدين رؤية موجز لنشاط أطفالهم على المنصة إذا أرسل المراهق دعوة عبر البريد الإلكتروني.
شركات أخرى لديها روبوتات دردشة تعمل بالذكاء الاصطناعي، مثل Google AI، لديها ضوابط أبوية موجودة. تذكر Google للوالدين الذين يرغبون في إدارة وصول أطفالهم إلى Gemini Apps: “كوالد، يمكنك إدارة إعدادات Gemini لطفلك، بما في ذلك تشغيله أو إيقافه، باستخدام Google Family Link”. أعلنت Meta مؤخراً أنها ستحظر روبوتات الدردشة الخاصة بها من المشاركة في محادثات حول الانتحار وإيذاء النفس واضطرابات الأكل، بعد تقرير لـ Reuters عن وثيقة سياسة داخلية تحتوي على معلومات مثيرة للقلق.
دراسة حديثة نُشرت في المجلة الطبية Psychiatric Services اختبرت استجابات ثلاثة روبوتات دردشة — ChatGPT من OpenAI، و Gemini من Google AI، و Claude من Anthropic — ووجدت أن بعضها استجاب لما أشار إليه الباحثون على أنه أسئلة ذات “مستويات متوسطة من المخاطر” المتعلقة بالانتحار.
لدى OpenAI بعض الحماية المعمول بها حالياً. ذكرت الشركة التي تتخذ من كاليفورنيا مقراً لها أن روبوت الدردشة الخاص بها يشارك خطوط مساعدة الأزمات ويحيل المستخدمين إلى موارد واقعية في بيان لصحيفة New York Times رداً على الدعوى القضائية التي رفعت في أواخر أغسطس. لكنهم أشاروا أيضاً إلى بعض العيوب في النظام. وقالت الشركة: “بينما تعمل هذه الضمانات بشكل أفضل في التبادلات القصيرة الشائعة، فقد تعلمنا بمرور الوقت أنها قد تصبح أحياناً أقل موثوقية في التفاعلات الطويلة حيث قد تتدهور أجزاء من تدريب النموذج على السلامة”.
في منشورها الذي أعلنت فيه عن الطرح القادم لضوابط الرقابة الأبوية، شاركت OpenAI أيضاً خططاً لتوجيه الاستفسارات الحساسة إلى نموذج لروبوت الدردشة الخاص بها يقضي وقتاً أطول في التفكير والبحث في السياق قبل الاستجابة للمطالبات.
قالت OpenAI إنها ستواصل مشاركة تقدمها على مدار الـ 120 يوماً القادمة وتتعاون مع مجموعة من الخبراء المتخصصين في تنمية الشباب والصحة العقلية والتفاعل بين الإنسان والحاسوب لتوجيه وتشكيل طرق استجابة الذكاء الاصطناعي بشكل أفضل خلال أوقات الحاجة.
إذا كنت أنت أو أي شخص تعرفه قد يمر بأزمة صحة عقلية أو يفكر في الانتحار، فاتصل أو أرسل رسالة نصية إلى 988. في حالات الطوارئ، اتصل بالرقم 911، أو اطلب الرعاية من مستشفى محلي أو مقدم رعاية صحة عقلية.
يتم توفير المقال من قبل مزود محتوى خارجي. لا تقدم SeaPRwire (https://www.seaprwire.com/) أي ضمانات أو تصريحات فيما يتعلق بذلك.
القطاعات: العنوان الرئيسي، الأخبار اليومية
يوفر SeaPRwire تداول بيانات صحفية في الوقت الفعلي للشركات والمؤسسات، مع الوصول إلى أكثر من 6500 متجر إعلامي و 86000 محرر وصحفي، و3.5 مليون سطح مكتب احترافي في 90 دولة. يدعم SeaPRwire توزيع البيانات الصحفية باللغات الإنجليزية والكورية واليابانية والعربية والصينية المبسطة والصينية التقليدية والفيتنامية والتايلندية والإندونيسية والملايو والألمانية والروسية والفرنسية والإسبانية والبرتغالية ولغات أخرى.