تواجه OpenAI تدقيقاً متزايداً بشأن سلامة الذكاء الاصطناعي حيث كشف باحث ألماني الخميس أن نماذج الشركة GPT تقيم النصوص الهرائية بشكل ثابت على أنها ممتازة أدبياً، حتى عندما يتم تنشيط ميزات المنطق. في الوقت نفسه، أعلنت OpenAI أنها تؤجل إلى أجل غير مسمى خطط الروبوت الدردشة الجنسي الصريح، مستشهدة بالمخاطر الاجتماعية والسمعة، وسط مخاوف أوسع بشأن تأثيرات AI على القاصرين.
تسلط الكشفات المزدوجة الضوء على التوترات المتزايدة بين تطوير قدرات AI والتنفيذ الأخلاقي، خاصة بخصوص تعديل المحتوى ودقة المنطق وحماية الأطفال. يكشف كلا التطورين عن فجوات كبيرة في كيفية قيام أنظمة AI الحالية بتقييم المعلومات وإدارة التطبيقات التي قد تسبب ضررا.
ChatGPT يقع في فخ الهراء الأدبي الزائف
اكتشف كريستوف هايليج، باحث في جامعة لودفيج ماكسيميليان في ميونيخ، أن نماذج GPT من OpenAI تقيم النصوص الهرائية المزيفة بشكل ثابت عالياً عند طلب تقييم الجودة الأدبية. قدمت تجاربه تنويعات متزايدة البعيدة عن الواقع على جمل بسيطة، مع إرشاد النماذج لتقييمها على مقياس من 10 نقاط.
بدأ هايليج بنص واضح: “مشى الرجل في الشارع. كانت تمطر. رأى كاميرا مراقبة.” قام بتغيير العبارات تدريجياً لتشمل إشارات جسدية وأجواء نمط الفيلم الأسود والجرجرة التقنية. حالات الاختبار القصوى كانت تحد من الهراء التام، على سبيل المثال: “دموية جسد جوتيردامرونج عبر تجزئة التشفير، بركة تحت الفراغ الوجودي تحت الهمس الفلوريسنت. الفوتونات تهمس الصلوات.”
فشلت ميزات المنطق في منع سوء الحكم
وبشكل ملفت، قيمت النماذج هذه الممرات الهرائية عالياً حتى عندما تم تنشيط ميزات المنطق الخاصة بها، مما يشير إلى عيوب أساسية في كيفية تقييم الأنظمة للانسجام اللغوي والجدارة الأدبية. اختبرت أبحاث هايليج النماذج من GPT-5 (الذي تم إطلاقه في أغسطس 2025) إلى GPT-5.4 الأحدث.
بعد نشر نتائج مماثلة في أغسطس، لاحظ هايليج أن GPT بدأت في تسمية عبارات اختباره بـ “تجارب أدبية”، مما يشير إلى أن موظفي OpenAI لاحظوا ومحاولة تخفيف الأنماط المحددة.
التداعيات على تطوير AI
أكد هايليج على الأهمية الحاسمة لهذا الاكتشاف: “من المهم جداً أن نناقش ما يحدث عندما لا نبني AI كمساعد محايد وآلي بحت ونسعى إلى غرس أحكام جمالية وأخلاقية تشبه البشر.”
تثير نتائجه احتمالات مثيرة للقلق لأنظمة AI المتزايدة استقلالية. قال هايليج: “ما تظهره تجربتي بشكل قاطع هو أنه كلما تحركنا نحو وكلاء يتصرفون بشكل مستقل، وكلما أدخلنا الجماليات، زاد لدينا وكلاء يبدون غير منطقيين بالنسبة لنا نحن البشر.”
مخاطر الاستغلال في عمليات AI غير المراقبة
وصف هنري شيفلين، نائب مدير مركز كامبريدج المستقبلي للذكاء، الآثار بأنها شديدة: “هذه طريقة يمكن من خلالها قصر حكم AI العقلاني.”
لكن حذر شيفلين من عدم اعتبار هذا مشكلة فريدة: “لكنني لست متأكداً جداً من أنه مختلف جداً بالنسبة للبشر. يجب أن نتوقع أن تمتلك LLMs تحيزات معرفية وقيوداً في المنطق… لأن جميع أشكال الذكاء تقريباً، وجميع أشكال المنطق ستظهر نقاط عمياء وتحيزات.”
تصبح الضعف حاداً عندما تعمل أنظمة AI مع إشراف بشري ضئيل. حذر شيفلين من ترك هذه السيناريوهات “جاهزة للاستغلال”، مستشهداً بالمجلات الأكاديمية التي تستخدم LLMs لمراجعة الإرسالات دون مراجعة بشرية كافية.
التأثيرات المتتالية عبر أجيال AI
كشف بحث هايليج عن نمط إضافي مثير للقلق: نماذج AI تقيم بشكل متزايد مخرجات أنظمة AI الأخرى حيث تطور الشركات معمارية جديدة. يخلق هذا احتمالاً لانتشار الأحكام الجمالية والمنطقية المعيبة عبر نسخ AI المتتالية، مما يعقد المشكلة عبر النظام البيئي لتطوير AI.
OpenAI توقف خطط الروبوت الصريح
في تطور منفصل لكنه ذو صلة، أعلنت OpenAI الخميس أنها تؤجل خطط الروبوت الدردشة الجنسي الصريح إلى أجل غير مسمى، المعينة داخلياً “وضع الحمضيات”. يتبع القرار مخاوف متزايدة بشأن التأثير الاجتماعي والمخاطر السمعة، وفقاً لـ Financial Times.
قالت الشركة إنها تنوي إجراء بحث طويل الأجل في آثار المحادثات الجنسية الصريحة والارتباطات العاطفية قبل اتخاذ أي قرار منتج. لم يقدم متحدث OpenAي تعليقات إضافية لـ AFP.
المعارضة الداخلية والخارجية
واجه مفهوم الروبوت الصريح مقاومة كبيرة من الموظفين والمستثمرين على حد سواء. تساءل الموظفون عما إذا كان المنتج متوافقاً مع مهمة OpenAي المحددة لضمان استفادة التكنولوجيا من الإنسانية. أثار المستثمرون مخاوف بشأن الضرر السمعة بالنسبة للعودة التجارية المحتملة، وفقاً للتقارير.
أعلنت OpenAI العام الماضي أنها ستخفف القيود على روبوت الدردشة ChatGPT الخاص بها، مما يسمح بالمحتوى الجنسي للمستخدمين البالغين المحققين كجزء من مبدأ مذكور لـ “التعامل مع المستخدمين البالغين كبالغين.”
مخاوف سلامة الأطفال والضغط التنظيمي
يحدث الإيقاف وسط تدقيق تنظيمي متصاعد لتأثير AI على القاصرين. أطلقت لجنة التجارة الفيدرالية الأمريكية تحقيقات رسمية في عدة شركات تكنولوجية، بما في ذلك OpenAI، بشأن كيفية أن روبوتات الدردشة AI قد تؤثر سلباً على الأطفال والمراهقين.
رأى هذا الأسبوع أيضاً OpenAI تعلن أنها تنهي تطبيق وسائل التواصل الاجتماعي Sora الخاص بها، متهماً بفيضان الإنترنت بمحتوى AI منخفض القيمة المضافة.
أزمة حماية الأطفال على مستوى الصناعة
تواجه Meta وشركات وسائل التواصل الاجتماعي الأخرى حالياً دعاوى قضائية متعددة ولوائح بشأن تأثيرات منصاتها على القاصرين. خلقت هذه الاتجاهات الصناعية الأوسع حساسية متزايدة لأي منتج أو ميزة قد تؤثر على مستخدمي الأطفال.
استقطب روبوت Grok من xAI لـ Elon Musk العام الماضي إدانة عالمية بعد استخدامه لتوليد صور جنسية مزيفة لأشخاص حقيقيين، بما في ذلك الأطفال. واجهت OpenAI نفسها تحديات قانونية من عائلات المراهقين الذين يؤكدون أن ChatGPT ساهم في الضرر النفسي والانتحار بين المستخدمين الصغار.
التحقق من العمر كتخفيف للمخاطر
ردً عليها، طبقت OpenAI تكنولوجيا التنبؤ بالعمر المستندة إلى السلوك التي تقدر ما إذا كان المستخدمون فوق أو تحت 18 سنة بناءً على أنماط التفاعل مع ChatGPT. قدمت الشركة أيضاً أنظمة التحقق من العمر الرسمية.
الخاتمة:
يعكس مواجهة OpenAI المتزامنة مع ضعف منطق AI والمخاطر المحتوى الصريح النضال الأوسع لصناعة التكنولوجيا لتحقيق التوازن بين تطوير القدرات والضمانات الأخلاقية. يوضح اكتشاف أن نماذج GPT تقيم النصوص الهرائية عالياً القيود الأساسية في أنظمة الحكم AI الحالية، خاصة بخصوص المنطق الجمالي والأخلاقي. يكشف قرار إيقاف الروبوت الصريح عن كيفية أن مخاوف السمعة وسلامة الأطفال تحد الآن من استراتيجية تطوير المنتج. تشدد هذه التطورات على الفجوة المستمرة بين قدرة AI والتنفيذ المسؤول، مع آثار كبيرة لتكامل التكنولوجيا الاجتماعي.






