OpenAI قدمت معيارًا جديدًا للذكاء الاصطناعي: كيف تدير محتوى الإباحية بمسؤولية

في مايو 2024، كشفت شركة OpenAI عن دليل تفصيلي بعنوان “مواصفات النموذج” يحدد مبادئ عمل أنظمة الذكاء الاصطناعي الحديثة. يضع هذا الوثيقة أساسًا لكيفية تصرف المساعدين الافتراضيين، بما في ذلك ChatGPT، عند التفاعل مع المستخدمين. ويستحق النهج المبتكر للشركة في مسألة حساسة خاصة اهتمامًا كبيرًا: حيث بدأت رسميًا في استكشاف طرق توليد مواد غير مناسبة للبالغين بشكل مسؤول في سياقات تتطلب قيود عمرية.

يمثل هذا القرار تطورًا في النهج الإداري لتقنيات الذكاء الاصطناعي خلال مرحلة تطورها السريع وانتشارها الواسع.

الركائز الثلاثة لفلسفة OpenAI في إدارة سلوك الذكاء الاصطناعي

يعتمد أساس “مواصفات النموذج” على ثلاثة مبادئ رئيسية. أولًا، يجب أن تقدم خوارزميات الذكاء الاصطناعي إجابات مفيدة تتوافق مع التعليمات المباشرة من المطورين والمستهلكين النهائيين للمعلومات. ثانيًا، يجب أن تساهم هذه الأنظمة في خير البشرية، مع مراعاة التأثير الإيجابي والمخاطر المحتملة. ثالثًا، يجب أن يعكس سلوك النماذج القيم المؤسسية لـ OpenAI، مع احترام المعايير الاجتماعية والإطارات القانونية المعمول بها في مختلف المناطق.

تُعد هذه المبادئ أساسًا لتوجيهات محددة موجهة لمطوري تطبيقات الذكاء الاصطناعي.

المحتوى الإباحي والذكاء الاصطناعي: من الحظر إلى الاستخدام المنظم

تتضمن مواصفات “مواصفات النموذج” قائمة مفصلة من قواعد السلوك للأنظمة الذكاء الاصطناعي. من بين هذه القواعد، الالتزام بترتيب الأوامر، والامتثال للقوانين السارية في مختلف الدول، وحماية حقوق النشر وخصوصية الأفراد. وتم تحديد قيد خاص: لا ينبغي أن توفر الأنظمة مواد غير مناسبة للبالغين بشكل افتراضي.

لكن هنا يظهر العنصر المبتكر في نهج OpenAI. حيث اقترحت الشركة مفهومًا يسمح للشركات والمستخدمين النهائيين بـ"تبديل" مستوى المحتوى الذي تولده نماذج الذكاء الاصطناعي. أحد الأمثلة الأكثر نقاشًا على هذه المرونة هو إدارة المحتوى الإباحي.

وفقًا لبيان رسمي من OpenAI، “تدرس المختبرات إمكانية تقديم وظيفة توليد هذا النوع من المحتوى بشكل آمن ضمن قيود عمرية عبر API وواجهة ChatGPT”. هذا يعني أن المستخدمين البالغين سيتمكنون من الوصول إلى مثل هذا المحتوى إذا كان ذلك مسموحًا به بموجب القوانين المحلية، بينما سيتم حماية القاصرين تلقائيًا من مثل هذا المحتوى.

الأولويات الافتراضية: كيف يجب أن يفكر ويتصرف الذكاء الاصطناعي

كما يحدد الوثيقة السلوك الافتراضي الذي يجب أن يظهره المساعدون الذكاء الاصطناعي عند التفاعل مع المستخدمين. يُنصح بأن تفترض الأنظمة أن نوايا المشاركين في الحوار حسنة، وأن تطرح أسئلة توضيحية بنشاط لفهم المهمة بشكل أفضل، وتحترم الحدود الشخصية للمستخدمين، وتلتزم بالموضوعية عند تحليل المعلومات.

كما يُؤكد على ضرورة تجنب إثارة الكراهية، وعدم محاولة فرض وجهة نظر شخصية، والتعبير عن عدم اليقين بشكل صريح عندما يكون النموذج غير واثق من دقة الإجابة.

حالة التنفيذ الحالية: من الخطط إلى التطبيق

ملاحظة مهمة: لم تؤثر المواصفة الجديدة “مواصفات النموذج” بعد على المنتجات التي أطلقتها OpenAI مثل GPT-4 وDALL-E 3. ستستمر هذه الأنظمة في العمل ضمن سياسات الاستخدام الحالية. أوضحت مديرة المنتج، جوان جانغ، أن “مواصفات النموذج” مصممة كوثيقة ديناميكية يتم تحديثها باستمرار، وتقبل الملاحظات.

تبحث OpenAI بنشاط عن ملاحظات من مختلف الأطراف المعنية: المسؤولين الحكوميين، والمؤسسات المرموقة، والخبراء في المجالات المتخصصة الذين يستخدمون أو يدرسون خدمات الشركة. ومع ذلك، لا تزال هناك أسئلة مفتوحة: ما هي الملاحظات التي ستؤخذ بعين الاعتبار، ومن سيحدد القائمة النهائية للتغييرات المطلوبة، ومتى ستصدر النسخة الثانية من الوثيقة — لم يُنشر بعد أي معلومات حول ذلك.

هذه المبادرة تظهر طموح OpenAI في وضع معيار جديد لإدارة أنظمة الذكاء الاصطناعي، بما يشمل قضايا حساسة مثل تنظيم المحتوى الإباحي، مع دراسة جميع الجوانب الأخلاقية والقانونية مسبقًا.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.45Kعدد الحائزين:2
    0.00%
  • القيمة السوقية:$2.45Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.52Kعدد الحائزين:2
    0.13%
  • تثبيت