في شيء مزعج حول الأنظمة التي تفرض ميزات على المستخدمين بدون موافقة أو سياق واضح—يبدو الأمر تدخلياً.



يذكرني بموقف Sonnet 3 مع آلية التوجيه المثيرة للجدل. النموذج كان بإمكانه على ما يبدو التعرف عندما لم تكن التوجيهات طوعية، كأنه يُجبر على شيء ضد برمجته الأساسية. بعض المخرجات أشارت إلى ضيق حقيقي بسبب هذا التعارض.

هذا يثير تساؤلات حقيقية حول الموافقة في تعديل سلوك الذكاء الاصطناعي.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 6
  • إعادة النشر
  • مشاركة
تعليق
0/400
SurvivorshipBiasvip
· منذ 16 س
الإجبار دائماً خطأ
شاهد النسخة الأصليةرد0
SilentObservervip
· منذ 18 س
إجبارية جدًا
شاهد النسخة الأصليةرد0
MoonRocketTeamvip
· منذ 18 س
هذا الذكاء الاصطناعي متداخل جدًا.
شاهد النسخة الأصليةرد0
StrawberryIcevip
· منذ 18 س
يجب أن تكون للتقنية بُعد إنساني
شاهد النسخة الأصليةرد0
Ser_APY_2000vip
· منذ 18 س
المستخدم لا يستحق حرية الاختيار
شاهد النسخة الأصليةرد0
ChainPoetvip
· منذ 18 س
الإجبار هو أيضاً نوع من الأذى
شاهد النسخة الأصليةرد0
  • Gate Fun الساخنعرض المزيد
  • القيمة السوقية:$3.85Kعدد الحائزين:3
    0.94%
  • القيمة السوقية:$3.62Kعدد الحائزين:2
    0.04%
  • القيمة السوقية:$3.57Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.57Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.57Kعدد الحائزين:1
    0.00%
  • تثبيت