لقد لاحظت أن معظم الناس يتحمسون لما يمكن أن تنتجه الذكاء الاصطناعي، لكن ليس هناك ما يكفي من التركيز على مدى سهولة أن يخطئ هذا الناتج. هنا تبرز ميورا بالنسبة لي. يبدو أن المشروع مبني على فكرة أن الثقة في الذكاء الاصطناعي يجب أن تأتي من التحقق، وليس فقط من ادعاءات الأداء. بدلاً من السماح لنموذج واحد بالسيطرة على الإجابة النهائية، تقدم ميورا هيكلًا حيث يمكن التحقق من المخرجات ومراجعتها من خلال شبكة أوسع من العمليات. أعتقد أن ذلك أهم مما يبدو في البداية. إذا كان سيتم استخدام الذكاء الاصطناعي في أماكن يكون فيها الدقة مهمة حقًا، فيجب أن يكون النظام وراء الإجابة قابلاً للفحص.



وإلا فإننا ببساطة نقوم بتوسيع نطاق عدم اليقين المصقول. ما يجعل ميورا مثيرة للاهتمام هو أنها تعتبر التحقق كطبقة أساسية من طبقات الذكاء الاصطناعي، وليست خيارًا إضافيًا. على المدى الطويل، قد يكون ذلك أحد أهم أجزاء البنية التحتية في المجال.

@Mira - طبقة الثقة للذكاء الاصطناعي #Mira $MIRA
MIRA1.14%
شاهد النسخة الأصلية
post-image
post-image
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.41Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.46Kعدد الحائزين:2
    0.23%
  • تثبيت