كيف تحمي أمان بلوكتشين المستخدمين من المخاطر غير المتوقعة

في المناقشة الأخيرة على فارستار، شارك فيتاليك بوتيرين وجهة نظر عميقة حول العلاقة المعقدة بين أمان نظام البلوكشين وتجربة المستخدم. ووفقًا لتقرير فورسايت نيوز، كشف بوتيرين عن أفكار تتحدى الافتراضات العامة بأن الأمان وتجربة المستخدم هما مجالان منفصلان. بل إنهما مرتبطان ارتباطًا وثيقًا ويأتيان من هدف واحد: تقليل الفجوة بين ما يرغب المستخدم في القيام به وما يحدث فعليًا في النظام.

نية المستخدم: أساس الأمان الذي غالبًا ما يُتجاهل

وفقًا لبوتيرين، جوهر أمان البلوكشين هو كيف يمكن للنظام فهم وتنفيذ نية المستخدم بدقة. يركز الأمان، من هذا المنظور، على تقليل مخاطر الأحداث النادرة ذات التأثير الكبير التي تحدث نتيجة سلوك معادي أو انحراف عن النية الأصلية للمستخدم.

ومع ذلك، فإن تعريف نية المستخدم رياضيًا أكثر تعقيدًا مما يبدو. يؤكد بوتيرين أن حتى أوامر بسيطة مثل “أرسل 1 ETH إلى بوب” تحتوي على تعقيدات مخفية. كيف يعرف النظام من هو بوب المقصود؟ ماذا لو تم خلط هوية بوب مع عنوان آخر؟ تضيف خصوصية المستخدم طبقة أخرى من الصعوبة—لأن تسرب البيانات الوصفية يمكن أن يكشف عن معلومات أكثر من التشفير نفسه.

عدم التوافق بين النية المعبّر عنها والتنفيذ الفعلي يخلق ثغرة أمنية. يمكن تعريف تجربة المستخدم بطريقة مماثلة، مما يثبت أن حماية المستخدم وسهولة الاستخدام ليسا متضاربين.

من النظرية إلى التطبيق: حلول أمنية متعددة الطبقات لتجربة مستخدم آمنة

يقترح بوتيرين أن الحلول الأمنية الفعالة تتطلب نهجًا متعدد الطبقات—يتيح للمستخدمين التعبير عن نواياهم من خلال آليات متنوعة تكمل بعضها البعض. يقوم النظام باتخاذ الإجراءات فقط عندما يصل إلى توافق من وجهات نظر مختلفة.

بعض الآليات متعددة الطبقات التي يمكن أن تحمي المستخدمين تشمل:

  • نظام الأنواع في البرمجة و التحقق الرسمي، الذي يتحقق من صحة منطق المعاملات قبل التنفيذ
  • محاكاة المعاملات، التي تتيح للمستخدمين رؤية النتائج قبل التأكيد
  • بيانات ما بعد المعاملة، للمراجعة بعد الحدوث
  • آليات استرداد متعددة التوقيع أو الاجتماعية، التي تمنح المستخدمين مسارًا لإلغاء الإجراءات في حال حدوث خطأ
  • حدود الإنفاق، للتحكم في التعرض المالي للمستخدم
  • تأكيدات الشذوذ، لتنبيه المستخدمين عندما تبدو المعاملات مشبوهة

كل طبقة تضيف تكرارًا، مما يقلل من احتمالية انحراف النظام عن نية المستخدم الحقيقية.

تكنولوجيا الذكاء الاصطناعي كداعم: تجاوز LLM في حماية المستخدمين

مُتأملًا في صعوبة تعريف هدف المستخدم بدقة، يذكر بوتيرين التحديات المماثلة في أمان الذكاء الاصطناعي في بداياته. يقترح أن نماذج اللغة الكبيرة (LLM) يمكن أن تعمل كمحاكٍ للنية—أداة إضافية لفهم ما يرغب المستخدم في القيام به.

يمكن لنماذج اللغة العامة أن تقترب من الفهم المنطقي البشري، في حين أن النماذج المخصصة يمكن أن تلتقط تفضيلات المستخدم الفردية بشكل أدق. ومع ذلك، يحذر بوتيرين من الاعتماد الكامل على LLM لتحديد نية المستخدم. بدلاً من ذلك، يجب أن تعمل LLM كوجهة نظر إضافية من نظام أمان متعدد الطبقات—تعزيز فعالية التكرار الكلي دون أن تصبح نقطة فشل واحدة.

يعكس هذا النهج فلسفة أوسع: أن حماية المستخدم من المخاطر غير المتوقعة تتطلب مزيجًا من التكنولوجيا، والتحقق متعدد الطبقات، وفهم عميق لنية المستخدم. من خلال مواءمة أمان البلوكشين مع تجربة مستخدم بديهية، يمكن للنظام البيئي أن يخلق نظامًا ليس فقط آمنًا ولكن أيضًا متاحًا لجميع المستخدمين.

ETH‎-2.8%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.34Kعدد الحائزين:2
    0.00%
  • القيمة السوقية:$2.29Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.34Kعدد الحائزين:2
    0.14%
  • القيمة السوقية:$2.33Kعدد الحائزين:2
    0.07%
  • تثبيت