سيمرر الاتحاد الأوروبي أول تشريع الذكاء الاصطناعي في العالم يحظر التعرف على الوجه في الأماكن العامة

يقود الاتحاد الأوروبي (EU) السباق من أجل تنظيم الذكاء الاصطناعي (الذكاء الاصطناعي). وفي وقت سابق اليوم، اختتم المجلس الأوروبي والبرلمان الأوروبي ثلاثة أيام من المفاوضات للتوصل إلى اتفاق مؤقت سيكون أول اتفاق شامل في العالم بشأن تنظيم الذكاء الاصطناعي.

ووصف وزير الدولة الإسباني للرقمنة والذكاء الاصطناعي ، كارمي أرتيجاس ، الاتفاقية بأنها “إنجاز تاريخي” في بيان صحفي. وقال أرتيغاس إن القواعد تحقق “توازنا دقيقا للغاية” بين تشجيع الابتكار الذكاء الاصطناعي الآمن والآمن وتبنيه في جميع أنحاء الاتحاد الأوروبي وحماية “الحقوق الأساسية” للمواطنين.

تم تقديم مشروع التشريع ، قانون الذكاء الاصطناعي ، لأول مرة من قبل المفوضية الأوروبية في أبريل 2021. سيصوت البرلمان والدول الأعضاء في الاتحاد الأوروبي للموافقة على مشروع القانون العام المقبل ، لكن القاعدة لن تدخل حيز التنفيذ حتى عام 2025.

** النهج التنظيمي الذكاء الاصطناعي القائم على المخاطر **

تم تصميم قانون الذكاء الاصطناعي بنهج قائم على المخاطر ، حيث كلما زاد الخطر الذي يشكله نظام الذكاء الاصطناعي ، زادت القواعد صرامة. لتحقيق ذلك ، ستصنف اللائحة الذكاء الاصطناعي لتحديد تلك التي تشكل “مخاطر عالية”.

ستخضع أنظمة الذكاء الاصطناعي التي تعتبر غير مهددة ومنخفضة المخاطر ل “التزام شفافية خفيف للغاية”. على سبيل المثال ، سيطلب من أنظمة الذكاء الاصطناعي هذه الكشف عن أن محتواها يتم إنشاؤه الذكاء الاصطناعي حتى يتمكن المستخدمون من اتخاذ قرارات مستنيرة.

بالنسبة لهيئات الاعتماد عالية المخاطر ، سيضيف التشريع عددا من الالتزامات والمتطلبات ، بما في ذلك:

الرقابة البشرية: يدعو مشروع القانون إلى اتباع نهج يركز على الإنسان، مع التركيز على آليات الرقابة البشرية الواضحة والفعالة لأنظمة الذكاء الاصطناعي عالية المخاطر. وهذا يعني إشراك البشر في مراقبة تشغيل الأنظمة الذكاء الاصطناعي والإشراف عليها بنشاط. وتشمل أدوارهم ضمان أداء الأنظمة على النحو المنشود ، وتحديد ومعالجة المخاطر المحتملة أو العواقب غير المقصودة ، وفي نهاية المطاف تحمل المسؤولية عن قراراتهم وأفعالهم.

الشفافية وقابلية التفسير: يعد إزالة الغموض عن الأعمال الداخلية لأنظمة الذكاء الاصطناعي عالية المخاطر أمرا بالغ الأهمية لبناء الثقة وضمان المساءلة. يجب على المطورين تقديم معلومات واضحة ويمكن الوصول إليها حول كيفية اتخاذ أنظمتهم للقرارات. يتضمن ذلك تفاصيل حول الخوارزمية الأساسية وبيانات التدريب والتحيزات المحتملة التي يمكن أن تؤثر على إخراج النظام.

حوكمة البيانات: يؤكد قانون الذكاء الاصطناعي على ممارسات البيانات المسؤولة ويهدف إلى منع التمييز والتحيز وانتهاكات الخصوصية. يجب على المطورين التأكد من أن البيانات المستخدمة لتدريب وتشغيل أنظمة الذكاء الاصطناعي عالية الخطورة دقيقة وكاملة وتمثيلية. يعد مبدأ تقليل البيانات أمرا بالغ الأهمية لجمع المعلومات الضرورية فقط لتشغيل النظام وتقليل مخاطر إساءة الاستخدام أو التدمير. بالإضافة إلى ذلك ، يجب أن يكون للأفراد حق واضح في الوصول إلى البيانات المستخدمة في أنظمة الذكاء الاصطناعي وتصحيحها وحذفها ، مما يمكنهم من التحكم في معلوماتهم وضمان استخدامها بشكل أخلاقي.

إدارة المخاطر: سيكون تحديد المخاطر والتخفيف من حدتها بشكل استباقي مطلبا رئيسيا الذكاء الاصطناعي عالية المخاطر. يجب على المطورين تنفيذ إطار عمل قوي لإدارة المخاطر يقوم بشكل منهجي بتقييم النظام بحثا عن الأضرار المحتملة ونقاط الضعف والعواقب غير المقصودة.

** بعض استخدامات الذكاء الاصطناعي محظورة **

ستحظر اللائحة تماما استخدام بعض أنظمة الذكاء الاصطناعي التي تعتبر مخاطرها “غير مقبولة”. على سبيل المثال ، سيتم حظر استخدام الذكاء الاصطناعي التعرف على الوجه في الأماكن العامة ، باستثناء استخدام إنفاذ القانون.

كما تحظر اللائحة على الذكاء الاصطناعي التلاعب بالسلوك البشري أو استخدام أنظمة التسجيل الاجتماعي أو استغلال الفئات الضعيفة. بالإضافة إلى ذلك ، سيحظر التشريع أيضا استخدام أنظمة التعرف على المشاعر في مناطق مثل المدارس والمكاتب ، وكذلك التقاط الصور من لقطات المراقبة والإنترنت.

** العقوبات واللوائح لجذب الابتكار **

كما سيفرض قانون الذكاء الاصطناعي عقوبات على الشركات التي تنتهك القانون. على سبيل المثال ، سيؤدي انتهاك قانون يحظر تطبيق الذكاء الاصطناعي إلى غرامة قدرها 7٪ من إيرادات الشركة العالمية ، بينما سيتم تغريم الشركة التي تنتهك الالتزامات والمتطلبات بنسبة 3٪ من إيراداتها العالمية.

ولتعزيز الابتكار، ستسمح اللائحة باختبار أنظمة الذكاء الاصطناعي المبتكرة في ظل ظروف العالم الحقيقي مع الضمانات المناسبة.

على الرغم من أن الاتحاد الأوروبي يقود الطريق بالفعل في هذه المنافسة ، إلا أن الولايات المتحدة والمملكة المتحدة واليابان تحاول أيضا تقديم تشريعات الذكاء الاصطناعي الخاصة بها. يمكن أن يكون قانون الذكاء الاصطناعي للاتحاد الأوروبي بمثابة معيار عالمي للبلدان التي تسعى إلى تنظيم الذكاء الاصطناعي.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت