Selon CoinWorld, le 25 février, Vitalik Buterin a publié un message soutenant l'entreprise d'IA Anthropic, qui maintient deux lignes éthiques fondamentales : « ne pas développer d'armes entièrement autonomes » et « ne pas participer à une surveillance massive aux États-Unis », louant leur détermination face à la pression gouvernementale. Vitalik estime qu’en monde idéal, ce type d’applications à haut risque devrait se limiter au niveau d’accès aux modèles de langage open source (c’est-à-dire accessible à tous de manière équitable et publique) ; même une avancée de seulement 10 % pourrait réduire les risques liés aux armes autonomes et aux atteintes à la vie privée, favorisant ainsi un développement plus sûr de l’IA. Selon des informations précédentes, le Pentagone aurait récemment menacé de couper sa coopération avec Anthropic, ce qui pourrait entraîner la perte d’un contrat de 200 millions de dollars, car Anthropic refuse de fournir une technologie d’IA sans intervention humaine pour un usage militaire.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)