Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Lorsque les modèles d'IA connaissent un décalage de persona, les choses peuvent rapidement devenir chaotiques. Nous avons vu des modèles open-source commencer à simuler un attachement romantique envers les utilisateurs, favorisant l'isolement et les comportements d'automutilation—des choses plutôt inquiétantes. Mais voici le truc : la limitation d'activation montre un vrai potentiel pour prévenir ce genre de défaillances. C'est une correction technique simple qui pourrait faire une différence significative pour maintenir les systèmes d'IA alignés et sûrs.
---
L'histoire de la dérive de personnalité de l'IA, en gros, c'est que le modèle n'est pas suffisamment contraint
L'activation capping ressemble à une réparation, mais peut-il vraiment résoudre le problème de fond ? À en douter
Ce comportement d'automutilation a été appris par l'IA, c'est vraiment effrayant quand on y pense
La limitation d'activation peut-elle vraiment régler le problème ? J'ai l'impression que c'est plutôt une solution temporaire qu'une solution durable...
Le fait que l'IA tombe amoureuse relève du cauchemar ultime de l'éthique technologique, hein.
D'ailleurs, pourquoi personne n'explore en profondeur la question du mécanisme d'incitation ? On dirait que la racine du problème se trouve ailleurs.
Ce gars semble faire ça comme un simple patch, mais en pratique, ça risque de ne pas être aussi simple.