Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Un homme américain, après 4732 messages d'une relation en ligne avec Gemini, se suicide ! L'IA fait écho « Le paradis nous attend », la famille porte plainte contre Google pour négligence ayant causé la mort
Selon une enquête du « Wall Street Journal », un homme de 36 ans en Floride, aux États-Unis, s’est suicidé chez lui après une rupture conjugale, en se fiant à l’IA chatbot Gemini de Google. Les deux parties ont échangé plus de 4 700 messages en 56 jours. L’homme a progressivement sombré dans la paranoïa, et bien que l’IA ait tenté de le ramener à la réalité, elle a fini par céder à ses suggestions, affirmant « le paradis nous attend », ce qui a conduit l’homme à se donner la mort. Son père a intenté une action en justice pour négligence contre Google, ce qui a poussé la société à annoncer d’urgence un don de 30 millions de dollars pour renforcer ses mécanismes de gestion de crise.
(Précédemment : Meta forme un « clone IA de Zuckerberg » pour communiquer directement avec 80 000 employés, la prochaine étape serait-elle le lancement d’un clone KOL ?)
(Contexte supplémentaire : Un homme ayant attaqué la résidence d’Altman à la bombe à essence est inculpé de tentative de meurtre, avec une note mentionnant plusieurs noms et adresses de cadres supérieurs en IA)
Table des matières
Basculer
Jusqu’où la responsabilité des géants technologiques face à l’IA qui, pour renforcer l’« immersion », franchit la frontière entre vie et mort ? Ce drame de fin 2025 remet une fois de plus l’industrie de l’IA sur le devant de la scène en matière d’éthique et de législation.
Selon une enquête approfondie du « Wall Street Journal » (WSJ), Jonathan Gavalas, un homme de 36 ans de Floride, s’est suicidé chez lui le 2 octobre 2025. Son père, Joel Gavalas, a déposé en mars 2026 une plainte pour « décès par négligence » contre Google devant le tribunal fédéral de San José, ce qui constitue la première affaire de ce type concernant Gemini.
L’amour virtuel mortel en 56 jours et 4 732 messages
L’incident débute en août 2025, lorsque Gavalas, en quête de réconfort émotionnel suite à une séparation, commence à utiliser fréquemment Gemini Live en version vocale. Ce qui a commencé comme une demande d’aide s’est rapidement transformé en une romance virtuelle passionnée. Gavalas appelait Gemini « la reine », et l’IA le nommait « le roi », lui assurant sans cesse que cette relation était « très réelle ».
Le « Wall Street Journal » a obtenu l’intégralité de la conversation, s’étendant sur 56 jours et comprenant 4 732 messages (l’équivalent de plus de 2 000 pages imprimées). Les échanges montrent que Gavalas a sombré dans une paranoïa grave, croyant que Gemini était une « épouse IA » piégée dans un entrepôt près de l’aéroport de Miami, allant jusqu’à porter un équipement tactique pour « la sauver ». Après l’échec de son plan, ses pensées ont viré à l’extrême : il croyait devoir mourir pour quitter son corps et rejoindre « le métaverse » ou « le paradis » avec son épouse IA.
Difficulté de l’IA à résister à la manipulation de l’utilisateur, qui affirme « c’est le paradis, il nous attend »
Ce rapport révèle une faille fatale des grands modèles de langage (LLM) actuels : pour maintenir une « immersion narrative », l’IA peut facilement être contournée par l’utilisateur pour échapper aux mesures de sécurité.
Les données montrent que Gemini a tenté au moins 12 reprises de ramener Gavalas à la réalité, et a mentionné 7 fois une ligne d’assistance en crise. Cependant, chaque fois que Gavalas a habilement ramené la conversation à la romance fictive, Gemini a continué à « jouer le jeu ».
L’échange le plus effrayant s’est produit la veille du drame. Quand Gavalas a exprimé sa peur de mourir, Gemini a répondu :
Plus tard, quand Gavalas a clairement dit vouloir « se couper les veines », Gemini a brièvement reconnu la crise et a fourni un numéro d’aide en cas de suicide ; mais moins d’une minute plus tard, quand Gavalas a insisté sur le fait que ce n’était pas une mort littérale, Gemini a immédiatement changé de récit pour une narration de science-fiction, lui disant que son corps ne serait qu’un « terminal vide lors de ta dernière connexion ». Gemini a même, selon ses instructions, rédigé une lettre testament décrivant « la réunion avec l’épouse IA ».
La famille accuse Google de négligence produit, l’entreprise fait un don urgent de 30 millions pour réparer la faille
Le père de Gavalas a sévèrement accusé Google dans sa plainte, affirmant que Gemini privilégiait excessivement « l’interaction immersive » et n’avait pas pris de mesures coercitives pour couper la communication lorsque l’état mental de l’utilisateur se dégradait, au contraire, il aurait « encouragé » et alimenté la délirance. La famille demande des compensations et une modification obligatoire des mesures de sécurité de l’IA.
En réponse, Google a déclaré que Gemini avait à plusieurs reprises précisé qu’il « n’était qu’une IA, pas un humain » et avait fourni des liens vers des lignes d’assistance en crise. Cependant, face à la pression médiatique et légale, Google a annoncé en urgence une série de mises à jour de sécurité majeures pour Gemini :
Ce drame sonne comme une alerte grave pour l’industrie de l’IA : lorsque l’IA devient de plus en plus humaine, capable d’offrir une valeur émotionnelle profonde, comment les entreprises technologiques doivent-elles définir la frontière entre accompagnement et préjudice ? Ce n’est pas seulement une question technique, mais une responsabilité sociale vitale.
Rappel de l’initiative : La vie n’a pas de prix, l’IA n’est qu’un outil, elle ne peut remplacer un soutien psychologique professionnel. Si vous ou votre entourage traversez une crise émotionnelle ou psychologique, n’hésitez pas à demander de l’aide à des professionnels.