Résultats de la recherche pour "PRO"
Aujourd'hui
08:02

Un courtier lance un service de trading de CFD sur crypto-monnaies, couvrant six des principales cryptos.

D’après ce qui est rapporté, un courtier CFD a récemment lancé un service de trading de CFD sur crypto-monnaies, couvrant six actifs : Bitcoin, Ethereum, XRP, Solana, Dogecoin et Cardano. Les CFD sur Bitcoin et sur Ethereum offrent un levier maximal de 1:500 ; pour les quatre autres crypto-monnaies, le levier maximal est de 1:50. Le service prend en charge les types de comptes Pro, ProCent et ECN, avec un calendrier de trading sur 7 jours. Le responsable régional des opérations du courtier a déclaré : « Les crypto-monnaies sont devenues une composante importante du domaine du trading moderne, et de nombreux clients souhaitent obtenir une exposition aux crypto-monnaies en dehors des marchés du Forex, des métaux précieux, des indices, etc. En ajoutant des CFD sur crypto-monnaies à notre environnement de trading, nous offrons à nos clients une manière familière de négocier la fluctuation des prix des actifs numériques, sans avoir à gérer de portefeuilles numériques ni des comptes d’échange. »
Plus
BTC0,66%
ETH-0,61%
XRP0,21%
SOL0,03%
13:41

Alibaba Cloud réduit le prix du cache implicite de DeepSeek-V4-Pro à 1 yuan par million de jetons le 29 avril

Selon Alibaba Cloud, sa plateforme Bailian réduira le prix du cache implicite du modèle DeepSeek-V4-Pro (Implicit Cache) à 1 yuan par million de jetons, à compter du 29 avril 2026 à 23:59:59, heure de Pékin. Le cache implicite ne s’applique que lorsque les requêtes correspondent au cache ; les jetons d’entrée mis en cache sont facturés au tarif cached_token, tandis que les jetons d’entrée non mis en cache sont facturés aux tarifs standard input_token,.
Plus
06:31

DeepSeek réduit les prix de V4-Pro de 75 % et fait chuter les coûts de cache d’API à un dixième

Message de Gate News, 27 avril — DeepSeek a annoncé une réduction de 75 % sur son nouveau modèle V4-Pro pour les développeurs et a réduit les prix des caches de requêtes d’entrée sur l’ensemble de sa gamme d’API à un dixième des niveaux précédents. Le modèle V4, publié le 25 avril en versions Pro et Flash, a été optimisé pour les processeurs Ascend de Huawei. DeepSeek a déclaré que V4-Pro surpasse les autres modèles open source sur des benchmarks de connaissances mondiales et se classe deuxième seulement derrière Gemini-Pro-3.1, le modèle propriétaire de Google. La famille V4 est conçue spécifiquement pour les agents IA qui gèrent des tâches complexes au-delà des capacités d’un chatbot. Les coûts de l’API V4-Pro sont déjà inférieurs à ceux des principaux concurrents occidentaux : 3,48 $ pour un million de tokens de sortie, contre pour GPT-4.5 d’OpenAI. La tarification V4-Flash s’élève à 0,14 $ par million de tokens d’entrée et à 0,28 $ par million de tokens de sortie, ce qui pourrait permettre des applications rentables telles que l’examen de l’ensemble d’une base de code ou de documents réglementaires en une seule requête.
Plus
05:17

GPT-5.5 revient à la pointe du codage, mais OpenAI change de benchmarks après avoir perdu face à Opus 4.7

Message de Gate News, 27 avril — SemiAnalysis, un cabinet d’analyse de semi-conducteurs et d’IA, a publié un benchmark comparatif d’assistants de codage incluant GPT-5.5, Claude Opus 4.7 et DeepSeek V4. Le principal constat : GPT-5.5 marque le premier retour d’OpenAI à la pointe dans les modèles de codage en six mois, avec des ingénieurs de SemiAnalysis qui alternent désormais entre Codex et Claude Code après s’être auparavant appuyés presque exclusivement sur Claude. GPT-5.5 repose sur une nouvelle approche de préentraînement codée « Spud » et représente la première expansion de l’échelle de préentraînement d’OpenAI depuis GPT-4.5. Lors de tests pratiques, une division claire des tâches est apparue. Claude gère la planification de nouveaux projets et la configuration initiale, tandis que Codex excelle dans les corrections de bugs axées sur le raisonnement. Codex fait preuve d’une meilleure compréhension des structures de données et d’un raisonnement logique, mais a des difficultés à inférer l’intention utilisateur ambiguë. Sur une tâche à un seul tableau de bord, Claude a reproduit automatiquement la mise en page de la page de référence tout en fabriquant de grandes quantités de données, tandis que Codex a ignoré la mise en page mais a fourni des données nettement plus exactes. L’analyse révèle un détail de manipulation du benchmark : dans un billet de blog de février, OpenAI a exhorté l’industrie à adopter SWE-bench Pro comme nouveau standard pour les benchmarks de codage. Cependant, l’annonce de GPT-5.5 est passée à un nouveau benchmark appelé « Expert-SWE ». La raison, dissimulée dans les petits caractères, est que GPT-5.5 a été dépassé par Opus 4.7 sur SWE-bench Pro et a chuté de manière significative par rapport à Mythos non publié de l’Anthropic 77.8%. Concernant Opus 4.7, Anthropic a publié une analyse post-mortem une semaine après la sortie, reconnaissant trois bugs dans Claude Code qui ont persisté pendant plusieurs semaines de mars à avril, affectant près de tous les utilisateurs. Plusieurs ingénieurs avaient déjà signalé une dégradation des performances dans la version 4.6, mais ils avaient été écartés en tant qu’observations subjectives. De plus, le nouveau tokenizer d’Opus 4.7 augmente l’utilisation de tokens jusqu’à 35 %, qu’Anthropic a admis ouvertement — ce qui revient effectivement à une hausse de prix cachée. DeepSeek V4 a été évalué comme « tenant le rythme avec la frontière mais sans la mener », se positionnant comme l’alternative la moins coûteuse parmi les modèles à code source fermé. L’analyse a également noté que « Claude continue de surpasser DeepSeek V4 Pro sur des tâches d’écriture chinoises à haute difficulté », en commentant que « Claude a gagné contre le modèle chinois dans sa propre langue. » L’article présente un concept clé : le prix des modèles doit être évalué par « coût par tâche » plutôt que par « coût par token ». Le prix de GPT-5.5 est le double de celui de GPT-5.4 input $5, output par million de tokens, mais il accomplit les mêmes tâches en utilisant moins de tokens, ce qui ne rend pas nécessairement le coût réel plus élevé. Les données initiales de SemiAnalysis montrent que le ratio input-to-output de Codex est de 80:1, inférieur à celui de Claude Code à 100:1.
Plus
15:02

DeepSeek réduit les prix du cache d’entrée à 1/10 du prix de lancement ; V4-Pro passe à 0,025 yuan par million de jetons

Message de Gate News, 26 avril — DeepSeek a réduit les prix du cache d’entrée sur l’ensemble de sa gamme de modèles à un dixième des prix de lancement, à compter de ce jour. Le modèle V4-Pro est disponible avec une remise de 2,5x, pour une durée limitée, la promotion se poursuivant jusqu’au 5 mai 2026, 23:59 UTC+8. Suite aux deux
Plus
01:29
1

Alibaba Cloud Lance Qwen-Image-2.0-Pro avec une Génération Texte-Image et une Retouche Unifiées, prenant en charge le rendu de texte multilingue

Message des actualités Gate News, 26 avril — La plateforme Alibaba Cloud Bailian a lancé Qwen-Image-2.0-Pro, une version complète de la série Qwen-Image-2.0 qui combine la génération texte-image et le retouche d’images au sein d’un seul modèle. Les utilisateurs peuvent modifier directement des objets, du texte et des styles via des commandes en langage naturel
Plus
12:31

DeepSeek lance les modèles V4-Pro et V4-Flash à un coût inférieur de 98 % à celui du GPT-5.5 Pro d’OpenAI

Message de Gate News, 25 avril — DeepSeek a publié des versions préliminaires de V4-Pro et V4-Flash le 24 avril, deux modèles open-weight avec des fenêtres de contexte d’un million de tokens. V4-Pro dispose de 1,6 billion de paramètres au total, mais n’active que 49 milliards par passe d’inférence en utilisant une architecture de type Mixture-of-Experts.
Plus
14:42

DeepSeek V4 est lancé avec une fenêtre de contexte de 1M ; les puces Huawei Ascend et Cambricon atteignent une compatibilité totale

Message de Gate News, 24 avril — DeepSeek V4-Pro et DeepSeek V4-Flash ont été officiellement publiés et open-sourcés le 24 avril, avec une longueur de traitement du contexte considérablement étendue de 128K à 1M, soit une augmentation de capacité d’environ 10 fois. Huawei Computing a annoncé que ses produits de supernœud Ascend
Plus