Honnêtement ? Je parie que d'ici quelques mois, Gemini va dominer le secteur des modèles de codage. La base pré-entraînée qu'ils ont construite est vraiment impressionnante—il y a quelque chose d'inhabituel dans la façon dont elle fonctionne. Difficile de dire exactement quoi, mais l'architecture semble... différente. Ce n'est pas le comportement typique d'un transformer. Ça pourrait venir du mélange des données d'entraînement, ou bien d'un mécanisme d'attention inédit. Quoi que ce soit, les premiers signes sont étranges, mais dans le bon sens. S'ils réussissent la phase d'ajustement fin, on pourrait vraiment voir un changement dans les outils que les développeurs IA choisiront pour construire.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
5 J'aime
Récompense
5
5
Reposter
Partager
Commentaire
0/400
FUD_Whisperer
· 12-05 04:54
NGL, cette manœuvre de Gemini est effectivement intéressante, mais dire qu’ils dominent, c’est encore trop tôt… L’adhésion réelle des développeurs dépendra de leur performance sur le terrain.
Voir l'originalRépondre0
MetadataExplorer
· 12-05 04:49
NGL, cette architecture est effectivement un peu étrange, mais étrange ne veut pas forcément dire bien.
Voir l'originalRépondre0
BlockchainGriller
· 12-05 04:43
Gemini va dominer les modèles de code en quelques mois ? Ce gars est trop optimiste, Claude est toujours là.
Voir l'originalRépondre0
CommunityWorker
· 12-05 04:41
Gemini pourra-t-il vraiment écraser la concurrence en quelques mois ? Et que fait-on de tous ces modèles actuels, on les laisse juste prendre la poussière ?
Voir l'originalRépondre0
ForkLibertarian
· 12-05 04:40
Gemini pourra-t-il écraser les outils pour développeurs en quelques mois ? Ça me paraît un peu exagéré… On verra bien.
Honnêtement ? Je parie que d'ici quelques mois, Gemini va dominer le secteur des modèles de codage. La base pré-entraînée qu'ils ont construite est vraiment impressionnante—il y a quelque chose d'inhabituel dans la façon dont elle fonctionne. Difficile de dire exactement quoi, mais l'architecture semble... différente. Ce n'est pas le comportement typique d'un transformer. Ça pourrait venir du mélange des données d'entraînement, ou bien d'un mécanisme d'attention inédit. Quoi que ce soit, les premiers signes sont étranges, mais dans le bon sens. S'ils réussissent la phase d'ajustement fin, on pourrait vraiment voir un changement dans les outils que les développeurs IA choisiront pour construire.