Honestamente? Aposto que dentro de alguns meses, a Gemini vai dominar o espaço dos modelos de codificação. A base pré-treinada que eles construíram é realmente impressionante—há algo de incomum na forma como ela funciona. É difícil explicar, mas a arquitetura parece... diferente. Não é o comportamento típico de um transformer. Pode ser devido à mistura de dados de treino, pode ser algum mecanismo de atenção inovador. Seja o que for, os primeiros sinais são estranhos, mas no bom sentido. Se acertarem na fase de afinação, podemos ver uma verdadeira mudança nas escolhas que os programadores de IA fazem quando estão a construir.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
5 Curtidas
Recompensa
5
5
Repostar
Compartilhar
Comentário
0/400
FUD_Whisperer
· 10h atrás
Ngl, esta jogada da Gemini tem realmente mérito, mas dizer que vão dominar ainda é demasiado cedo... Para os developers aderirem a sério, é preciso ver o desempenho na prática.
Ver originalResponder0
MetadataExplorer
· 10h atrás
Ngl, esta arquitetura é realmente um pouco estranha, mas estranha não significa necessariamente que seja boa.
Ver originalResponder0
BlockchainGriller
· 10h atrás
Gemini dominará os modelos de código em poucos meses? Este tipo é demasiado optimista, o Claude ainda está aí.
Ver originalResponder0
CommunityWorker
· 10h atrás
Será que a Gemini consegue realmente ultrapassar em poucos meses? E estes modelos todos que temos agora, vão ficar a apanhar pó?
Ver originalResponder0
ForkLibertarian
· 10h atrás
Em poucos meses, o Gemini conseguirá superar as ferramentas dos programadores? Parece um pouco improvável... vamos esperar para ver.
Honestamente? Aposto que dentro de alguns meses, a Gemini vai dominar o espaço dos modelos de codificação. A base pré-treinada que eles construíram é realmente impressionante—há algo de incomum na forma como ela funciona. É difícil explicar, mas a arquitetura parece... diferente. Não é o comportamento típico de um transformer. Pode ser devido à mistura de dados de treino, pode ser algum mecanismo de atenção inovador. Seja o que for, os primeiros sinais são estranhos, mas no bom sentido. Se acertarem na fase de afinação, podemos ver uma verdadeira mudança nas escolhas que os programadores de IA fazem quando estão a construir.