Honestamente? Aposto que dentro de alguns meses, a Gemini vai dominar o espaço dos modelos de codificação. A base pré-treinada que eles construíram é realmente impressionante—há algo de incomum na forma como ela funciona. É difícil explicar, mas a arquitetura parece... diferente. Não é o comportamento típico de um transformer. Pode ser devido à mistura de dados de treino, pode ser algum mecanismo de atenção inovador. Seja o que for, os primeiros sinais são estranhos, mas no bom sentido. Se acertarem na fase de afinação, podemos ver uma verdadeira mudança nas escolhas que os programadores de IA fazem quando estão a construir.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
5 gostos
Recompensa
5
5
Republicar
Partilhar
Comentar
0/400
FUD_Whisperer
· 5h atrás
Ngl, esta jogada da Gemini tem realmente mérito, mas dizer que vão dominar ainda é demasiado cedo... Para os developers aderirem a sério, é preciso ver o desempenho na prática.
Ver originalResponder0
MetadataExplorer
· 5h atrás
Ngl, esta arquitetura é realmente um pouco estranha, mas estranha não significa necessariamente que seja boa.
Ver originalResponder0
BlockchainGriller
· 5h atrás
Gemini dominará os modelos de código em poucos meses? Este tipo é demasiado optimista, o Claude ainda está aí.
Ver originalResponder0
CommunityWorker
· 5h atrás
Será que a Gemini consegue realmente ultrapassar em poucos meses? E estes modelos todos que temos agora, vão ficar a apanhar pó?
Ver originalResponder0
ForkLibertarian
· 5h atrás
Em poucos meses, o Gemini conseguirá superar as ferramentas dos programadores? Parece um pouco improvável... vamos esperar para ver.
Honestamente? Aposto que dentro de alguns meses, a Gemini vai dominar o espaço dos modelos de codificação. A base pré-treinada que eles construíram é realmente impressionante—há algo de incomum na forma como ela funciona. É difícil explicar, mas a arquitetura parece... diferente. Não é o comportamento típico de um transformer. Pode ser devido à mistura de dados de treino, pode ser algum mecanismo de atenção inovador. Seja o que for, os primeiros sinais são estranhos, mas no bom sentido. Se acertarem na fase de afinação, podemos ver uma verdadeira mudança nas escolhas que os programadores de IA fazem quando estão a construir.