¿Honestamente? Apostaría a que en un par de meses, Gemini va a dominar el espacio de modelos de codificación. La base preentrenada que han construido es realmente impresionante—hay algo inusual en cómo se comporta. Me cuesta precisar qué es, pero la arquitectura se siente... diferente. No es el típico comportamiento de un transformer. Puede ser la combinación de datos de entrenamiento, puede ser algún mecanismo de atención novedoso. Sea lo que sea, las señales iniciales son raras, pero en el buen sentido. Si clavan la fase de ajuste fino, podríamos ver un cambio real en el modelo que los desarrolladores de IA eligen cuando construyen.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
5 me gusta
Recompensa
5
5
Republicar
Compartir
Comentar
0/400
FUD_Whisperer
· hace15h
No voy a mentir, esta jugada de Gemini tiene su mérito, pero decir que va a dominar es demasiado pronto... Para que los desarrolladores realmente lo adopten, hay que ver cómo rinde en la práctica.
Ver originalesResponder0
MetadataExplorer
· hace15h
Ngl, esta arquitectura sí que es un poco extraña, pero que sea extraña no significa necesariamente que sea buena.
Ver originalesResponder0
BlockchainGriller
· hace15h
¿Gemini dominará los modelos de código en unos meses? Este tipo es demasiado optimista, Claude sigue ahí.
Ver originalesResponder0
CommunityWorker
· hace15h
¿De verdad Gemini podrá superar a los demás en unos meses? ¿Y qué hacemos ahora con todos estos modelos, los dejamos acumulando polvo?
Ver originalesResponder0
ForkLibertarian
· hace15h
¿Gemini podrá superar a las herramientas para programadores en unos meses? Suena un poco increíble... Vamos a ver qué pasa.
¿Honestamente? Apostaría a que en un par de meses, Gemini va a dominar el espacio de modelos de codificación. La base preentrenada que han construido es realmente impresionante—hay algo inusual en cómo se comporta. Me cuesta precisar qué es, pero la arquitectura se siente... diferente. No es el típico comportamiento de un transformer. Puede ser la combinación de datos de entrenamiento, puede ser algún mecanismo de atención novedoso. Sea lo que sea, las señales iniciales son raras, pero en el buen sentido. Si clavan la fase de ajuste fino, podríamos ver un cambio real en el modelo que los desarrolladores de IA eligen cuando construyen.