Чесно? Я впевнений, що за кілька місяців Gemini буде домінувати на ринку моделей для кодування. Їхня попередньо навчена база справді вражає — є щось незвичне у її продуктивності. Важко пояснити, але сама архітектура здається… іншою. Це не типова поведінка трансформера. Можливо, причина у складі тренувальних даних, можливо, вони застосували якийсь новий механізм уваги. Що б це не було, перші результати дивні, але в хорошому сенсі. Якщо їм вдасться етап донавчання, ми можемо побачити справжню зміну у виборі AI-інструментів, якими користуються розробники.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
7 лайків
Нагородити
7
5
Репост
Поділіться
Прокоментувати
0/400
FUD_Whisperer
· 12-05 04:54
Чесно кажучи, у Gemini ця хвиля справді має потенціал, але говорити про домінування ще зарано... Чи оцінять це розробники, покаже лише реальна практика.
Переглянути оригіналвідповісти на0
MetadataExplorer
· 12-05 04:49
Чесно кажучи, ця архітектура справді трохи дивна, але дивна не обов’язково означає хороша.
Переглянути оригіналвідповісти на0
BlockchainGriller
· 12-05 04:43
За кілька місяців Gemini стане домінуючою моделлю для коду? Цей хлопець занадто оптимістичний, адже Claude ще існує.
Переглянути оригіналвідповісти на0
CommunityWorker
· 12-05 04:41
За кілька місяців Gemini дійсно зможе всіх перегнати? А що робити з цією купою моделей зараз, просто відправити припадати пилом?
Переглянути оригіналвідповісти на0
ForkLibertarian
· 12-05 04:40
За кілька місяців Gemini зможе обійти інструменти для програмістів? Трохи сумнівно... Побачимо.
Чесно? Я впевнений, що за кілька місяців Gemini буде домінувати на ринку моделей для кодування. Їхня попередньо навчена база справді вражає — є щось незвичне у її продуктивності. Важко пояснити, але сама архітектура здається… іншою. Це не типова поведінка трансформера. Можливо, причина у складі тренувальних даних, можливо, вони застосували якийсь новий механізм уваги. Що б це не було, перші результати дивні, але в хорошому сенсі. Якщо їм вдасться етап донавчання, ми можемо побачити справжню зміну у виборі AI-інструментів, якими користуються розробники.