刚看到小米的 MiMo 团队开源了新模型,V2.5系列。


我觉得有意思的是他们用的MIT协议,这就很敞亮了,你拿去做商业产品、自己接着训、随便改,人家都不管你。
两个模型也说一下。
Pro版是个纯文本的MoE,总参数1.02万亿,但你不用慌,实际跑起来只激活420亿,硬件压力没那么大。它主要是给agent任务和写代码用的。ClawEval上的分数跟GPT-5.4它们差不多一个档次,但有个数据挺吸引人,每条任务只花7万token左右,比其他家省了一半还多。这就等于同样的活儿,你付的token账单能少一大截。
另一个是全模态版,3100亿参数,激活150亿,能看能听能读图。配了专门的视觉和音频编码器。两个都能一次性处理100万token上下文,什么长篇代码、整本书都够用了。
而且他们还搞了个活动,30天内免费送100万亿token额度。个人、团队、企业都能申请,过了就能拿去用在Claude Code、Cursor这些工具上。
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论