"GPU"的搜索结果
2026-04-30
02:31

Gorilla Technology 与印度的 Yotta 扩展价值 28 亿美元的 AI 基础设施协议,新增 20,736 台 B300 GPU

据印度新闻信托社(Press Trust of India)报道,总部位于英国的 Gorilla Technology Group 于 4 月 29 日与 Yotta Data Services 扩展了其 AI 基础设施合作项目,项目估值约为 28 亿美元。扩展后的协议涵盖 20,736 台 B300 GPU,计划在 2026 年 9 月 30 日前部署于印度,并在此基础上新增一项价值约 28 亿美元的相关合作。
展开
04:33

Altman 表示:OpenAI 模型将逐步迁移到亚马逊定制的 Trainium 芯片,他表示“期待”

Gate 新闻消息,4月29日——根据 OpenAI 首席执行官 Sam Altman 以及 AWS 高管的近期表态,运行在亚马逊网络服务(AWS)Bedrock 上的 OpenAI 模型将逐步迁移到 Trainium。Trainium 是亚马逊专为 AI 定制的芯片。当前,模型在使用 GPU 和 Trainium 的混合环境中运行,且随着时间推移,向 Trainium 的占比会逐步增加。
展开
04:05

蚂蚁集团 Ling-2.6-flash 模型开源:1040B 参数、7.4B 有效参数,达成多项 SOTA 基准

Gate 新闻简报,4月29日——蚂蚁集团的 Ling-2.6-flash 模型权重现已开源;此前这些权重仅通过 API 提供。该模型总参数量为 1040 亿,单次推理激活为 74 亿,拥有 256K 上下文窗口,并采用 MIT 许可。提供 BF16、FP8 和 INT4 精度版本,现已在 HuggingFace 与 ModelScope 上提供。 Ling-2.6-flash 相较 Ling 2.0 引入了混合线性注意力改进:将原始的 GQA 升级为 1:7 MLA,并结合 Lightning Linear 的混合架构,同时配合高度稀疏的 MoE。推理效率显著超过同类模型:在 4x H20 GPU 上,峰值生成速度达到 340 tokens/s;在可比的开源模型上,prefill 与 decode 的吞吐量约高出 4 倍。与智能体相关的基准测试显示出强劲表现:BFCL-V4、TAU2-bench、SWE-bench Verified 61.2%、Claw-Eval 以及 PinchBench 达到或接近 SOTA 水平。在完整的 Artificial Analysis 基准测试套件中,总 token 消耗仅为 1500 万。在 AIME 2026 上,该模型得分为 73.85%。 蚂蚁集团的官方网站同样列出了 Ling-2.6-1T 万亿参数旗舰版本 以及 Ling-2.6-mini 轻量版本 ;不过截至发布,权重仍未在 HuggingFace 上发布,当前仅提供 flash 系列下载。
展开
10:21

南亚科技将为英伟达 Vera Rubin 人工智能平台供应 LPDDR5X 内存

Gate 新闻消息,4 月 28 日——台湾内存芯片制造商南亚科技将为英伟达下一代 Vera Rubin 人工智能平台供应 LPDDR5X 低功耗 DRAM,并采用 SOCAMM2 内存模块格式。 英伟达正在增加南亚科技作为备份供应商,与三星电子和 SK 海力士并列,以降低供货风险并提升定价议价能力。此举是在台积电协助提升英伟达的 LPDDR 封装及质量之后进行的。 每台 Vera Rubin 超级芯片将一颗中央处理器(CPU)与一颗图形处理器(GPU)配对,并配备 1.5 TB 的内存——其容量是此前系统的三倍。与传统注册式双列直插内存模块 RDIMMs 相比,SOCAMM2 提供了超过两倍的带宽,并在能效方面提升超过 75%,以满足人工智能工作负载需求。
展开