🔥 Gate 广场活动|#发帖赢Launchpad新币KDK 🔥
KDK|Gate Launchpad 最新一期明星代币
以前想参与? 先质押 USDT
这次不一样 👉 发帖就有机会直接拿 KDK!
🎁 Gate 广场专属福利:总奖励 2,000 KDK 等你瓜分
🚀 Launchpad 明星项目,走势潜力,值得期待 👀
📅 活动时间
2025/12/19 12:00 – 12/30 24:00(UTC+8)
📌 怎么参与?
在 Gate 广场发帖(文字、图文、分析、观点都行)
内容和 KDK上线价格预测/KDK 项目看法/Gate Launchpad 机制理解相关
帖子加上任一话题:#发帖赢Launchpad新币KDK 或 #PostToWinLaunchpadKDK
🏆 奖励设置(共 2,000 KDK)
🥇 第 1 名:400 KDK
🥈 前 5 名:200 KDK / 人(共 1,000 KDK)
🥉 前 15 名:40 KDK / 人(共 600 KDK)
📄 注意事项
内容需原创,拒绝抄袭、洗稿、灌水
获奖者需完成 Gate 广场身份认证
奖励发放时间以官方公告为准
Gate 保留本次活动的最终解释权
微软,用最开放的云,玩最野的 AI
原文来源:极客公园
你几乎很难想象,那个困于混合现实和量子计算,在 B 端和 C 端都乏善可陈的巨头微软,能在短短一年时间之内脱胎换骨,成为整个硅谷,不,乃至全球最潮的科技公司。
点燃这家老牌公司的,无他,只有两个字母——AI。
当地时间 11 月 15 日,在其大本营美国西雅图,微软公司 CEO 萨提亚·纳德拉在 Ignite 大会上,一口气公布了 100 多项以 AI 为中心,在云计算基础设施、 模型即服务 MaaS 、数据平台、Copilot 人工智能助手等方方面面的新产品和新功能。
其中,既有 Azure Cobalt、Azure Maia 这样专门为 AI 打造的 ARM 架构 CPU 和 AI 加速芯片,也有重新为 AI 设计的端到端机架,微软甚至重新改进了线缆中的光纤技术,只为了比特传输更加快速。
就在你以为微软要用自研处理器,免交「英伟达税」时,纳德拉不仅请来了英伟达创始人黄仁勋进行「商业互吹」,而且将 AMD 、英伟达最新的处理器纳入 Azure 云服务,让后者在 AI 时代成为最 Open 的「世界计算机」。
两周前 OpenAI 的开发者大会上,Sam Altman 把纳德拉请上台后第一句话就是:「你说说咱俩家关系是怎么滴了?」直接把自己最大的「金主爸爸」整笑了。今天的微软自己的场子上,PPT 背板上写着的「微软爱 OpenAI」算是纳德拉对 Altman,以及业界对于两家关系「表面和气背地竞争」质疑的回敬。
「我们承诺,所有 OpenAI 的创新,都将成为 Azure AI 的一部分,提供给大家。」纳德拉的演讲,再次证明微软和 OpenAI 亲密无间的关系。而价格更低能力更强的 GPT-4 Turbo 也如愿来到微软的 AI 服务之中。
同时,Copilot Studio,类似于 OpenAI 的 GPTs,让用户可以一句话生成自己的 GPT。而且,不论是 Copilot 还是 GPTs,都可以作为插件在人工智能助手页面使用。
「Copilot 将是新的交互界面,帮助人们接触现实世界和组织内的知识;更重要的是,它还是你的智能体,帮助你在这些知识的基础上做行动。」
一年之前,微软还是一家商业软件公司;一年之后,微软成为了一家「Copilot」公司,一家全球最开放,野心也最大的 AI 公司。
01 自研芯片曝光,最「AI」的云基建
不同于今年 3 月微软初次展现 Copilot demo 时的炫酷,在今天的大会上,纳德拉强调落地。他说:「我们正在进入人工智能的一个令人兴奋的新阶段,不仅仅是将其视为新奇的技术,而且还涉及到产品制造、部署、安全性、真正的生产效益以及所有与现实世界有关的细节。
迈入 Copilot 时代的微软,打造了端到端 Copilot 堆栈,包括:基础设施、基础模型、数据工具链,以及 Copilot 本身。基于这一新的堆栈,纳德拉依次介绍了再次「刷新」的微软。
首先是最底层的堆栈——驱动 AI 模型的云计算基础设施。作为 OpenAI 的独家云供应商,这一身份无疑让微软云 Azure 迅速进化为,大模型工作负载下更适配的云。这一结果背后,是一个最开放的平台公司,做出的全栈升级。从能源、数据中心、网络、CPU 和 AI 加速器等方面,微软与广泛的合作伙伴再造基础设施:
纳德拉兴奋地总结称,「看到我们作为一家超级计算机公司,了解工作负载,据此获得机会优化整个堆栈,从能源消耗到硅片,以最大化性能和效率,真的很感谢这个闭环(feedback cycle)」。
紧接着,他宣布了数据中心期待已久的重磅发布:第一款定制的自家 CPU 系列 Azure Cobalt 和AI加速芯片 Azure Maia。
Microsoft Azure Cobalt 是一款基于 Arm 架构的云原生芯片,针对通用工作负载的性能、功率和成本效益进行了优化。纳德拉称,这款 CPU 芯片已经在支持 Microsoft Teams Azure 通信服务以及 Azure SQL 的部分中使用;明年也将向客户提供这款产品。
Microsoft Azure Maia 是一款 AI 加速芯片,用于 OpenAI 模型、Bing、GitHub Copilot 和 ChatGPT 等 AI 工作负载运行云端训练和推理。这款芯片采用了 5 纳米工艺制造,拥有 1050 亿个晶体管。
纳德拉称,「硅多样性(sillicon diversity)是我们能够支持世界上最强大的基础模型和所有 AI 工作负载的关键因素」,在本次 Ignite 技术大会上,微软不仅发布了两款自研芯片,也纳入了更多行业合作伙伴的最新 AI 优化芯片,包括 AMD Instinct MI300X,以及英伟达 H100 和 H200。
在上述超级计算机之上,微软还提供参数量从数十亿到数万亿不等的基础模型,来满足不同开发者构建AI应用程序时的成本、延迟和性能需求。
当然,OpenAI 的更新,会作为 Azure AI 的一部分持续交付。最新的 GPT-4,包括 GPT-4 Turbo 与视觉功能将引入 Azure OpenAI 服务。GPT-4 Turbo 将于 2023 年 11 月底在 Azure OpenAI 服务中公开预览,定价将与 OpenAI 保持一致。GPT-4 Turbo with Vision 即将推出预览版,DALLE·3 现已在 Azure Open AI 服务中公开预览。
另外,Azure OpenAI 服务,将引入 GPT-4 的微调功能,允许客户使用自己的数据创建 GPT-4 的自定义版本。
除了闭源模型,微软还扩大了开源模型的 MaaS 服务,让专业开发者将能够轻松将Stable Diffusion、Meta Llama 2 、Mistral 即将推出的高级模型以及 G42 Jais 等最新的AI模型,通过API集成到他们的应用中;还可以用自己的数据定制这些模型,而无需担心 GPU 基础架构的设置和管理。
02数据驱动,微软 AI 的 B 端核心
从上述硬件和软件的基础设施再往上一层,是数据。可以说,没有数据就没有人工智能。在这次大会上,纳德拉重点介绍了在今年 5 月 Build 开发者大会上首次推出了数据平台——Microsoft Fabric。自发布以来,Fabric 已经进行了 100 多项功能更新,并与合作伙伴一起扩展了生态系统,目前已经有包括 Milliman、蔡司、伦敦证券交易所和安永在内、超过 25000 家客户使用。
03微软 Copilot,也能「一键生成 GPT」了
在应用这一层级,Copilot 全面迎来了自己的时代。在 Ignite 2023 大会上,微软宣布 Bing Chat 和 Bing Chat for Enterprise 现在将更名为「Copilot」,并发布了「Copilot Studio」,可定制 Copilot,或构建独立的协同助手,包括自定义的 GPT、生成式 AI 插件等,可以自定义主题。在使用方面,Copilot Studio 可以在同一网页中构建、部署、分析和管理所有内容,通过使用拖放的低代码方法,包括逻辑和数据连接,直接构建和发布插件到适用于 Microsoft 365 的 Copilot。