Thật khó để tưởng tượng rằng Microsoft, một gã khổng lồ bị mắc kẹt trong thực tế hỗn hợp và điện toán lượng tử, và mờ nhạt ở cả hai phía B và C, có thể được tái sinh thành công ty công nghệ thời thượng nhất ở Thung lũng Silicon và thế giới, chỉ trong một năm.
Thứ đốt cháy công ty cũ này không gì khác ngoài hai chữ cái - AI.
Ngày 15/11, giờ địa phương, tại trụ sở chính Seattle, Mỹ, Giám đốc điều hành Microsoft Satya Nadella đã công bố hơn 100 sản phẩm mới và tính năng mới tập trung vào AI trong cơ sở hạ tầng điện toán đám mây, MaaS mô hình như một dịch vụ, nền tảng dữ liệu, trợ lý trí tuệ nhân tạo Copilot và các khía cạnh khác tại hội nghị Ignite.
Satya giới thiệu chip CPU Azure Cobalt|Microsoft
Trong số đó, có CPU dựa trên ARM và chip tăng tốc AI được xây dựng đặc biệt cho AI, chẳng hạn như Azure Cobalt và Azure Maia, cũng như các giá đỡ đầu cuối được thiết kế lại cho AI và Microsoft thậm chí đã cải tiến lại công nghệ sợi quang trong cáp chỉ để làm cho việc truyền bit nhanh hơn.
Ngay khi bạn nghĩ rằng Microsoft sẽ sử dụng bộ vi xử lý tự phát triển và được miễn nộp “thuế Nvidia”, Nadella không chỉ mời người sáng lập Nvidia Jensen Huang tiến hành “thổi kinh doanh”, mà còn kết hợp các bộ vi xử lý mới nhất của AMD và Nvidia vào các dịch vụ đám mây Azure, biến sau này trở thành “máy tính thế giới” mở nhất trong kỷ nguyên AI.
Tại hội nghị nhà phát triển OpenAI, Sam Altman và Satya đã nói đùa một chút |
Tại hội nghị nhà phát triển OpenAI cách đây hai tuần, những lời đầu tiên của Sam Altman sau khi mời Nadella lên sân khấu là: “Hãy kể cho tôi nghe về mối quan hệ giữa hai chúng ta?” và trực tiếp cười nhạo “người cha vàng” lớn nhất của mình. Trên lĩnh vực riêng của Microsoft ngày hôm nay, dòng chữ “Microsoft yêu OpenAI” được viết trên bảng điều khiển phía sau của PPT là phản ứng của Nadella đối với Altman và câu hỏi của ngành công nghiệp về mối quan hệ giữa hai công ty “cạnh tranh trên bề mặt và chống lại mặt sau”.
"Chúng tôi hứa rằng tất cả các đổi mới OpenAI sẽ là một phần của Azure AI và có sẵn cho tất cả mọi người. Bài phát biểu của Nadella một lần nữa chứng minh mối quan hệ chặt chẽ giữa Microsoft và OpenAI. Và GPT-4 Turbo giá thấp hơn và mạnh mẽ hơn cũng sẽ đến với dịch vụ AI của Microsoft.
Đồng thời, Copilot Studio, tương tự như GPT của OpenAI, cho phép người dùng tạo GPT của riêng họ trong một câu duy nhất. Hơn nữa, cả Copilot và GPT đều có thể được sử dụng làm trình cắm thêm trên trang trợ lý AI.
"Copilot sẽ là giao diện mới giúp mọi người tiếp cận kiến thức trong thế giới thực và trong tổ chức, và quan trọng hơn, chính đại lý của bạn sẽ giúp bạn hành động dựa trên kiến thức đó. 」
Một năm trước, Microsoft là một công ty phần mềm kinh doanh và một năm sau, Microsoft trở thành công ty “Copilot”, công ty AI cởi mở và tham vọng nhất thế giới.
**01 Tiếp xúc với chip tự phát triển, cơ sở hạ tầng đám mây “AI” nhất **
Không giống như khi Microsoft lần đầu tiên giới thiệu bản demo Copilot vào tháng 3 năm nay, Nadella nhấn mạnh việc triển khai tại hội nghị hôm nay. “Chúng tôi đang bước vào một giai đoạn mới thú vị của AI, không chỉ xem nó như một công nghệ mới, mà còn về sản xuất sản phẩm, triển khai, bảo mật, lợi ích sản xuất thực sự và tất cả các chi tiết liên quan đến thế giới thực”, ông nói.
Microsoft đã bước vào kỷ nguyên Copilot với ngăn xếp Copilot end-to-end bao gồm: cơ sở hạ tầng, mô hình nền tảng, chuỗi công cụ dữ liệu và chính Copilot. Dựa trên ngăn xếp mới này, Nadella lần lượt giới thiệu Microsoft đã được “làm mới” trở lại.
Trong bài phát biểu quan trọng của mình tại Ignite, Nadella lần lượt giới thiệu ngăn xếp Copilot của Microsoft | Microsoft
Đầu tiên là lớp thấp nhất của ngăn xếp - cơ sở hạ tầng điện toán đám mây điều khiển các mô hình AI. Là nhà cung cấp đám mây độc quyền của OpenAI, danh tính này chắc chắn đã cho phép Microsoft Cloud Azure nhanh chóng phát triển thành một đám mây phù hợp hơn cho khối lượng công việc quy mô lớn. Đằng sau kết quả này, ** là một bản nâng cấp full-stack được thực hiện bởi công ty nền tảng mở nhất. Từ năng lượng, trung tâm dữ liệu, mạng, CPU và bộ tăng tốc AI, Microsoft làm việc với nhiều đối tác để tái thiết kế cơ sở hạ tầng**:
Cung cấp năng lượng tái tạo cho các trung tâm dữ liệu;
Sử dụng vật liệu mới - công nghệ cáp quang lõi rỗng để tăng tốc hơn nữa mạng lưới các trung tâm dữ liệu;
Azure Boost hiện đang hoạt động, di chuyển các quy trình lưu trữ và kết nối mạng từ máy chủ lưu trữ sang phần cứng và phần mềm chuyên dụng, tăng tốc độ lưu trữ và mạng;
Và, quan trọng nhất, những đổi mới và hợp tác liên quan đến chip.
Nadella hào hứng kết luận: “Thật sự biết ơn khi thấy rằng chúng tôi, với tư cách là một công ty siêu máy tính, hiểu khối lượng công việc và có cơ hội tối ưu hóa toàn bộ ngăn xếp, từ tiêu thụ năng lượng đến silicon, để tối đa hóa hiệu suất và hiệu quả.”
Satya ra mắt chip tăng tốc AI Azure Maia|Microsoft
Sau đó, ông tuyên bố ra mắt trung tâm dữ liệu được chờ đợi từ lâu: Azure Cobalt, dòng CPU tùy chỉnh đầu tiên của CPU của riêng ông và Azure Maia, chip tăng tốc AI.
Microsoft Azure Cobalt là chip hoạt động trên đám mây dựa trên kiến trúc Arm được tối ưu hóa về hiệu suất, sức mạnh và hiệu quả chi phí cho khối lượng công việc đa năng. Nadella cho biết chip CPU đã được sử dụng trong các bộ phận hỗ trợ Microsoft Teams Azure Communication Services và Azure SQL; nó sẽ có sẵn cho khách hàng vào năm tới.
Microsoft Azure Maia là chip tăng tốc AI để chạy đào tạo và suy luận dựa trên đám mây trên khối lượng công việc AI như mô hình OpenAI, Bing, GitHub Copilot và ChatGPT. Con chip này được sản xuất trên quy trình 5 nanomet và có 105 tỷ bóng bán dẫn.
Azure Maia 100 美颜照|Microsoft
“Sự đa dạng của Sillicon là một yếu tố quan trọng trong khả năng của chúng tôi để hỗ trợ các mô hình nền tảng mạnh mẽ nhất thế giới và tất cả khối lượng công việc AI”, Nadella nói thêm rằng tại hội nghị công nghệ Ignite, Microsoft không chỉ công bố hai chip tự phát triển mà còn bao gồm các chip được tối ưu hóa AI mới nhất từ nhiều đối tác trong ngành hơn, bao gồm AMD Instinct MI300X, cũng như NVIDIA H100 và H200.
Ngoài các siêu máy tính này, Microsoft còn cung cấp các mô hình cơ bản với thông số từ hàng tỷ đến hàng nghìn tỷ để đáp ứng nhu cầu về chi phí, độ trễ và hiệu năng của các nhà phát triển khác nhau khi xây dựng các ứng dụng AI.
GPT-4 Turbo chắc chắn sẽ đến với nền tảng Azure Microsoft
Tất nhiên, các bản cập nhật của OpenAI được phân phối liên tục như một phần của Azure AI. GPT-4 mới nhất, bao gồm GPT-4 Turbo và khả năng thị giác, sẽ được giới thiệu cho Dịch vụ Azure OpenAI. GPT-4 Turbo sẽ được xem trước công khai trong Azure OpenAI Service vào cuối tháng 11/2023 và giá cả sẽ phù hợp với OpenAI. GPT-4 Turbo with Vision đang ở dạng bản xem trước và DALLE·3 hiện đang ở dạng bản xem trước công khai trong Azure Open AI Service.
Ngoài ra, Azure OpenAI Service sẽ giới thiệu khả năng tinh chỉnh của GPT-4, cho phép khách hàng tạo các phiên bản tùy chỉnh của GPT-4 bằng cách sử dụng dữ liệu của riêng họ.
Ngoài các mô hình nguồn đóng, Microsoft cũng đã mở rộng cung cấp MaaS cho các mô hình nguồn mở, cho phép các nhà phát triển chuyên nghiệp dễ dàng tích hợp Stable Diffusion, Meta Llama 2, các mô hình tiên tiến sắp tới của Mistral và các mô hình AI mới nhất như G42 Jais vào các ứng dụng của họ thông qua API và tùy chỉnh các mô hình này bằng dữ liệu của riêng họ mà không phải lo lắng về việc thiết lập và quản lý cơ sở hạ tầng GPU.
Satya ra mắt Azure AI Studio | Microsoft đang xây dựng dựa trên mô hình nền tảng và Microsoft đang tiếp tục hạ thấp rào cản gia nhập cho các nhà phát triển ở cấp độ công cụ - với sự ra mắt của Azure AI Studio, Microsoft đang cung cấp cho khách hàng một chuỗi công cụ vòng đời hoàn chỉnh cho phép họ xây dựng, tùy chỉnh, đào tạo, đánh giá và triển khai thế hệ mô hình mới nhất. Đáng chú ý, nó cũng bao gồm các công cụ bảo mật tích hợp và thông qua Azure AI Studio, khách hàng có thể phát hiện và lọc nội dung độc hại được tạo ra trong các ứng dụng và dịch vụ của họ.
Satya và Huang lên sân khấu để thảo luận về những thay đổi lớn mà AI sẽ mang lại | Microsoft "AI và điện toán tăng tốc là một thách thức toàn diện và là một thách thức quy mô trung tâm dữ liệu. Từ phần cứng cơ bản đến phần mềm lớp trên, Microsoft không chỉ cải thiện khả năng của chính mình mà còn giới thiệu các đối tác mạnh mẽ. Tại Ignite, Nadella và Huang thông báo rằng hai công ty sẽ không chỉ làm việc cùng nhau về phần cứng mà còn về phần mềm - dịch vụ AI Foundry của Nvidia sẽ đến với Azure. Các mô hình, khung, công cụ nền tảng của NVIDIA và siêu máy tính và dịch vụ DGX Cloud AI của nó kết hợp với nhau để cung cấp giải pháp đầu cuối cho người dùng Azure để tạo ra các mô hình AI tạo ra. Khách hàng doanh nghiệp có thể triển khai mô hình của họ trên Azure với phần mềm NVIDIA AI Enterprise để hỗ trợ các ứng dụng AI tạo ra như tìm kiếm thông minh, tóm tắt và tạo nội dung.
02 Theo hướng dữ liệu, lõi mặt B của Microsoft AI
Một cấp độ xa hơn từ cơ sở hạ tầng phần cứng và phần mềm được mô tả ở trên là dữ liệu. Có thể nói, không có trí tuệ nhân tạo nào mà không có dữ liệu. Tại hội nghị, Nadella đã nhấn mạnh nền tảng dữ liệu đã ra mắt tại hội nghị nhà phát triển Build vào tháng 5 năm nay, Microsoft Fabric. Kể từ khi ra mắt, Fabric đã thực hiện hơn 100 bản cập nhật tính năng và mở rộng hệ sinh thái với các đối tác, với hơn 25.000 khách hàng đã sử dụng nó, bao gồm Milliman, Zeiss, Sở giao dịch chứng khoán London và Ernst &; Young.
Microsoft Fabric là một tính năng cốt lõi của giải pháp kinh doanh AI|Microsoft Nhóm Microsoft muốn tạo ra một trải nghiệm tích hợp, hợp lý hóa kết nối dữ liệu khách hàng với các công cụ AI của Microsoft và Microsoft Fabric là một phần của giải pháp. Về cốt lõi, Microsoft Fabric là hợp nhất, tập hợp tất cả các công cụ phân tích và dữ liệu bạn cần với một sản phẩm, một trải nghiệm, một kiến trúc, một mô hình kinh doanh, bao gồm kỹ thuật dữ liệu, tích hợp dữ liệu, kho dữ liệu, khoa học dữ liệu, phân tích thời gian thực, khả năng quan sát ứng dụng và kinh doanh thông minh. Với “hồ dữ liệu” của Fabric, các nhóm doanh nghiệp có thể kết nối với dữ liệu từ mọi nơi và sử dụng cùng một bản sao dữ liệu trên các công cụ khác nhau. Dữ liệu thông minh này có thể truyền một cách bảo mật đến các ứng dụng Microsoft 365 mà mọi người sử dụng hàng ngày để cải thiện việc ra quyết định và tạo ra tác động. Copilot trong Microsoft Fabric cũng tích hợp với Microsoft Office và Teams để thúc đẩy văn hóa dữ liệu tối đa hóa giá trị dữ liệu trên toàn doanh nghiệp. Hiện đã sẵn sàng sử dụng, Microsoft Fabric tái tạo lại cách các nhóm làm việc với dữ liệu bằng cách tập hợp mọi người lại với nhau trên một nền tảng duy nhất, hoạt động trên nền tảng AI hợp nhất tất cả tài sản dữ liệu trên nền tảng cấp doanh nghiệp.
03 Microsoft Copilot, bạn cũng có thể “tạo GPT bằng một cú nhấp chuột”
Ở cấp độ ứng dụng, Copilot đã hoàn toàn mở ra kỷ nguyên của riêng mình. Tại Ignite 2023, Microsoft đã thông báo rằng Bing Chat và Bing Chat for Enterprise hiện sẽ được đổi tên thành “Copilot” và phát hành “Copilot Studio”, có thể tùy chỉnh Copilot hoặc xây dựng các trợ lý cộng tác độc lập, bao gồm GPT tùy chỉnh, plugin AI tạo và hơn thế nữa, để tùy chỉnh chủ đề. Về mức sử dụng, Copilot Studio có thể xây dựng, triển khai, phân tích và quản lý mọi thứ trong cùng một trang web, sử dụng phương pháp kéo và thả, mã nguồn ngắn, bao gồm kết nối logic và dữ liệu, để xây dựng và phát hành plugin trực tiếp lên Copilot cho Microsoft 365.
Bing Chat chính thức đổi tên thành Copilot|Microsoft cho biết việc không thể dễ dàng tìm thấy thông tin họ cần là một trong năm vấn đề hàng đầu mà người lao động phải đối mặt trong công việc hàng ngày. Các plugin này dựa trên dữ liệu và quy trình của người dùng và có thể trả lời các câu hỏi dựa trên dữ liệu và quy trình kinh doanh của người dùng thông qua các cuộc hội thoại giống như trò chuyện. Đối với người dùng doanh nghiệp, Copilot có thể được tùy chỉnh cho các tình huống kinh doanh cụ thể, từ quản lý quan hệ khách hàng (CRM) đến hoạch định nguồn lực doanh nghiệp (ERP) đến nguồn nhân lực (HR) và Copilot có thể trả lời các câu hỏi như “Số dư nghỉ phép của tôi là bao nhiêu?” hoặc “Tôi có bất kỳ chi phí nào để gửi không?” Ngoài việc có thể tùy chỉnh Copilot cho Microsoft 365, Microsoft hỗ trợ tạo và phát hành các trợ lý cộng tác tùy chỉnh độc lập, cũng như tích hợp liền mạch các dịch vụ của OpenAI và sắp tới, người sáng tạo sẽ có thể xây dựng GPT tùy chỉnh của riêng họ trong Copilot Studio.
Copilot Studio cho phép người dùng tạo trợ lý AI chỉ bằng một cú nhấp chuột và trông trang trọng hơn nhiều so với GPT | Trợ lý cộng tác độc lập của Microsoft có thể được xuất bản liền mạch lên nhiều kênh, chẳng hạn như trang web nội bộ và bên ngoài, ứng dụng di động, v.v. trên các trang web công cộng để cung cấp trợ lý cộng tác cho khách hàng bên ngoài để tìm sản phẩm phù hợp với nhu cầu của họ. Đằng sau hậu trường, Copilot Studio cũng có bảng điều khiển phân tích tích hợp cho phép quản trị viên giám sát tập trung việc sử dụng và phân tích phân tích, kiểm soát quyền truy cập trong trung tâm quản trị, bảo vệ dữ liệu bằng các chính sách cụ thể của công ty, quản lý môi trường và hơn thế nữa.
Microsoft giới thiệu Copilot trong Hướng dẫn Dynamics 365, kết hợp AI tổng hợp với thực tế hỗn hợp|Microsoft Ngoài ra, Microsoft cũng đã giới thiệu Copilot trong Hướng dẫn Dynamics 365, có thể hiểu đơn giản là AR Copilot**, có nghĩa là AI không còn chỉ là nhân viên cổ cồn trắng trong văn phòng, mà còn là công nhân cổ xanh. Nó cho phép công nhân trong môi trường công nghiệp sử dụng giọng nói và cử chỉ, đặt câu hỏi về máy móc phức tạp và thực hiện bảo trì. Tai nghe thực tế hỗn hợp HoloLens của Microsoft cho phép họ trỏ đến các thiết bị và bộ phận và sau đó đặt câu hỏi về các chủ đề khác nhau, từ thông số kỹ thuật thành phần đến nhật ký dịch vụ cơ học. Hệ thống của Microsoft sau đó có thể cung cấp câu trả lời thông qua hình ba chiều, hiển thị văn bản và phản hồi bằng giọng nói.
"Tất cả mọi thứ cho AI, mọi thứ cho AI. Đó không phải là một cường điệu để mô tả hội nghị Microsoft Ignite ngày hôm nay. Sau khi GPT-4 và các mô hình ngôn ngữ lớn hoàn toàn khuấy động thế giới, Microsoft, nhìn thấy cơ hội, đã trở thành gã khổng lồ có hành động quay vòng nhanh nhất. ** Nếu Microsoft từng thực hiện “tích hợp AI” ở cấp độ sản phẩm, thì bây giờ họ đã đổi mới xung quanh AI ở toàn bộ cấp độ sinh thái của các cơ sở phần cứng, điện toán đám mây và dịch vụ kinh doanh **. Miễn là làn sóng AI tiếp tục phát triển, Microsoft sẽ là gã khổng lồ dẫn đầu, tư duy tiến bộ và ra quyết định nhất.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Microsoft, với đám mây mở nhất, đóng vai trò AI hoang dã nhất
Nguồn gốc: Geek Park
Thật khó để tưởng tượng rằng Microsoft, một gã khổng lồ bị mắc kẹt trong thực tế hỗn hợp và điện toán lượng tử, và mờ nhạt ở cả hai phía B và C, có thể được tái sinh thành công ty công nghệ thời thượng nhất ở Thung lũng Silicon và thế giới, chỉ trong một năm.
Thứ đốt cháy công ty cũ này không gì khác ngoài hai chữ cái - AI.
Ngày 15/11, giờ địa phương, tại trụ sở chính Seattle, Mỹ, Giám đốc điều hành Microsoft Satya Nadella đã công bố hơn 100 sản phẩm mới và tính năng mới tập trung vào AI trong cơ sở hạ tầng điện toán đám mây, MaaS mô hình như một dịch vụ, nền tảng dữ liệu, trợ lý trí tuệ nhân tạo Copilot và các khía cạnh khác tại hội nghị Ignite.
Trong số đó, có CPU dựa trên ARM và chip tăng tốc AI được xây dựng đặc biệt cho AI, chẳng hạn như Azure Cobalt và Azure Maia, cũng như các giá đỡ đầu cuối được thiết kế lại cho AI và Microsoft thậm chí đã cải tiến lại công nghệ sợi quang trong cáp chỉ để làm cho việc truyền bit nhanh hơn.
Ngay khi bạn nghĩ rằng Microsoft sẽ sử dụng bộ vi xử lý tự phát triển và được miễn nộp “thuế Nvidia”, Nadella không chỉ mời người sáng lập Nvidia Jensen Huang tiến hành “thổi kinh doanh”, mà còn kết hợp các bộ vi xử lý mới nhất của AMD và Nvidia vào các dịch vụ đám mây Azure, biến sau này trở thành “máy tính thế giới” mở nhất trong kỷ nguyên AI.
Tại hội nghị nhà phát triển OpenAI cách đây hai tuần, những lời đầu tiên của Sam Altman sau khi mời Nadella lên sân khấu là: “Hãy kể cho tôi nghe về mối quan hệ giữa hai chúng ta?” và trực tiếp cười nhạo “người cha vàng” lớn nhất của mình. Trên lĩnh vực riêng của Microsoft ngày hôm nay, dòng chữ “Microsoft yêu OpenAI” được viết trên bảng điều khiển phía sau của PPT là phản ứng của Nadella đối với Altman và câu hỏi của ngành công nghiệp về mối quan hệ giữa hai công ty “cạnh tranh trên bề mặt và chống lại mặt sau”.
"Chúng tôi hứa rằng tất cả các đổi mới OpenAI sẽ là một phần của Azure AI và có sẵn cho tất cả mọi người. Bài phát biểu của Nadella một lần nữa chứng minh mối quan hệ chặt chẽ giữa Microsoft và OpenAI. Và GPT-4 Turbo giá thấp hơn và mạnh mẽ hơn cũng sẽ đến với dịch vụ AI của Microsoft.
Đồng thời, Copilot Studio, tương tự như GPT của OpenAI, cho phép người dùng tạo GPT của riêng họ trong một câu duy nhất. Hơn nữa, cả Copilot và GPT đều có thể được sử dụng làm trình cắm thêm trên trang trợ lý AI.
"Copilot sẽ là giao diện mới giúp mọi người tiếp cận kiến thức trong thế giới thực và trong tổ chức, và quan trọng hơn, chính đại lý của bạn sẽ giúp bạn hành động dựa trên kiến thức đó. 」
Một năm trước, Microsoft là một công ty phần mềm kinh doanh và một năm sau, Microsoft trở thành công ty “Copilot”, công ty AI cởi mở và tham vọng nhất thế giới.
**01 Tiếp xúc với chip tự phát triển, cơ sở hạ tầng đám mây “AI” nhất **
Không giống như khi Microsoft lần đầu tiên giới thiệu bản demo Copilot vào tháng 3 năm nay, Nadella nhấn mạnh việc triển khai tại hội nghị hôm nay. “Chúng tôi đang bước vào một giai đoạn mới thú vị của AI, không chỉ xem nó như một công nghệ mới, mà còn về sản xuất sản phẩm, triển khai, bảo mật, lợi ích sản xuất thực sự và tất cả các chi tiết liên quan đến thế giới thực”, ông nói.
Microsoft đã bước vào kỷ nguyên Copilot với ngăn xếp Copilot end-to-end bao gồm: cơ sở hạ tầng, mô hình nền tảng, chuỗi công cụ dữ liệu và chính Copilot. Dựa trên ngăn xếp mới này, Nadella lần lượt giới thiệu Microsoft đã được “làm mới” trở lại.
Đầu tiên là lớp thấp nhất của ngăn xếp - cơ sở hạ tầng điện toán đám mây điều khiển các mô hình AI. Là nhà cung cấp đám mây độc quyền của OpenAI, danh tính này chắc chắn đã cho phép Microsoft Cloud Azure nhanh chóng phát triển thành một đám mây phù hợp hơn cho khối lượng công việc quy mô lớn. Đằng sau kết quả này, ** là một bản nâng cấp full-stack được thực hiện bởi công ty nền tảng mở nhất. Từ năng lượng, trung tâm dữ liệu, mạng, CPU và bộ tăng tốc AI, Microsoft làm việc với nhiều đối tác để tái thiết kế cơ sở hạ tầng**:
Nadella hào hứng kết luận: “Thật sự biết ơn khi thấy rằng chúng tôi, với tư cách là một công ty siêu máy tính, hiểu khối lượng công việc và có cơ hội tối ưu hóa toàn bộ ngăn xếp, từ tiêu thụ năng lượng đến silicon, để tối đa hóa hiệu suất và hiệu quả.”
Sau đó, ông tuyên bố ra mắt trung tâm dữ liệu được chờ đợi từ lâu: Azure Cobalt, dòng CPU tùy chỉnh đầu tiên của CPU của riêng ông và Azure Maia, chip tăng tốc AI.
Microsoft Azure Cobalt là chip hoạt động trên đám mây dựa trên kiến trúc Arm được tối ưu hóa về hiệu suất, sức mạnh và hiệu quả chi phí cho khối lượng công việc đa năng. Nadella cho biết chip CPU đã được sử dụng trong các bộ phận hỗ trợ Microsoft Teams Azure Communication Services và Azure SQL; nó sẽ có sẵn cho khách hàng vào năm tới.
Microsoft Azure Maia là chip tăng tốc AI để chạy đào tạo và suy luận dựa trên đám mây trên khối lượng công việc AI như mô hình OpenAI, Bing, GitHub Copilot và ChatGPT. Con chip này được sản xuất trên quy trình 5 nanomet và có 105 tỷ bóng bán dẫn.
“Sự đa dạng của Sillicon là một yếu tố quan trọng trong khả năng của chúng tôi để hỗ trợ các mô hình nền tảng mạnh mẽ nhất thế giới và tất cả khối lượng công việc AI”, Nadella nói thêm rằng tại hội nghị công nghệ Ignite, Microsoft không chỉ công bố hai chip tự phát triển mà còn bao gồm các chip được tối ưu hóa AI mới nhất từ nhiều đối tác trong ngành hơn, bao gồm AMD Instinct MI300X, cũng như NVIDIA H100 và H200.
Ngoài các siêu máy tính này, Microsoft còn cung cấp các mô hình cơ bản với thông số từ hàng tỷ đến hàng nghìn tỷ để đáp ứng nhu cầu về chi phí, độ trễ và hiệu năng của các nhà phát triển khác nhau khi xây dựng các ứng dụng AI.
Tất nhiên, các bản cập nhật của OpenAI được phân phối liên tục như một phần của Azure AI. GPT-4 mới nhất, bao gồm GPT-4 Turbo và khả năng thị giác, sẽ được giới thiệu cho Dịch vụ Azure OpenAI. GPT-4 Turbo sẽ được xem trước công khai trong Azure OpenAI Service vào cuối tháng 11/2023 và giá cả sẽ phù hợp với OpenAI. GPT-4 Turbo with Vision đang ở dạng bản xem trước và DALLE·3 hiện đang ở dạng bản xem trước công khai trong Azure Open AI Service.
Ngoài ra, Azure OpenAI Service sẽ giới thiệu khả năng tinh chỉnh của GPT-4, cho phép khách hàng tạo các phiên bản tùy chỉnh của GPT-4 bằng cách sử dụng dữ liệu của riêng họ.
Ngoài các mô hình nguồn đóng, Microsoft cũng đã mở rộng cung cấp MaaS cho các mô hình nguồn mở, cho phép các nhà phát triển chuyên nghiệp dễ dàng tích hợp Stable Diffusion, Meta Llama 2, các mô hình tiên tiến sắp tới của Mistral và các mô hình AI mới nhất như G42 Jais vào các ứng dụng của họ thông qua API và tùy chỉnh các mô hình này bằng dữ liệu của riêng họ mà không phải lo lắng về việc thiết lập và quản lý cơ sở hạ tầng GPU.
02 Theo hướng dữ liệu, lõi mặt B của Microsoft AI
Một cấp độ xa hơn từ cơ sở hạ tầng phần cứng và phần mềm được mô tả ở trên là dữ liệu. Có thể nói, không có trí tuệ nhân tạo nào mà không có dữ liệu. Tại hội nghị, Nadella đã nhấn mạnh nền tảng dữ liệu đã ra mắt tại hội nghị nhà phát triển Build vào tháng 5 năm nay, Microsoft Fabric. Kể từ khi ra mắt, Fabric đã thực hiện hơn 100 bản cập nhật tính năng và mở rộng hệ sinh thái với các đối tác, với hơn 25.000 khách hàng đã sử dụng nó, bao gồm Milliman, Zeiss, Sở giao dịch chứng khoán London và Ernst &; Young.
03 Microsoft Copilot, bạn cũng có thể “tạo GPT bằng một cú nhấp chuột”
Ở cấp độ ứng dụng, Copilot đã hoàn toàn mở ra kỷ nguyên của riêng mình. Tại Ignite 2023, Microsoft đã thông báo rằng Bing Chat và Bing Chat for Enterprise hiện sẽ được đổi tên thành “Copilot” và phát hành “Copilot Studio”, có thể tùy chỉnh Copilot hoặc xây dựng các trợ lý cộng tác độc lập, bao gồm GPT tùy chỉnh, plugin AI tạo và hơn thế nữa, để tùy chỉnh chủ đề. Về mức sử dụng, Copilot Studio có thể xây dựng, triển khai, phân tích và quản lý mọi thứ trong cùng một trang web, sử dụng phương pháp kéo và thả, mã nguồn ngắn, bao gồm kết nối logic và dữ liệu, để xây dựng và phát hành plugin trực tiếp lên Copilot cho Microsoft 365.