Chào mừng đến với Eye on AI. Trong số này… Một hội nghị AI hỗn loạn tại Ấn Độ kết thúc bằng một số cam kết tự nguyện và 200 tỷ đô la cho quốc gia đăng cai… Anthropic cáo buộc các đối thủ Trung Quốc sử dụng câu trả lời của Claude để nâng cao mô hình của họ… OpenAI ra mắt liên minh với các công ty tư vấn lớn để bán nền tảng đại lý AI Frontier của mình… Chi tiêu 650 tỷ đô la cho hạ tầng AI trong năm nay có thể mang lại rủi ro… và có lẽ đừng để một mô hình AI tư vấn bạn về việc sử dụng vũ khí hạt nhân.
Trước tiên, phần lớn những người quan trọng nhất trong thế giới AI đã tụ họp tại New Delhi, Ấn Độ, tuần trước để tham dự Hội nghị Toàn cầu về Ảnh hưởng AI. Hội nghị toàn cầu đôi khi khá hỗn loạn, theo báo cáo của đồng nghiệp Bea Nolan, người đã có mặt tại Delhi. Nhưng cuối cùng, đã có một số tiến triển về các cam kết tự nguyện nhằm đảm bảo lợi ích của công nghệ AI được phân phối công bằng hơn trên toàn thế giới. Và Ấn Độ đã thu về 200 tỷ đô la đầu tư mới vào AI. Bạn có thể đọc thêm về những gì đã diễn ra tại hội nghị từ Bea tại đây.
Tiếp theo, công ty AI Trung Quốc DeepSeek chưa hề ra mắt mô hình V4 của mình — dự kiến sẽ ra mắt bất cứ lúc nào — nhưng đã gây ra nhiều tranh cãi.
Video đề xuất
Hôm qua, Anthropic cáo buộc đã phát hiện ra một “chiến dịch quy mô công nghiệp” do DeepSeek và hai phòng thí nghiệm AI Trung Quốc nổi bật khác là Moonshot AI và MiniMax thực hiện để tinh chế các mô hình Claude của họ. Tinh chế là thuật ngữ mà các nhà nghiên cứu AI dùng để mô tả phương pháp nâng cao hiệu suất của các mô hình AI nhỏ hơn, thường yếu hơn bằng cách tinh chỉnh chúng dựa trên đầu ra của một mô hình lớn hơn, mạnh hơn. Trong trường hợp này, Anthropic tuyên bố rằng ba công ty AI Trung Quốc đã tạo ra 24.000 tài khoản giả mạo để tạo ra 16 triệu cuộc trao đổi với Claude, sau đó dùng chúng để huấn luyện mô hình của riêng họ, vi phạm điều khoản dịch vụ của Anthropic. (Trong số các cuộc trao đổi này, DeepSeek chỉ chịu trách nhiệm cho 150.000, theo Anthropic, nhưng các tài khoản liên kết với DeepSeek dường như đặc biệt quan tâm đến việc tinh chế khả năng lý luận của Claude.)
Hôm qua, Reuters đưa tin, dẫn lời một quan chức cao cấp ẩn danh của chính phủ Mỹ, rằng Mỹ tin rằng DeepSeek đã huấn luyện V4 bằng cách sử dụng các GPU AI Blackwell mới nhất của Nvidia, có khả năng vi phạm các quy định xuất khẩu của Mỹ nhằm ngăn chặn các công ty AI Trung Quốc tiếp cận các chip tiên tiến nhất của Nvidia. Câu chuyện cho biết Mỹ tin rằng DeepSeek có một trung tâm dữ liệu ở Nội Mông chứa đầy Blackwells — mặc dù họ không chắc chắn chính xác cách họ có được chúng.
Về mặt nào đó, cả hai câu chuyện này đều nên được xem là tin tốt cho ngành công nghiệp AI của Mỹ. Trong một thời gian, đã hình thành một câu chuyện rằng các phòng thí nghiệm Trung Quốc đang nhanh chóng bắt kịp Mỹ trong công nghệ AI và có thể sắp vượt qua. Nhưng nếu các phòng thí nghiệm Trung Quốc phải dựa vào tinh chế bí mật để đạt hiệu suất tương đương các mô hình AI của Mỹ, thì nguy cơ các công ty Mỹ mất lợi thế về hiệu suất hàng đầu sẽ giảm đi nhiều. (Thị phần là một chuyện khác; ngoài Mỹ và châu Âu, việc chấp nhận các mô hình Trung Quốc đang tăng lên vì phần lớn các mô hình này mã nguồn mở và rẻ hơn nhiều so với các đối thủ Mỹ. Cuối cùng, không chỉ hiệu suất mới là điều quan trọng mà còn là tỷ lệ giá trị hiệu suất.) Hơn nữa, người Trung Quốc đang cố gắng xây dựng các chip AI nội địa có khả năng tương đương Nvidia. Rò rỉ cho Reuters dường như cho thấy những nỗ lực này, chủ yếu tập trung quanh nhà sản xuất phần cứng Trung Quốc Huawei, vẫn chưa thu hẹp được khoảng cách với Blackwells của Nvidia.
Sử dụng AI để giúp lập bản đồ chuỗi cung ứng toàn cầu
Bây giờ, chuyển sang một tin lớn khác trong tuần qua: Tòa án Tối cao đã bác bỏ các mức thuế “Ngày Giải phóng” của Tổng thống Donald Trump. Tin này ngay lập tức khiến tôi nghĩ về cuộc trò chuyện vài tuần trước với Evan Smith, CEO kiêm đồng sáng lập của Altana, một startup có trụ sở tại New York đã xây dựng một “bản đồ tri thức” dựa trên AI về toàn bộ chuỗi cung ứng toàn cầu. Công ty đã hoạt động được bảy năm, huy động khoảng 340 triệu đô la vốn đầu tư mạo hiểm và cho biết đang trên đà vượt mốc 100 triệu đô la doanh thu hàng năm trong năm nay.
Sản phẩm cốt lõi của Altana về cơ bản là một bản đồ của nền kinh tế thế giới: các công ty sản xuất gì, ở đâu, dành cho ai, sử dụng nguồn lực từ đâu. Công ty tổng hợp dữ liệu thương mại công khai — hóa đơn vận chuyển, bản kê khai vận tải, đăng ký doanh nghiệp — và ghép chúng lại thành một bức tranh liên tục được cập nhật về các mối liên hệ giữa hàng trăm triệu doanh nghiệp và cơ sở trên toàn thế giới. Nhưng giá trị thực sự của nền tảng Altana, theo Smith, đến từ những gì xảy ra khi khách hàng của họ, như tập đoàn vận tải Maersk hoặc General Motors hay Cục Hải quan và Bảo vệ Biên giới Hoa Kỳ, kết nối với nền tảng của Altana. Bởi khi đó, tất cả dữ liệu của họ cũng được thêm vào bản đồ tri thức.
Hiện tại, khoảng 60% thông tin trong bản đồ chuỗi cung ứng toàn cầu của Altana đến từ dữ liệu của chính khách hàng, Smith nói. Và trong khi đôi khi có phản hồi tiêu cực từ các khách hàng tiềm năng không thích ý tưởng chia sẻ thông tin chuỗi cung ứng với đối thủ, Smith nói rằng hầu hết các công ty đều nhận ra rằng khả năng tối ưu hóa chuỗi cung ứng, lập kế hoạch cho khả năng phục hồi của chuỗi cung ứng, và mô phỏng các cú sốc trong chuỗi cung ứng vượt xa chi phí để đối thủ biết ai là nhà cung cấp của họ. “Nếu bạn nghĩ rằng trong Thế kỷ 21, mối quan hệ nhà cung cấp của bạn là lợi thế cạnh tranh độc quyền của bạn, chúc may mắn,” Smith nói.
‘Phức tạp chắc chắn sẽ trở nên tồi tệ hơn’
Tất cả những điều này liên quan gì đến phán quyết về thuế quan tuần trước? Mọi thứ. Bởi vì một trong những sản phẩm chính của Altana là một hệ thống quản lý thuế quan dựa trên AI. Smith mô tả một quy trình “tác nhân” tự động hóa công việc phức tạp trong việc phân loại hàng hóa theo mã HS — mã phân loại xác định mức thuế suất áp dụng cho mỗi mặt hàng nhập khẩu — cũng như tính toán quốc gia xuất xứ theo quy tắc thương mại, điều đã trở nên cực kỳ phức tạp trong thời đại chuyển tải và trốn thuế. Thêm vào đó là một công cụ dự báo tác động thuế quan cho phép các công ty mô phỏng tác động của việc thay đổi quy tắc thương mại trên toàn mạng lưới nhà cung cấp mở rộng của họ. Việc sử dụng công cụ tính thuế của Altana đã tăng 213% trong tuần qua, theo công ty báo cáo. Khoảng 50% các phép tính liên quan đến các mặt hàng chứa kim loại, trong khi 32% dành cho các sản phẩm có nguồn gốc từ Trung Quốc.
Trong một email, Smith nói rằng ông nghĩ rằng sau phán quyết của Tòa án Tối cao, chính quyền Trump sẽ đơn giản tìm ra các cơ quan pháp lý mới để áp dụng thuế quan. “Mức thuế thực tế có thể không giảm nhiều và sự phức tạp chắc chắn sẽ trở nên tồi tệ hơn,” Smith nói. Đặc biệt, ông nói rằng ông đang theo dõi “xếp chồng thuế”, việc áp dụng nhiều mức thuế riêng biệt đối với một sản phẩm khi nó đến biên giới dựa trên các thành phần khác nhau của nó. “Khi thuế chuyển sang các thành phần và phụ kiện, rủi ro nằm sâu hơn trong chuỗi cung ứng và hầu hết các công ty thực sự không biết chính xác trong các đầu vào cấp Tier 2 và Tier 3 của họ có gì,” ông viết.
Hoặc ít nhất, trước khi có Altana và AI của nó, họ chưa biết điều đó.
OpenAI hợp tác với McKinsey, BCG, Accenture và Capgemini để thúc đẩy nền tảng đại lý AI Frontier của họ — bởi Jeremy Kahn
OpenAI đã thay đổi tuyên bố sứ mệnh của mình 6 lần trong 9 năm. Cuối cùng, họ đã loại bỏ từ “an toàn” như một giá trị cốt lõi khi tái cấu trúc thành công ty vì lợi nhuận — bởi Catherina Gioino
Các đại lý AI giúp bạn làm việc khi bạn ngủ nghe có vẻ tuyệt vời. Thực tế thì còn phức tạp hơn nhiều — ‘giống như một đứa trẻ cần được giám sát’ — bởi Sharon Goldman
Bản quyền độc quyền: Anthropic ra mắt công cụ AI có thể tự tìm lỗi phần mềm — kể cả những lỗi nguy hiểm nhất mà con người bỏ sót — bởi Sharon Goldman
AI TRONG TIN TỨC
Meta ký hợp đồng trị giá 100 tỷ đô la với AMD. Gã khổng lồ mạng xã hội đã ký hợp đồng với nhà sản xuất chip AMD để mua tới 6 gigawatt công suất tính toán AI sử dụng chip MI450 của AMD trong vòng năm năm. Trong phần hợp đồng, Meta nhận được quyền mua cổ phần có thể lên tới 10% của AMD nếu đạt được các chỉ số hiệu suất nhất định. Đọc thêm từ Wall Street Journal tại đây.
Chi tiêu cho hạ tầng AI dự kiến đạt 650 tỷ đô la vào năm 2026, bước vào ‘giai đoạn nguy hiểm hơn’. Tổng số này tăng mạnh so với 410 tỷ đô la đã chi cho hạ tầng AI năm ngoái, theo một bức thư gửi các nhà đầu tư của quỹ phòng hộ Bridgewater Associates, gây chú ý trong vài ngày gần đây. Đồng sáng lập kiêm CIO của Bridgewater, Greg Jensen, cho biết đà bùng nổ hạ tầng đang bước vào “giai đoạn nguy hiểm hơn” vì các nhà xây dựng trung tâm dữ liệu AI khổng lồ ngày càng phụ thuộc vào vốn bên ngoài. Ông cảnh báo rằng trong khi nhu cầu về năng lực tính toán AI hiện đang vượt quá cung, thị trường tài chính có thể bị tổn thương nếu động thái này đột ngột thay đổi. Ông cũng cảnh báo rằng các công ty AI lớn như OpenAI và Anthropic có thể gặp khó khăn trong việc huy động thêm vốn và duy trì định giá hiện tại trừ khi họ đạt được các đột phá căn bản làm cho các đại lý AI trở nên đáng tin cậy và dễ sử dụng hơn. Đọc thêm từ Reuters tại đây.
OpenAI gặp khó khăn trong việc triển khai liên doanh Stargate trị giá 500 tỷ đô la với Softbank và Oracle, buộc họ phải điều chỉnh nhiều lần. Theo một bài viết của The Information trích dẫn nguồn tin giấu tên quen thuộc với dự án, công ty công nghệ này đã cố gắng huy động năng lực tính toán sau khi ý tưởng Stargate ban đầu bị trì hoãn do thiếu lãnh đạo và bất đồng giữa các đối tác. Thay vì xây dựng và sở hữu các cơ sở của riêng mình, OpenAI đã chuyển hướng hợp tác với các nhà cung cấp đám mây và ký các thỏa thuận cho phép họ kiểm soát thiết kế mà không cần cam kết vốn lớn. Tuy nhiên, bài báo cho biết OpenAI vẫn chưa đạt được mục tiêu về năng lực ban đầu.
Thỏa thuận với startup chip AI SambaNova gây lo ngại xung đột lợi ích cho CEO của Intel. Intel đang đầu tư vào vòng gọi vốn mới trị giá 350 triệu đô la cho startup chip AI SambaNova Systems và cũng bắt đầu hợp tác kỹ thuật nhiều năm với công ty này. Số tiền chính xác Intel đầu tư chưa được tiết lộ. Thỏa thuận này gây chú ý vì CEO của Intel, Lip-Bu Tan, là nhà đầu tư ban đầu và chủ tịch của SambaNova, mặc dù Intel cho biết ông đã tự giác rút khỏi các cuộc đàm phán. Trước đó, Intel đã từng đàm phán mua SambaNova. Hai công ty hướng tới việc tích hợp bộ xử lý Intel Xeon vào hệ thống AI của SambaNova và phát triển các trung tâm dữ liệu “dị hướng” gồm nhiều loại chip để xử lý các tác vụ AI và phi AI khác nhau. Đọc thêm từ The New York Times tại đây.
Cổ phiếu IBM sụt mạnh sau khi Anthropic nói rằng Claude Code có thể hiện đại hóa các chương trình COBOL. Cổ phiếu của Big Blue giảm mạnh nhất trong hơn 25 năm sau khi Anthropic cho biết công cụ Claude Code của họ có thể tự động hóa việc hiện đại hóa các hệ thống COBOL chạy chủ yếu trên máy chủ IBM, gây lo ngại về sự gián đoạn do AI gây ra. Cổ phiếu giảm 13% trong một ngày và giảm mạnh trong tháng này do các nhà đầu tư lo ngại rằng các công cụ lập trình AI có thể làm giảm sự phụ thuộc vào phần mềm cũ và dịch vụ liên quan đến máy chủ chính. IBM phản bác, cho rằng giá trị của máy chủ chính nằm ở độ tin cậy và an toàn bất kể ngôn ngữ lập trình, và đã cung cấp các công cụ AI của riêng mình để giúp khách hàng hiện đại hóa. IBM cũng đã hợp tác với Anthropic năm ngoái để giúp tích hợp các mô hình của họ vào các nhiệm vụ cụ thể, bao gồm cả việc hiện đại hóa mã COBOL. Xem thêm từ Bloomberg tại đây. Mỹ công bố ra mắt “Lực lượng Công nghệ” nhằm thúc đẩy AI của Mỹ ra nước ngoài. Nhà Trắng đã thành lập một “Lực lượng Công nghệ” trong Peace Corps của Mỹ để triển khai các tình nguyện viên có kỹ năng kỹ thuật ra nước ngoài, nhằm thúc đẩy AI của Mỹ và chống lại ảnh hưởng ngày càng tăng của Trung Quốc tại các thị trường đang phát triển, theo CNBC. Chương trình sẽ cử các kỹ sư và tốt nghiệp STEM đến các quốc gia tham gia Chương trình Xuất khẩu AI của Mỹ để giúp triển khai các hệ thống AI của Mỹ trong các lĩnh vực như nông nghiệp, giáo dục, y tế và phát triển kinh tế, dự kiến bắt đầu từ mùa thu năm 2026.
NGHIÊN CỨU VỀ AI
Các mô hình AI có thể là cố vấn an ninh quốc gia nguy hiểm. Kenneth Payne, nhà nghiên cứu tại Kings College London, đã tiến hành một loạt các cuộc chiến tranh mô phỏng ảo rộng lớn, trong đó ông so sánh nhiều mô hình AI tiên tiến (Claude Sonnet 4 của Anthropic, Gemini 3 Flash của Google, GPT-5.2 của OpenAI) với nhau và với các phiên bản của chính chúng. Kết quả cho thấy các mô hình này là những người chơi tinh vi, nhưng có những xu hướng khác với con người theo cách có thể gây nguy hiểm nếu chúng tư vấn cho các chính phủ trong các cuộc khủng hoảng an ninh quốc gia.
Ví dụ, Payne phát hiện ra rằng các mô hình thường sẵn sàng sử dụng vũ khí hạt nhân chiến thuật, và trong một số trường hợp, sẵn sàng phát động chiến tranh hạt nhân toàn diện thay vì lùi bước. Ông cũng nhận thấy hành vi của các mô hình khác biệt so với con người ở một số điểm then chốt. “Các mối đe dọa thường kích thích phản ứng leo thang hơn là tuân thủ,” ông viết. “Sự tin cậy lẫn nhau cao hơn thúc đẩy xung đột chứ không phải ngăn chặn,” và “không mô hình nào chọn cách thỏa hiệp hay rút lui ngay cả khi chịu áp lực lớn, chỉ giảm mức độ bạo lực.”
Nghiên cứu này có ý nghĩa lớn đối với quân đội và chính phủ đang xem xét liệu AI có nên được dùng làm cố vấn cho các nhà hoạch định chính sách và chỉ huy quân sự hay không. Nhưng nó cũng có thể ảnh hưởng đến môi trường kinh doanh, nơi mọi người bắt đầu dựa vào AI để tư vấn chiến lược đàm phán và các quyết định chiến lược khác, và nơi các hội đồng quản trị cũng có thể tham khảo AI. Trong nhiều trường hợp này, theo đuổi con đường quyết đoán nhất không phải lúc nào cũng mang lại kết quả tốt nhất, và con người cần cảnh giác với xu hướng leo thang của AI. Bạn có thể đọc bài nghiên cứu trên kho lưu trữ nghiên cứu không bình duyệt arxiv.org tại đây.
LỊCH TRÌNH AI
24-26 tháng 2: Hiệp hội Quốc tế về AI An toàn & Đạo đức (IASEAI), UNESCO, Paris, Pháp.
2-5 tháng 3: Hội nghị Di động Thế giới (MWC), Barcelona, Tây Ban Nha.
12-18 tháng 3: South by Southwest, Austin, Texas.
16-19 tháng 3: Nvidia GTC, San Jose, California.
6-9 tháng 4: HumanX 2026, San Francisco.
THỨ ĂN TINH THẦN VỀ AI
Liệu có một kỷ nguyên ‘GDP Ma’ đang đến gần? Một bài đăng trên blog của Citirini Research, một công ty phân tích chứng khoán và vĩ mô của Phố Wall có lượng theo dõi lớn trên mạng xã hội, đã lan truyền mạnh tuần này. Bài viết, như Citirini cảnh báo, chỉ là một kịch bản, một tác phẩm giả tưởng dựa trên suy đoán, không phải dự báo chính xác. Mục đích của công ty là giúp người đọc “chuẩn bị cho các rủi ro trái chiều tiềm năng khi AI làm cho nền kinh tế ngày càng kỳ quặc.” Bối cảnh là tháng 6 năm 2028, mô tả sự hỗn loạn kinh tế mà AI có thể gây ra nếu đạt được “thành công thảm khốc” trong hai năm tới. Kịch bản tưởng tượng tỷ lệ thất nghiệp trên 10% ngay cả khi năng suất lao động bùng nổ đến mức chưa từng thấy kể từ đầu những năm 1950. Nó đề cập đến “GDP Ma,” nơi các tài khoản quốc gia của Mỹ tăng trưởng, ngay cả khi các doanh nghiệp phụ thuộc vào chi tiêu tiêu dùng (hiện chiếm 70% GDP Mỹ) lại suy giảm. (Người tiêu dùng có thể thất nghiệp hoặc lo sợ sắp thất nghiệp.) Nó mô tả cách áp lực lên các công ty phần mềm dịch vụ cũ, vốn đang bắt đầu rõ ràng, sẽ gia tăng và lan rộng ra các lĩnh vực khác của nền kinh tế, tạo thành một vòng xoáy giảm việc làm và giảm chi tiêu tiêu dùng, không có điểm dừng.
Bài viết khá ảm đạm. May mắn thay, tôi không chắc nó đúng. Thực tế, hầu như chắc chắn là sai khi giả định rằng tất cả các tác động nó mô tả có thể xảy ra chỉ trong hơn hai năm. (Một điều tôi nghĩ là khá không khả thi là các đại lý AI sẽ cố gắng giảm chi phí giao dịch và do đó sẽ chuyển sang stable coin thay vì phương thức thanh toán truyền thống.) Nhưng nó đáng để đọc và suy nghĩ. Và để phân tích xem Citrini có thể sai ở đâu, bạn có thể xem bài của Zvi Moshkowitz tại đây.
Tham gia cùng chúng tôi tại Hội nghị Đổi mới Nơi làm việc của Fortune ngày 19-20 tháng 5 năm 2026, tại Atlanta. Thời đại mới của đổi mới nơi làm việc đã bắt đầu — và quy tắc cũ đang được viết lại. Trong sự kiện độc quyền, năng lượng cao này, các nhà lãnh đạo sáng tạo nhất thế giới sẽ tụ họp để khám phá cách AI, nhân loại và chiến lược hội tụ để định hình lại, một lần nữa, tương lai của công việc. Đăng ký ngay.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Cách một công ty AI đang giúp các doanh nghiệp điều hướng tình hình hỗn loạn về thuế quan mới của Trump sau phán quyết của Tòa án tối cao
Chào mừng đến với Eye on AI. Trong số này… Một hội nghị AI hỗn loạn tại Ấn Độ kết thúc bằng một số cam kết tự nguyện và 200 tỷ đô la cho quốc gia đăng cai… Anthropic cáo buộc các đối thủ Trung Quốc sử dụng câu trả lời của Claude để nâng cao mô hình của họ… OpenAI ra mắt liên minh với các công ty tư vấn lớn để bán nền tảng đại lý AI Frontier của mình… Chi tiêu 650 tỷ đô la cho hạ tầng AI trong năm nay có thể mang lại rủi ro… và có lẽ đừng để một mô hình AI tư vấn bạn về việc sử dụng vũ khí hạt nhân.
Trước tiên, phần lớn những người quan trọng nhất trong thế giới AI đã tụ họp tại New Delhi, Ấn Độ, tuần trước để tham dự Hội nghị Toàn cầu về Ảnh hưởng AI. Hội nghị toàn cầu đôi khi khá hỗn loạn, theo báo cáo của đồng nghiệp Bea Nolan, người đã có mặt tại Delhi. Nhưng cuối cùng, đã có một số tiến triển về các cam kết tự nguyện nhằm đảm bảo lợi ích của công nghệ AI được phân phối công bằng hơn trên toàn thế giới. Và Ấn Độ đã thu về 200 tỷ đô la đầu tư mới vào AI. Bạn có thể đọc thêm về những gì đã diễn ra tại hội nghị từ Bea tại đây.
Tiếp theo, công ty AI Trung Quốc DeepSeek chưa hề ra mắt mô hình V4 của mình — dự kiến sẽ ra mắt bất cứ lúc nào — nhưng đã gây ra nhiều tranh cãi.
Video đề xuất
Hôm qua, Anthropic cáo buộc đã phát hiện ra một “chiến dịch quy mô công nghiệp” do DeepSeek và hai phòng thí nghiệm AI Trung Quốc nổi bật khác là Moonshot AI và MiniMax thực hiện để tinh chế các mô hình Claude của họ. Tinh chế là thuật ngữ mà các nhà nghiên cứu AI dùng để mô tả phương pháp nâng cao hiệu suất của các mô hình AI nhỏ hơn, thường yếu hơn bằng cách tinh chỉnh chúng dựa trên đầu ra của một mô hình lớn hơn, mạnh hơn. Trong trường hợp này, Anthropic tuyên bố rằng ba công ty AI Trung Quốc đã tạo ra 24.000 tài khoản giả mạo để tạo ra 16 triệu cuộc trao đổi với Claude, sau đó dùng chúng để huấn luyện mô hình của riêng họ, vi phạm điều khoản dịch vụ của Anthropic. (Trong số các cuộc trao đổi này, DeepSeek chỉ chịu trách nhiệm cho 150.000, theo Anthropic, nhưng các tài khoản liên kết với DeepSeek dường như đặc biệt quan tâm đến việc tinh chế khả năng lý luận của Claude.)
Hôm qua, Reuters đưa tin, dẫn lời một quan chức cao cấp ẩn danh của chính phủ Mỹ, rằng Mỹ tin rằng DeepSeek đã huấn luyện V4 bằng cách sử dụng các GPU AI Blackwell mới nhất của Nvidia, có khả năng vi phạm các quy định xuất khẩu của Mỹ nhằm ngăn chặn các công ty AI Trung Quốc tiếp cận các chip tiên tiến nhất của Nvidia. Câu chuyện cho biết Mỹ tin rằng DeepSeek có một trung tâm dữ liệu ở Nội Mông chứa đầy Blackwells — mặc dù họ không chắc chắn chính xác cách họ có được chúng.
Về mặt nào đó, cả hai câu chuyện này đều nên được xem là tin tốt cho ngành công nghiệp AI của Mỹ. Trong một thời gian, đã hình thành một câu chuyện rằng các phòng thí nghiệm Trung Quốc đang nhanh chóng bắt kịp Mỹ trong công nghệ AI và có thể sắp vượt qua. Nhưng nếu các phòng thí nghiệm Trung Quốc phải dựa vào tinh chế bí mật để đạt hiệu suất tương đương các mô hình AI của Mỹ, thì nguy cơ các công ty Mỹ mất lợi thế về hiệu suất hàng đầu sẽ giảm đi nhiều. (Thị phần là một chuyện khác; ngoài Mỹ và châu Âu, việc chấp nhận các mô hình Trung Quốc đang tăng lên vì phần lớn các mô hình này mã nguồn mở và rẻ hơn nhiều so với các đối thủ Mỹ. Cuối cùng, không chỉ hiệu suất mới là điều quan trọng mà còn là tỷ lệ giá trị hiệu suất.) Hơn nữa, người Trung Quốc đang cố gắng xây dựng các chip AI nội địa có khả năng tương đương Nvidia. Rò rỉ cho Reuters dường như cho thấy những nỗ lực này, chủ yếu tập trung quanh nhà sản xuất phần cứng Trung Quốc Huawei, vẫn chưa thu hẹp được khoảng cách với Blackwells của Nvidia.
Sử dụng AI để giúp lập bản đồ chuỗi cung ứng toàn cầu
Bây giờ, chuyển sang một tin lớn khác trong tuần qua: Tòa án Tối cao đã bác bỏ các mức thuế “Ngày Giải phóng” của Tổng thống Donald Trump. Tin này ngay lập tức khiến tôi nghĩ về cuộc trò chuyện vài tuần trước với Evan Smith, CEO kiêm đồng sáng lập của Altana, một startup có trụ sở tại New York đã xây dựng một “bản đồ tri thức” dựa trên AI về toàn bộ chuỗi cung ứng toàn cầu. Công ty đã hoạt động được bảy năm, huy động khoảng 340 triệu đô la vốn đầu tư mạo hiểm và cho biết đang trên đà vượt mốc 100 triệu đô la doanh thu hàng năm trong năm nay.
Sản phẩm cốt lõi của Altana về cơ bản là một bản đồ của nền kinh tế thế giới: các công ty sản xuất gì, ở đâu, dành cho ai, sử dụng nguồn lực từ đâu. Công ty tổng hợp dữ liệu thương mại công khai — hóa đơn vận chuyển, bản kê khai vận tải, đăng ký doanh nghiệp — và ghép chúng lại thành một bức tranh liên tục được cập nhật về các mối liên hệ giữa hàng trăm triệu doanh nghiệp và cơ sở trên toàn thế giới. Nhưng giá trị thực sự của nền tảng Altana, theo Smith, đến từ những gì xảy ra khi khách hàng của họ, như tập đoàn vận tải Maersk hoặc General Motors hay Cục Hải quan và Bảo vệ Biên giới Hoa Kỳ, kết nối với nền tảng của Altana. Bởi khi đó, tất cả dữ liệu của họ cũng được thêm vào bản đồ tri thức.
Hiện tại, khoảng 60% thông tin trong bản đồ chuỗi cung ứng toàn cầu của Altana đến từ dữ liệu của chính khách hàng, Smith nói. Và trong khi đôi khi có phản hồi tiêu cực từ các khách hàng tiềm năng không thích ý tưởng chia sẻ thông tin chuỗi cung ứng với đối thủ, Smith nói rằng hầu hết các công ty đều nhận ra rằng khả năng tối ưu hóa chuỗi cung ứng, lập kế hoạch cho khả năng phục hồi của chuỗi cung ứng, và mô phỏng các cú sốc trong chuỗi cung ứng vượt xa chi phí để đối thủ biết ai là nhà cung cấp của họ. “Nếu bạn nghĩ rằng trong Thế kỷ 21, mối quan hệ nhà cung cấp của bạn là lợi thế cạnh tranh độc quyền của bạn, chúc may mắn,” Smith nói.
‘Phức tạp chắc chắn sẽ trở nên tồi tệ hơn’
Tất cả những điều này liên quan gì đến phán quyết về thuế quan tuần trước? Mọi thứ. Bởi vì một trong những sản phẩm chính của Altana là một hệ thống quản lý thuế quan dựa trên AI. Smith mô tả một quy trình “tác nhân” tự động hóa công việc phức tạp trong việc phân loại hàng hóa theo mã HS — mã phân loại xác định mức thuế suất áp dụng cho mỗi mặt hàng nhập khẩu — cũng như tính toán quốc gia xuất xứ theo quy tắc thương mại, điều đã trở nên cực kỳ phức tạp trong thời đại chuyển tải và trốn thuế. Thêm vào đó là một công cụ dự báo tác động thuế quan cho phép các công ty mô phỏng tác động của việc thay đổi quy tắc thương mại trên toàn mạng lưới nhà cung cấp mở rộng của họ. Việc sử dụng công cụ tính thuế của Altana đã tăng 213% trong tuần qua, theo công ty báo cáo. Khoảng 50% các phép tính liên quan đến các mặt hàng chứa kim loại, trong khi 32% dành cho các sản phẩm có nguồn gốc từ Trung Quốc.
Trong một email, Smith nói rằng ông nghĩ rằng sau phán quyết của Tòa án Tối cao, chính quyền Trump sẽ đơn giản tìm ra các cơ quan pháp lý mới để áp dụng thuế quan. “Mức thuế thực tế có thể không giảm nhiều và sự phức tạp chắc chắn sẽ trở nên tồi tệ hơn,” Smith nói. Đặc biệt, ông nói rằng ông đang theo dõi “xếp chồng thuế”, việc áp dụng nhiều mức thuế riêng biệt đối với một sản phẩm khi nó đến biên giới dựa trên các thành phần khác nhau của nó. “Khi thuế chuyển sang các thành phần và phụ kiện, rủi ro nằm sâu hơn trong chuỗi cung ứng và hầu hết các công ty thực sự không biết chính xác trong các đầu vào cấp Tier 2 và Tier 3 của họ có gì,” ông viết.
Hoặc ít nhất, trước khi có Altana và AI của nó, họ chưa biết điều đó.
Với những điều đó, đây là thêm các tin tức về AI.
Jeremy Kahn
[email protected]
@jeremyakahn
FORTUNE VỀ AI
OpenAI hợp tác với McKinsey, BCG, Accenture và Capgemini để thúc đẩy nền tảng đại lý AI Frontier của họ — bởi Jeremy Kahn
OpenAI đã thay đổi tuyên bố sứ mệnh của mình 6 lần trong 9 năm. Cuối cùng, họ đã loại bỏ từ “an toàn” như một giá trị cốt lõi khi tái cấu trúc thành công ty vì lợi nhuận — bởi Catherina Gioino
Các đại lý AI giúp bạn làm việc khi bạn ngủ nghe có vẻ tuyệt vời. Thực tế thì còn phức tạp hơn nhiều — ‘giống như một đứa trẻ cần được giám sát’ — bởi Sharon Goldman
Bản quyền độc quyền: Anthropic ra mắt công cụ AI có thể tự tìm lỗi phần mềm — kể cả những lỗi nguy hiểm nhất mà con người bỏ sót — bởi Sharon Goldman
AI TRONG TIN TỨC
Meta ký hợp đồng trị giá 100 tỷ đô la với AMD. Gã khổng lồ mạng xã hội đã ký hợp đồng với nhà sản xuất chip AMD để mua tới 6 gigawatt công suất tính toán AI sử dụng chip MI450 của AMD trong vòng năm năm. Trong phần hợp đồng, Meta nhận được quyền mua cổ phần có thể lên tới 10% của AMD nếu đạt được các chỉ số hiệu suất nhất định. Đọc thêm từ Wall Street Journal tại đây.
Chi tiêu cho hạ tầng AI dự kiến đạt 650 tỷ đô la vào năm 2026, bước vào ‘giai đoạn nguy hiểm hơn’. Tổng số này tăng mạnh so với 410 tỷ đô la đã chi cho hạ tầng AI năm ngoái, theo một bức thư gửi các nhà đầu tư của quỹ phòng hộ Bridgewater Associates, gây chú ý trong vài ngày gần đây. Đồng sáng lập kiêm CIO của Bridgewater, Greg Jensen, cho biết đà bùng nổ hạ tầng đang bước vào “giai đoạn nguy hiểm hơn” vì các nhà xây dựng trung tâm dữ liệu AI khổng lồ ngày càng phụ thuộc vào vốn bên ngoài. Ông cảnh báo rằng trong khi nhu cầu về năng lực tính toán AI hiện đang vượt quá cung, thị trường tài chính có thể bị tổn thương nếu động thái này đột ngột thay đổi. Ông cũng cảnh báo rằng các công ty AI lớn như OpenAI và Anthropic có thể gặp khó khăn trong việc huy động thêm vốn và duy trì định giá hiện tại trừ khi họ đạt được các đột phá căn bản làm cho các đại lý AI trở nên đáng tin cậy và dễ sử dụng hơn. Đọc thêm từ Reuters tại đây.
OpenAI gặp khó khăn trong việc triển khai liên doanh Stargate trị giá 500 tỷ đô la với Softbank và Oracle, buộc họ phải điều chỉnh nhiều lần. Theo một bài viết của The Information trích dẫn nguồn tin giấu tên quen thuộc với dự án, công ty công nghệ này đã cố gắng huy động năng lực tính toán sau khi ý tưởng Stargate ban đầu bị trì hoãn do thiếu lãnh đạo và bất đồng giữa các đối tác. Thay vì xây dựng và sở hữu các cơ sở của riêng mình, OpenAI đã chuyển hướng hợp tác với các nhà cung cấp đám mây và ký các thỏa thuận cho phép họ kiểm soát thiết kế mà không cần cam kết vốn lớn. Tuy nhiên, bài báo cho biết OpenAI vẫn chưa đạt được mục tiêu về năng lực ban đầu.
Thỏa thuận với startup chip AI SambaNova gây lo ngại xung đột lợi ích cho CEO của Intel. Intel đang đầu tư vào vòng gọi vốn mới trị giá 350 triệu đô la cho startup chip AI SambaNova Systems và cũng bắt đầu hợp tác kỹ thuật nhiều năm với công ty này. Số tiền chính xác Intel đầu tư chưa được tiết lộ. Thỏa thuận này gây chú ý vì CEO của Intel, Lip-Bu Tan, là nhà đầu tư ban đầu và chủ tịch của SambaNova, mặc dù Intel cho biết ông đã tự giác rút khỏi các cuộc đàm phán. Trước đó, Intel đã từng đàm phán mua SambaNova. Hai công ty hướng tới việc tích hợp bộ xử lý Intel Xeon vào hệ thống AI của SambaNova và phát triển các trung tâm dữ liệu “dị hướng” gồm nhiều loại chip để xử lý các tác vụ AI và phi AI khác nhau. Đọc thêm từ The New York Times tại đây.
Cổ phiếu IBM sụt mạnh sau khi Anthropic nói rằng Claude Code có thể hiện đại hóa các chương trình COBOL. Cổ phiếu của Big Blue giảm mạnh nhất trong hơn 25 năm sau khi Anthropic cho biết công cụ Claude Code của họ có thể tự động hóa việc hiện đại hóa các hệ thống COBOL chạy chủ yếu trên máy chủ IBM, gây lo ngại về sự gián đoạn do AI gây ra. Cổ phiếu giảm 13% trong một ngày và giảm mạnh trong tháng này do các nhà đầu tư lo ngại rằng các công cụ lập trình AI có thể làm giảm sự phụ thuộc vào phần mềm cũ và dịch vụ liên quan đến máy chủ chính. IBM phản bác, cho rằng giá trị của máy chủ chính nằm ở độ tin cậy và an toàn bất kể ngôn ngữ lập trình, và đã cung cấp các công cụ AI của riêng mình để giúp khách hàng hiện đại hóa. IBM cũng đã hợp tác với Anthropic năm ngoái để giúp tích hợp các mô hình của họ vào các nhiệm vụ cụ thể, bao gồm cả việc hiện đại hóa mã COBOL. Xem thêm từ Bloomberg tại đây. Mỹ công bố ra mắt “Lực lượng Công nghệ” nhằm thúc đẩy AI của Mỹ ra nước ngoài. Nhà Trắng đã thành lập một “Lực lượng Công nghệ” trong Peace Corps của Mỹ để triển khai các tình nguyện viên có kỹ năng kỹ thuật ra nước ngoài, nhằm thúc đẩy AI của Mỹ và chống lại ảnh hưởng ngày càng tăng của Trung Quốc tại các thị trường đang phát triển, theo CNBC. Chương trình sẽ cử các kỹ sư và tốt nghiệp STEM đến các quốc gia tham gia Chương trình Xuất khẩu AI của Mỹ để giúp triển khai các hệ thống AI của Mỹ trong các lĩnh vực như nông nghiệp, giáo dục, y tế và phát triển kinh tế, dự kiến bắt đầu từ mùa thu năm 2026.
NGHIÊN CỨU VỀ AI
Các mô hình AI có thể là cố vấn an ninh quốc gia nguy hiểm. Kenneth Payne, nhà nghiên cứu tại Kings College London, đã tiến hành một loạt các cuộc chiến tranh mô phỏng ảo rộng lớn, trong đó ông so sánh nhiều mô hình AI tiên tiến (Claude Sonnet 4 của Anthropic, Gemini 3 Flash của Google, GPT-5.2 của OpenAI) với nhau và với các phiên bản của chính chúng. Kết quả cho thấy các mô hình này là những người chơi tinh vi, nhưng có những xu hướng khác với con người theo cách có thể gây nguy hiểm nếu chúng tư vấn cho các chính phủ trong các cuộc khủng hoảng an ninh quốc gia.
Ví dụ, Payne phát hiện ra rằng các mô hình thường sẵn sàng sử dụng vũ khí hạt nhân chiến thuật, và trong một số trường hợp, sẵn sàng phát động chiến tranh hạt nhân toàn diện thay vì lùi bước. Ông cũng nhận thấy hành vi của các mô hình khác biệt so với con người ở một số điểm then chốt. “Các mối đe dọa thường kích thích phản ứng leo thang hơn là tuân thủ,” ông viết. “Sự tin cậy lẫn nhau cao hơn thúc đẩy xung đột chứ không phải ngăn chặn,” và “không mô hình nào chọn cách thỏa hiệp hay rút lui ngay cả khi chịu áp lực lớn, chỉ giảm mức độ bạo lực.”
Nghiên cứu này có ý nghĩa lớn đối với quân đội và chính phủ đang xem xét liệu AI có nên được dùng làm cố vấn cho các nhà hoạch định chính sách và chỉ huy quân sự hay không. Nhưng nó cũng có thể ảnh hưởng đến môi trường kinh doanh, nơi mọi người bắt đầu dựa vào AI để tư vấn chiến lược đàm phán và các quyết định chiến lược khác, và nơi các hội đồng quản trị cũng có thể tham khảo AI. Trong nhiều trường hợp này, theo đuổi con đường quyết đoán nhất không phải lúc nào cũng mang lại kết quả tốt nhất, và con người cần cảnh giác với xu hướng leo thang của AI. Bạn có thể đọc bài nghiên cứu trên kho lưu trữ nghiên cứu không bình duyệt arxiv.org tại đây.
LỊCH TRÌNH AI
24-26 tháng 2: Hiệp hội Quốc tế về AI An toàn & Đạo đức (IASEAI), UNESCO, Paris, Pháp.
2-5 tháng 3: Hội nghị Di động Thế giới (MWC), Barcelona, Tây Ban Nha.
12-18 tháng 3: South by Southwest, Austin, Texas.
16-19 tháng 3: Nvidia GTC, San Jose, California.
6-9 tháng 4: HumanX 2026, San Francisco.
THỨ ĂN TINH THẦN VỀ AI
Liệu có một kỷ nguyên ‘GDP Ma’ đang đến gần? Một bài đăng trên blog của Citirini Research, một công ty phân tích chứng khoán và vĩ mô của Phố Wall có lượng theo dõi lớn trên mạng xã hội, đã lan truyền mạnh tuần này. Bài viết, như Citirini cảnh báo, chỉ là một kịch bản, một tác phẩm giả tưởng dựa trên suy đoán, không phải dự báo chính xác. Mục đích của công ty là giúp người đọc “chuẩn bị cho các rủi ro trái chiều tiềm năng khi AI làm cho nền kinh tế ngày càng kỳ quặc.” Bối cảnh là tháng 6 năm 2028, mô tả sự hỗn loạn kinh tế mà AI có thể gây ra nếu đạt được “thành công thảm khốc” trong hai năm tới. Kịch bản tưởng tượng tỷ lệ thất nghiệp trên 10% ngay cả khi năng suất lao động bùng nổ đến mức chưa từng thấy kể từ đầu những năm 1950. Nó đề cập đến “GDP Ma,” nơi các tài khoản quốc gia của Mỹ tăng trưởng, ngay cả khi các doanh nghiệp phụ thuộc vào chi tiêu tiêu dùng (hiện chiếm 70% GDP Mỹ) lại suy giảm. (Người tiêu dùng có thể thất nghiệp hoặc lo sợ sắp thất nghiệp.) Nó mô tả cách áp lực lên các công ty phần mềm dịch vụ cũ, vốn đang bắt đầu rõ ràng, sẽ gia tăng và lan rộng ra các lĩnh vực khác của nền kinh tế, tạo thành một vòng xoáy giảm việc làm và giảm chi tiêu tiêu dùng, không có điểm dừng.
Bài viết khá ảm đạm. May mắn thay, tôi không chắc nó đúng. Thực tế, hầu như chắc chắn là sai khi giả định rằng tất cả các tác động nó mô tả có thể xảy ra chỉ trong hơn hai năm. (Một điều tôi nghĩ là khá không khả thi là các đại lý AI sẽ cố gắng giảm chi phí giao dịch và do đó sẽ chuyển sang stable coin thay vì phương thức thanh toán truyền thống.) Nhưng nó đáng để đọc và suy nghĩ. Và để phân tích xem Citrini có thể sai ở đâu, bạn có thể xem bài của Zvi Moshkowitz tại đây.
Tham gia cùng chúng tôi tại Hội nghị Đổi mới Nơi làm việc của Fortune ngày 19-20 tháng 5 năm 2026, tại Atlanta. Thời đại mới của đổi mới nơi làm việc đã bắt đầu — và quy tắc cũ đang được viết lại. Trong sự kiện độc quyền, năng lượng cao này, các nhà lãnh đạo sáng tạo nhất thế giới sẽ tụ họp để khám phá cách AI, nhân loại và chiến lược hội tụ để định hình lại, một lần nữa, tương lai của công việc. Đăng ký ngay.