Lệnh cấm của Lầu Năm Góc không chỉ khiến kỳ lân AI Anthropic mất một đơn đặt hàng quân sự lớn mà còn gây ra hiệu ứng domino, buộc gã khổng lồ dữ liệu “hoàng gia” Palantir của chính phủ Mỹ phải cân nhắc cắt giảm hoàn toàn ghế của mình với nó.
Theo báo cáo mới nhất từ The Information, Anthropic đã phục vụ chính phủ Mỹ thông qua Palantir trong hơn một năm. Khách hàng của Palantir tận dụng các mô hình của Anthropic để xác định các mẫu trong lượng lớn dữ liệu bí mật nhằm hỗ trợ việc ra quyết định. Tuy nhiên, với việc Bộ Quốc phòng phân loại Anthropic là “rủi ro chuỗi cung ứng”, mối quan hệ đối tác đang gặp nguy hiểm.
Là một nhà thầu chính phủ rất được ưu ái, khoảng 42% doanh thu gần 4,5 tỷ USD của Palantir vào năm ngoái đến từ các hợp đồng của chính phủ Mỹ. Nếu Palantir ngừng sử dụng Anthropic trong công việc liên bang, nó sẽ cắt đứt một trong những nguồn doanh thu của công ty khởi nghiệp AI. Mặc dù phần doanh thu này không đóng góp nhiều vào doanh thu dự kiến của Anthropic lên tới 18 tỷ USD trong năm nay, nhưng việc mất Palantir, một đối tác quan trọng, chắc chắn là một đòn giáng mạnh vào sự mở rộng của Anthropic tại các thị trường khách hàng lớn.
Palantir có thể cần sửa đổi phần mềm, và CEO bí mật chỉ trích Anthropic
Theo những người quen thuộc với vấn đề này, Palantir cung cấp cho khách hàng của mình phần mềm tùy chỉnh và ứng dụng AI, một số trong số đó được thiết kế đặc biệt để hoạt động với mô hình Claude của Anthropic. Nếu Claude bị bỏ rơi, Palantir sẽ phải sửa đổi các dịch vụ của mình, có thể mất vài tuần. Tuy nhiên, Palantir có thể chuyển sang các nhà cung cấp mô hình AI khác và tạo ra doanh thu gần như tương tự từ các hợp đồng này.
Giám đốc điều hành Palantir Alex Karp dường như chỉ trích Anthropic mà không nêu tên ông tại một hội nghị thượng đỉnh công nghệ quốc phòng ở Washington hôm thứ Ba. Ông khiển trách Thung lũng Silicon vì đã chống lại quân đội Mỹ và cảnh báo rằng các công ty AI có nguy cơ chọc giận những người theo chủ nghĩa tự do và bảo thủ.
**“Nếu Thung lũng Silicon nghĩ rằng chúng tôi sẽ lấy đi công việc cổ cồn trắng của mọi người… Và bạn phải đọ sức với quân đội, nếu bạn không nghĩ rằng điều này sẽ dẫn đến việc quốc hữu hóa công nghệ của chúng tôi, thì bạn bị chậm phát triển trí tuệ”.**Karp nói. “Đây là hướng của con đường này.”
Anthropic dự định thực hiện hành động pháp lý trong nỗ lực xoa dịu khách hàng của mình
Thứ Sáu tuần trước, sau khi tranh cãi với Anthropic về những hạn chế về cách quân đội có thể sử dụng AI của mình, Bộ trưởng Quốc phòng Pete Hegseth cho biết ông đã chỉ thị cho chính phủ tuyên bố Anthropic là “rủi ro chuỗi cung ứng”.
Lầu Năm Góc yêu cầu Anthropic cho phép Claude cho “tất cả các mục đích sử dụng hợp pháp”, nhưng Anthropic từ chối thỏa hiệp vì lo ngại về “giám sát hàng loạt” và “vũ khí hoàn toàn tự động”.
Tổng thống Mỹ Donald Trump đã đăng trên Truth Social hôm thứ Sáu rằng sẽ có “thời gian loại bỏ dần sáu tháng” đối với các cơ quan như Bộ Quốc phòng sử dụng các sản phẩm của Anthropic.
Giám đốc điều hành Anthropic Dario Amodei lập luận rằng quyết định này “chỉ có thể được mở rộng để sử dụng Claude như một phần của hợp đồng cho Bộ Chiến tranh (tên ưa thích của chính quyền Trump cho Bộ Quốc phòng)”. Các chuyên gia pháp lý cho biết Anthropic có thể chống lại hoàn toàn phát hiện này, một phần vì luật này thường áp dụng cho các công ty ngoài Mỹ.
Theo các phương tiện truyền thông trích dẫn những người quen thuộc với vấn đề này, Anthropic cũng cho biết hôm thứ Sáu rằng họ sẽ thực hiện hành động pháp lý chống lại việc xác định rủi ro chuỗi cung ứng trước tòa. Vì quyết định vẫn chưa chính thức có hiệu lực nên Anthropic đã không đệ đơn kiện.
Anthropic đã cố gắng xoa dịu khách hàng và đối tác kinh doanh, nói rằng quyết định của Bộ Quốc phòng, nếu được thực hiện, sẽ chỉ hạn chế các nhà thầu chính phủ sử dụng công nghệ của Anthropic cho công việc quân sự của Mỹ, chứ không phải bất kỳ công ty nào làm việc với chính phủ liên bang.
Các nhà thầu liên bang đang chờ hướng dẫn của chính phủ
Theo các nguồn tin truyền thông quen thuộc với các sản phẩm của Palantir, Palantir hiện cho phép khách hàng lựa chọn mô hình AI nào để sử dụng từ các nhà cung cấp, bao gồm Anthropic, OpenAI và Google, khi phân tích dữ liệu do nền tảng của mình thu thập. Lầu Năm Góc đã sử dụng các mô hình Anthropic, được lưu trữ bởi Amazon Web Services (AWS) và hoạt động song song với phần mềm của Palantir.
Ngoài mô hình Anthropic, Lầu Năm Góc đã sử dụng các mô hình từ OpenAI, Google và các nhà cung cấp khác thông qua phần mềm Palantir của mình, theo những người quen thuộc với cách Lầu Năm Góc sử dụng các sản phẩm này.
Tính đến tuần này, các nhà thầu liên bang đang chờ hướng dẫn của chính phủ về cách thức và liệu họ có cần cắt đứt quan hệ với Anthropic để duy trì các hợp đồng liên bang của họ hay không, theo các nhân viên công ty công nghệ làm ăn với chính phủ.
Cảnh báo rủi ro và tuyên bố từ chối trách nhiệm
Thị trường có nhiều rủi ro và đầu tư cần thận trọng. Bài viết này không cấu thành lời khuyên đầu tư cá nhân và không tính đến các mục tiêu đầu tư cụ thể, tình hình tài chính hoặc nhu cầu của người dùng cá nhân. Người dùng nên xem xét liệu có bất kỳ ý kiến, ý kiến hoặc kết luận nào trong bài viết này phù hợp với hoàn cảnh cụ thể của họ hay không. Đầu tư phù hợp với rủi ro của riêng bạn.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Sau khi gây bất hòa với Bộ Quốc phòng, mối quan hệ hợp tác giữa Anthropic và Palantir cũng sắp đổ vỡ
Lệnh cấm của Lầu Năm Góc không chỉ khiến kỳ lân AI Anthropic mất một đơn đặt hàng quân sự lớn mà còn gây ra hiệu ứng domino, buộc gã khổng lồ dữ liệu “hoàng gia” Palantir của chính phủ Mỹ phải cân nhắc cắt giảm hoàn toàn ghế của mình với nó.
Theo báo cáo mới nhất từ The Information, Anthropic đã phục vụ chính phủ Mỹ thông qua Palantir trong hơn một năm. Khách hàng của Palantir tận dụng các mô hình của Anthropic để xác định các mẫu trong lượng lớn dữ liệu bí mật nhằm hỗ trợ việc ra quyết định. Tuy nhiên, với việc Bộ Quốc phòng phân loại Anthropic là “rủi ro chuỗi cung ứng”, mối quan hệ đối tác đang gặp nguy hiểm.
Là một nhà thầu chính phủ rất được ưu ái, khoảng 42% doanh thu gần 4,5 tỷ USD của Palantir vào năm ngoái đến từ các hợp đồng của chính phủ Mỹ. Nếu Palantir ngừng sử dụng Anthropic trong công việc liên bang, nó sẽ cắt đứt một trong những nguồn doanh thu của công ty khởi nghiệp AI. Mặc dù phần doanh thu này không đóng góp nhiều vào doanh thu dự kiến của Anthropic lên tới 18 tỷ USD trong năm nay, nhưng việc mất Palantir, một đối tác quan trọng, chắc chắn là một đòn giáng mạnh vào sự mở rộng của Anthropic tại các thị trường khách hàng lớn.
Palantir có thể cần sửa đổi phần mềm, và CEO bí mật chỉ trích Anthropic
Theo những người quen thuộc với vấn đề này, Palantir cung cấp cho khách hàng của mình phần mềm tùy chỉnh và ứng dụng AI, một số trong số đó được thiết kế đặc biệt để hoạt động với mô hình Claude của Anthropic. Nếu Claude bị bỏ rơi, Palantir sẽ phải sửa đổi các dịch vụ của mình, có thể mất vài tuần. Tuy nhiên, Palantir có thể chuyển sang các nhà cung cấp mô hình AI khác và tạo ra doanh thu gần như tương tự từ các hợp đồng này.
Giám đốc điều hành Palantir Alex Karp dường như chỉ trích Anthropic mà không nêu tên ông tại một hội nghị thượng đỉnh công nghệ quốc phòng ở Washington hôm thứ Ba. Ông khiển trách Thung lũng Silicon vì đã chống lại quân đội Mỹ và cảnh báo rằng các công ty AI có nguy cơ chọc giận những người theo chủ nghĩa tự do và bảo thủ.
**“Nếu Thung lũng Silicon nghĩ rằng chúng tôi sẽ lấy đi công việc cổ cồn trắng của mọi người… Và bạn phải đọ sức với quân đội, nếu bạn không nghĩ rằng điều này sẽ dẫn đến việc quốc hữu hóa công nghệ của chúng tôi, thì bạn bị chậm phát triển trí tuệ”.**Karp nói. “Đây là hướng của con đường này.”
Anthropic dự định thực hiện hành động pháp lý trong nỗ lực xoa dịu khách hàng của mình
Thứ Sáu tuần trước, sau khi tranh cãi với Anthropic về những hạn chế về cách quân đội có thể sử dụng AI của mình, Bộ trưởng Quốc phòng Pete Hegseth cho biết ông đã chỉ thị cho chính phủ tuyên bố Anthropic là “rủi ro chuỗi cung ứng”.
Lầu Năm Góc yêu cầu Anthropic cho phép Claude cho “tất cả các mục đích sử dụng hợp pháp”, nhưng Anthropic từ chối thỏa hiệp vì lo ngại về “giám sát hàng loạt” và “vũ khí hoàn toàn tự động”.
Tổng thống Mỹ Donald Trump đã đăng trên Truth Social hôm thứ Sáu rằng sẽ có “thời gian loại bỏ dần sáu tháng” đối với các cơ quan như Bộ Quốc phòng sử dụng các sản phẩm của Anthropic.
Giám đốc điều hành Anthropic Dario Amodei lập luận rằng quyết định này “chỉ có thể được mở rộng để sử dụng Claude như một phần của hợp đồng cho Bộ Chiến tranh (tên ưa thích của chính quyền Trump cho Bộ Quốc phòng)”. Các chuyên gia pháp lý cho biết Anthropic có thể chống lại hoàn toàn phát hiện này, một phần vì luật này thường áp dụng cho các công ty ngoài Mỹ.
Theo các phương tiện truyền thông trích dẫn những người quen thuộc với vấn đề này, Anthropic cũng cho biết hôm thứ Sáu rằng họ sẽ thực hiện hành động pháp lý chống lại việc xác định rủi ro chuỗi cung ứng trước tòa. Vì quyết định vẫn chưa chính thức có hiệu lực nên Anthropic đã không đệ đơn kiện.
Anthropic đã cố gắng xoa dịu khách hàng và đối tác kinh doanh, nói rằng quyết định của Bộ Quốc phòng, nếu được thực hiện, sẽ chỉ hạn chế các nhà thầu chính phủ sử dụng công nghệ của Anthropic cho công việc quân sự của Mỹ, chứ không phải bất kỳ công ty nào làm việc với chính phủ liên bang.
Các nhà thầu liên bang đang chờ hướng dẫn của chính phủ
Theo các nguồn tin truyền thông quen thuộc với các sản phẩm của Palantir, Palantir hiện cho phép khách hàng lựa chọn mô hình AI nào để sử dụng từ các nhà cung cấp, bao gồm Anthropic, OpenAI và Google, khi phân tích dữ liệu do nền tảng của mình thu thập. Lầu Năm Góc đã sử dụng các mô hình Anthropic, được lưu trữ bởi Amazon Web Services (AWS) và hoạt động song song với phần mềm của Palantir.
Ngoài mô hình Anthropic, Lầu Năm Góc đã sử dụng các mô hình từ OpenAI, Google và các nhà cung cấp khác thông qua phần mềm Palantir của mình, theo những người quen thuộc với cách Lầu Năm Góc sử dụng các sản phẩm này.
Tính đến tuần này, các nhà thầu liên bang đang chờ hướng dẫn của chính phủ về cách thức và liệu họ có cần cắt đứt quan hệ với Anthropic để duy trì các hợp đồng liên bang của họ hay không, theo các nhân viên công ty công nghệ làm ăn với chính phủ.
Cảnh báo rủi ro và tuyên bố từ chối trách nhiệm