Altman bảo vệ Anthropic khi mối quan hệ hợp tác giữa OpenAI và Pentagon gây chú ý về thời điểm và điều khoản

Trong bối cảnh căng thẳng gia tăng về việc sử dụng AI quân sự, mối quan hệ hợp tác mở của OpenAI với Pentagon đã gây ra cuộc tranh luận gay gắt về đạo đức, thời điểm và áp lực từ chính phủ.

Altman thừa nhận việc ra mắt đã vội vàng và diễn đạt chưa tốt

Sam Altman đã thừa nhận rằng OpenAI đã xử lý không tốt việc công bố công khai sự hợp tác mới với Pentagon. Trong một tin nhắn nội bộ đăng trên X, ông viết rằng công ty “không nên vội vàng” trong việc thông báo về thỏa thuận với Bộ Quốc phòng.

Altman cho biết lãnh đạo đã cố gắng làm dịu cuộc đối đầu ngày càng leo thang với chính phủ Mỹ. Tuy nhiên, ông thừa nhận kết quả “trông có vẻ vụ lợi và cẩu thả” và không truyền đạt rõ ý định của công ty trong việc hạn chế các sử dụng có hại của công nghệ.

Thỏa thuận hợp tác được công bố vào thứ Sáu, chỉ vài giờ sau khi Tổng thống Donald Trump ra lệnh cho các cơ quan liên bang ngừng sử dụng hệ thống AI của Anthropic. Hơn nữa, thông báo này được đưa ra ngay trước các hoạt động quân sự của Mỹ chống Iran, làm gia tăng chỉ trích về thời điểm công bố.

Phản ứng dữ dội lan rộng trên mạng xã hội, nhiều người dùng cáo buộc OpenAI lợi dụng cuộc đàn áp chính trị đối với đối thủ cạnh tranh. Nhiều bình luận viên cho biết họ đang xóa tài khoản ChatGPT và chuyển sang dùng mô hình Claude của Anthropic để phản đối.

Thay đổi hợp đồng tập trung vào giám sát trong nước và giới hạn tình báo

Đáp lại, OpenAI hiện đang làm việc với các quan chức Bộ Quốc phòng để sửa đổi thỏa thuận. Mục tiêu, theo Altman, là tích hợp các hướng dẫn đạo đức của openai trực tiếp vào ngôn ngữ pháp lý ràng buộc thay vì dựa vào các cam kết chính sách phi chính thức.

Một điều khoản mới quan trọng quy định rằng “hệ thống AI sẽ không bị sử dụng một cách cố ý để giám sát trong nước các cá nhân và công dân Mỹ.” Lệnh cấm giám sát trong nước rõ ràng này nhằm giải quyết các mối quan ngại về tự do dân sự do các nhà phê bình về triển khai AI quân sự đưa ra.

Các quan chức quốc phòng cũng xác nhận rằng hệ thống được bao phủ bởi hợp đồng của Bộ Quốc phòng sẽ không được triển khai bởi các cơ quan tình báo của Mỹ như NSA. Tuy nhiên, Altman làm rõ rằng bất kỳ việc sử dụng nào trong tương lai bởi các cơ quan tình báo sẽ cần một hợp đồng riêng và các cuộc đàm phán bổ sung.

Tuy nhiên, Altman khẳng định rằng mối quan hệ hợp tác OpenAI-Pentagon nhằm hạn chế các ứng dụng có rủi ro cao trong khi vẫn cho phép các ứng dụng hẹp liên quan đến quốc phòng phù hợp với luật pháp Mỹ và các quy tắc an toàn của công ty.

Tranh chấp với Anthropic tạo bối cảnh chính trị rộng lớn hơn

Thỏa thuận của OpenAI xuất phát trực tiếp từ các cuộc đàm phán thất bại giữa Anthropic và Bộ Quốc phòng. Anthropic đã thúc giục các cam kết bằng văn bản rằng các mô hình AI của họ sẽ không hỗ trợ giám sát trong nước hoặc vận hành các vũ khí tự động mà không có sự giám sát của con người.

Vào thứ Sáu, Bộ trưởng Quốc phòng Pete Hegseth thông báo rằng Anthropic sẽ nhận được danh hiệu đe dọa chuỗi cung ứng sau khi các cuộc đàm phán đổ vỡ. Hơn nữa, các quan chức chính phủ đã cáo buộc trong nhiều tháng rằng Anthropic quá chú trọng vào an toàn AI, điều này hạn chế khả năng linh hoạt trên chiến trường.

Mâu thuẫn trở nên công khai khi các báo cáo tiết lộ rằng hệ thống Claude của Anthropic đã được sử dụng trong một chiến dịch quân sự vào tháng Giêng nhằm vào Tổng thống Venezuela Nicolás Maduro. Anthropic không công khai phản đối việc triển khai đó vào thời điểm đó, điều này sau này làm dấy lên câu hỏi về tính nhất quán trong chính sách nội bộ của họ.

Dù sau đó đổ vỡ, nhưng Anthropic đã từng trở thành công ty AI đầu tiên triển khai các mô hình trong hạ tầng an ninh, bí mật của Pentagon theo một thỏa thuận hoàn tất vào năm ngoái. Lịch sử này, theo các nhà phê bình, khiến việc chuyển đổi đột ngột sang nhãn đe dọa chuỗi cung ứng trở nên rõ ràng hơn.

Altman phản đối nhãn rủi ro của Anthropic

Altman đã dùng tuyên bố mới nhất của mình để bảo vệ Anthropic ngay cả khi công ty của ông chính thức xác nhận vai trò với Pentagon. Ông nói rằng đã dành cuối tuần để thảo luận với các quan chức cấp cao, thúc giục họ xem xét lại việc phân loại mới.

“Tôi nhấn mạnh rằng Anthropic không nên bị xếp vào danh sách rủi ro chuỗi cung ứng, và chúng tôi hy vọng Bộ Quốc phòng sẽ cung cấp cho họ các điều khoản giống như chúng tôi đã đồng ý,” ông viết. Tuy nhiên, các lãnh đạo Pentagon vẫn chưa cho thấy bất kỳ dấu hiệu nào về việc sẽ đảo ngược nhãn này.

Anthropic được thành lập năm 2021 bởi các cựu nhà nghiên cứu của OpenAI, những người rời đi sau các tranh chấp nội bộ về hướng đi chiến lược và các trường hợp sử dụng quân sự phù hợp. Startup này đã xây dựng thương hiệu dựa trên phát triển AI có trách nhiệm và kiểm soát chặt chẽ hơn về sự phù hợp.

Tuy nhiên, chính quyền Mỹ chưa công khai phản hồi về lời kêu gọi của Altman về các điều khoản bình đẳng, cũng như chưa giải thích rõ ràng cách nhãn chuỗi cung ứng mới của Anthropic sẽ ảnh hưởng đến các hợp đồng mua bán AI của chính phủ trong tương lai.

Hậu quả đối với các hợp đồng AI quân sự trong tương lai

Cuộc xung đột này làm nổi bật các rủi ro chính trị ngày càng tăng liên quan đến việc trao hợp đồng của Bộ Quốc phòng về trí tuệ nhân tạo. Các công ty hiện đối mặt với áp lực cân bằng giữa cơ hội kinh doanh và rủi ro uy tín, cũng như lo ngại về các hệ thống tự động chết người.

Hơn nữa, sự kiện này cho thấy cách các điều khoản trong hợp đồng về giám sát, nhắm mục tiêu và loại trừ các cơ quan tình báo đã trở thành trung tâm trong các cuộc đàm phán. Sự can thiệp của Altman cho thấy các phòng thí nghiệm AI lớn có thể ngày càng vận động không chỉ cho các hợp đồng của chính họ mà còn cho các điều khoản tương tự đối với đối thủ cạnh tranh.

Khi các cuộc tranh luận về tiêu chuẩn an toàn và an ninh quốc gia ngày càng gay gắt, việc giải quyết các tranh chấp này sẽ định hình cách Pentagon cấu trúc các cơ hội hợp đồng về AI tiên tiến, và mô hình quản trị doanh nghiệp nào sẽ có ảnh hưởng lâu dài tại Washington.

Tóm lại, việc ra mắt vội vàng của OpenAI, trạng thái rủi ro tranh cãi của Anthropic và các hạn chế ngày càng mở rộng về giám sát và sử dụng tình báo báo hiệu một giai đoạn mới trong cách quân đội Mỹ tiếp cận các hợp tác và trách nhiệm về AI.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim