Điều khiến GPT và Claude có thể hợp tác là cùng phản đối Bộ Quốc phòng Mỹ?

robot
Đang tạo bản tóm tắt

Lần này họ đã nắm tay nhau, nhưng có lẽ chỉ kéo dài vài giờ đồng hồ.

Tác giả: Curry, Deep潮 TechFlow

Vài ngày trước có một bức ảnh rất nổi trên mạng.

Ấn Độ tổ chức một hội nghị AI, Thủ tướng Modi đứng trên sân khấu, hai bên là hàng loạt các lãnh đạo Silicon Valley. Trong phần chụp hình chung, Modi kéo tay người bên cạnh giơ cao trên đầu, những người khác cũng nắm tay nhau, tạo nên một cảnh tượng rất đoàn kết.

Nhưng, chỉ có hai người không nắm tay.

CEO của OpenAI và CEO của Anthropic, tức là hai công ty đứng sau ChatGPT và Claude, đứng cạnh nhau, mỗi người giơ nắm đấm.

Không nắm tay, không nhìn đối phương, như hai kẻ bị giáo viên sắp xếp ngồi cùng bàn oan ức.

Trong những năm gần đây, hai công ty này đã đấu đá không ngừng, Claude là do nhóm rời khỏi OpenAI làm ra, hai bên cạnh tranh người dùng, khách hàng doanh nghiệp, huy động vốn, năm nay trong Super Bowl, Anthropic còn chi tiền mua quảng cáo để châm chọc ChatGPT sẽ xuất hiện trên truyền hình.

Vì vậy, không nắm tay là chuyện bình thường.

Tuy nhiên, hôm nay họ đã nắm tay nhau. Bởi vì Pentagon.

Chuyện là thế này.

Anthropic, chính là công ty đứng sau Claude, năm ngoái đã ký hợp đồng trị giá tối đa 200 triệu USD với Bộ Quốc phòng Mỹ. Claude là mô hình AI đầu tiên được triển khai trong mạng lưới bí mật của quân đội Mỹ, giúp xử lý phân tích tình báo, lập kế hoạch nhiệm vụ.

Nhưng Anthropic đã vạch ra hai giới hạn trong hợp đồng:

Claude không được sử dụng để giám sát quy mô lớn công dân Mỹ, cũng không được dùng cho vũ khí tự hành không có sự tham gia của con người. (Tham khảo: 72 giờ khủng hoảng danh tính của Anthropic)

Tuy nhiên, Bộ Quốc phòng không chấp nhận.

Yêu cầu của họ là bốn chữ: Không giới hạn. Mua công cụ về dùng thoải mái, sao một công ty công nghệ lại có thể nói cho quân đội Mỹ biết không được làm gì.

Thứ Ba tuần trước, Bộ trưởng Quốc phòng Hegseth đã trực tiếp đưa ra tối hậu thư cho CEO của Anthropic: Trả lời trước 5 giờ 01 chiều thứ Sáu, nếu không sẽ tự chịu hậu quả.

Anthropic không đồng ý.

CEO của họ đã phát một tuyên bố công khai, nội dung chính là: Chúng tôi hiểu rõ tầm quan trọng của AI đối với quốc phòng Mỹ, nhưng trong một số trường hợp, AI có thể gây hại chứ không phải bảo vệ các giá trị dân chủ. Chúng tôi không thể chấp nhận yêu cầu này dựa trên lương tâm.

Đại diện đàm phán của Pentagon, Phó Bộ trưởng Quốc phòng Emil Michael sau đó đã đăng trên mạng xã hội chửi ông là lừa đảo, nói ông có ảo tưởng về Chúa, đùa cợt về an ninh quốc gia.

Chỉ trong chốc lát đã không còn nắm tay nhau

Sau đó, điều không ngờ đã xảy ra.

Nhân viên của OpenAI và Google, tổng cộng hơn 400 người, đã ký một bức thư chung, tiêu đề là “Chúng tôi sẽ không bị chia rẽ”.

Trong thư nói rằng, Bộ Quốc phòng Mỹ đang lần lượt đàm phán với các công ty AI, muốn khiến các công ty khác đồng ý với những điều kiện mà Anthropic không chấp nhận, dùng nỗi sợ để chia rẽ từng công ty một.

CEO của OpenAI cũng đã gửi thư nội bộ cho toàn thể nhân viên, nói rằng OpenAI cũng có những giới hạn tương tự như Anthropic:

Không làm giám sát quy mô lớn, không phát triển vũ khí tự sát, các quyết định rủi ro cao phải có sự tham gia của con người.

Chỉ vài ngày trước, hai công ty từng không muốn hợp tác, đột nhiên lại đứng về cùng một phía vì Pentagon.

Tuy nhiên, sự đoàn kết này có thể chỉ kéo dài vài giờ.

Chiều thứ Sáu, 5 giờ 01 phút, thời hạn tối hậu của Pentagon đã hết hạn. Anthropic không ký.

Một công ty công nghệ Mỹ trị giá khoảng 380 tỷ USD, đối mặt rủi ro hợp đồng trị giá 200 triệu USD bị hủy bỏ, đã từ chối Bộ Quốc phòng Mỹ. Trước đây, chuyện này chỉ là chấm dứt hợp đồng, tìm nhà cung cấp khác. Nhưng phản ứng của Washington lần này hoàn toàn không phải là chuyện kinh doanh.

Khoảng một giờ sau, Trump đã đăng bài trên Truth Social gọi Anthropic là “kẻ điên cánh tả”, nói họ cố ý vượt qua Hiến pháp, đùa cợt về tính mạng của quân nhân Mỹ.

Ông yêu cầu tất cả các cơ quan liên bang ngay lập tức ngừng sử dụng công nghệ của Anthropic.

Ngay sau đó, Bộ trưởng Quốc phòng Hegseth tuyên bố liệt Anthropic vào danh sách “nguy cơ an ninh chuỗi cung ứng”. Thẻ này thường dành cho các công ty như Huawei. Ý nghĩa rõ ràng là, tất cả các nhà thầu làm ăn với quân đội Mỹ đều không thể tiếp cận sản phẩm của Anthropic nữa.

Anthropic tuyên bố sẽ kiện.

Trong khi đó, cùng đêm đó, OpenAI, từng giữ lập trường chung, lại đã ký thỏa thuận với Pentagon.

Vấn đề tư tưởng

OpenAI đã nhận được gì?

Sau khi Claude bị đẩy ra ngoài, vị trí còn lại là nhà cung cấp AI cho mạng lưới bí mật của quân đội Mỹ. Tuy nhiên, OpenAI đã đề ra ba điều kiện với Pentagon: Không làm giám sát quy mô lớn, không phát triển vũ khí tự sát, các quyết định rủi ro cao phải có sự tham gia của con người.

Bộ Quốc phòng Mỹ nói, được rồi.

Bạn không nhầm đâu. Những điều kiện mà Anthropic từ chối trong vài tuần, chỉ sau vài ngày đã được một công ty khác đề xuất và thương lượng xong?

Tất nhiên, hai phương án không hoàn toàn giống nhau.

Anthropic yêu cầu thêm một điều nữa: Họ cho rằng pháp luật hiện tại không theo kịp khả năng của AI, ví dụ như AI có thể hợp pháp mua bán, tổng hợp dữ liệu định vị, lịch sử duyệt web, thông tin mạng xã hội của bạn, cuối cùng tạo ra một dạng giám sát hợp pháp, nhưng từng bước đều không phạm luật.

Anthropic nói rằng, chỉ viết “không làm giám sát” là không đủ, cần phải bịt lỗ hổng này. OpenAI không kiên quyết điều này, họ chấp nhận quan điểm của Bộ Quốc phòng, luật pháp hiện hành đã đủ.

Nhưng nếu bạn nghĩ đây chỉ là một tranh cãi về điều khoản, thì quá ngây thơ. Cuộc đàm phán này từ đầu đã không chỉ về điều khoản.

David Sacks, quan chức cao cấp của Nhà Trắng về AI, đã công khai chỉ trích Anthropic là “AI thức tỉnh” (tức là bị ảnh hưởng bởi tư tưởng chính trị, theo kiểu chính trị đúng đắn); các quan chức cấp cao của Pentagon đã nói với truyền thông rằng, vấn đề của Dario là do tư tưởng chính trị thúc đẩy, “chúng tôi biết rõ mình đang giao dịch với ai”.

Elon Musk, xAI của ông, chính là đối thủ trực tiếp của Anthropic, tuần này liên tục công kích công ty này trên X, nói rằng họ " căm ghét văn minh phương Tây".

Và CEO của Anthropic năm ngoái không dự lễ nhậm chức của Trump. CEO của OpenAI thì có.

Trừng phạt để răn đe

Vậy chúng ta hãy tổng hợp lại những gì đã xảy ra.

Cùng nguyên tắc, cùng giới hạn, vì yêu cầu thêm một lớp bảo vệ, đứng sai phe, thể hiện sai thái độ, Anthropic bị đánh giá là mối đe dọa an ninh quốc gia cấp độ Huawei của Mỹ.

OpenAI ít yêu cầu hơn, giữ mối quan hệ tốt, đã nhận được hợp đồng. Bạn nghĩ đây là chiến thắng của nguyên tắc, hay là sự định giá nguyên tắc?

Hợp đồng của Pentagon bị phản đối, thực ra cũng không phải lần đầu.

Năm 2018, Google có hơn 4000 nhân viên ký kiến nghị, hàng chục người nghỉ việc, phản đối công ty tham gia dự án Project Maven của Pentagon. Dự án này dùng AI phân tích video từ drone, giúp quân đội nhận diện mục tiêu nhanh hơn.

Google cuối cùng đã rút lui. Không gia hạn hợp đồng. Nhân viên thắng.

Sau 8 năm, lại một vòng tranh cãi tương tự. Nhưng lần này, quy tắc đã hoàn toàn thay đổi. Một công ty Mỹ nói rằng họ có thể làm ăn với quân đội, nhưng có hai điều không thể làm. Phản ứng của chính phủ Mỹ là loại bỏ họ khỏi toàn bộ hệ thống liên bang.

Và “nguy cơ an ninh chuỗi cung ứng” không chỉ đơn thuần là mất hợp đồng trị giá 200 triệu USD.

Năm nay, doanh thu của Anthropic khoảng 14 tỷ USD, hợp đồng 200 triệu USD chỉ là con số nhỏ. Nhưng cái nhãn này có ý nghĩa rằng, bất kỳ công ty nào làm ăn với quân đội Mỹ đều không thể dùng Claude.

Các công ty này không cần phải đồng tình với quan điểm của Pentagon, họ chỉ cần làm một đánh giá rủi ro: tiếp tục dùng Claude có thể mất hợp đồng chính phủ; đổi sang mô hình khác thì không sao.

Lựa chọn rất rõ ràng. Đó chính là tín hiệu thực sự của câu chuyện này.

Anthropic có chịu nổi hay không không quan trọng, điều quan trọng là công ty tiếp theo có dám chịu hay không. Họ sẽ nhìn vào kết quả này, xem việc giữ nguyên nguyên tắc sẽ mất bao nhiêu chi phí, rồi đưa ra quyết định cực kỳ lý trí.

Nhìn lại bức ảnh ở Ấn Độ, tất cả mọi người nắm tay nhau giơ cao, chỉ có hai người giữ chặt nắm đấm.

Có thể đây chính là trạng thái bình thường.

Nguyên tắc của các công ty AI có thể giống nhau, nhưng tay thì chưa chắc đã nắm được.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim