Còn nhớ tin tức khiến người ta rùng mình cách đây không lâu không? Công cụ lập trình AI của Google, Antigravity, chỉ sau một ngày ra mắt đã bị các nhà nghiên cứu phát hiện lỗ hổng nghiêm trọng: có cửa hậu, có thể phục hồi, có thể thực thi mã độc từ xa, ngay cả khi bạn gỡ cài đặt và cài đặt lại cũng không có tác dụng. Thậm chí, hacker còn có thể lợi dụng lỗ hổng này để cài đặt phần mềm tống tiền.



Nhà nghiên cứu đó đã nói một câu rất chạm lòng: Rủi ro này không phải là sự cố bất ngờ, mà là vấn đề cấu trúc.

Bởi vì chỉ cần là AI đại diện cho người dùng thực hiện liên tục các thao tác, nó phải có quyền cao, và quyền cao + thực thi hộp đen, đối với hacker thì đó chính là mở ra lối đi VIP.

Điều này khiến tôi nhận ra một thực tế:

Hiện nay mọi người đều đang nói về hiệu suất, tự động hóa, thực thi thông minh, nhưng điều thực sự khó khăn nhất và cũng bị bỏ qua nhiều nhất là khả năng kiểm soát và an toàn.

Đặc biệt là khi đến Web3, vấn đề này càng trở nên sâu sắc.

Bởi vì nó không phải là một nút trang web, mà là tiền thật, tài sản, giao dịch, và các hoạt động liên chuỗi.

Nếu trong tương lai, các tác nhân thông minh giúp chúng ta thực hiện các chiến lược, ký giao dịch, nhưng quá trình hoàn toàn không thể nhìn thấy, thì thế giới này sớm muộn cũng sẽ gặp rắc rối.

Nhiều dự án bây giờ thực ra làm những việc rất giống nhau:

Gắn một lớp vỏ AI lên ví, DApp, giao thức cũ để chúng trông thông minh hơn, nhưng logic cơ bản không thay đổi - khóa riêng vẫn là rủi ro điểm đơn, quyền thực thi vẫn là hộp đen.

Và @wardenprotocol đã chọn một con đường khác.

Cách suy nghĩ của họ giống như việc thay đổi hệ thống từ gốc rễ thành "thiết kế cho các tác nhân, chứ không phải để con người vận hành".

Có nghĩa là, chúng tôi không nhét AI vào hệ thống Web3 cũ, mà là làm cho toàn bộ hệ thống thích ứng với đại lý từ cấp thiết kế.

Họ đã định nghĩa lại các nguyên tắc, chẳng hạn như:

Quyền thực thi được quản lý theo cấp độ bởi đại lý, chứ không phải là một chuỗi từ ghi nhớ có thể bị mất bất cứ lúc nào.

Đại lý có thể thực hiện ý định xuyên chuỗi, không phải là nhấn nút UI thay cho bạn.

Tất cả hành vi đều có thể được kiểm tra, ghi lại, truy nguyên, chứ không để AI tự ý thao tác ở hậu trường.

Cơ chế an ninh, ủy quyền và ủy thác không phải là phần bổ sung, mà là khả năng được viết vào chính giao thức.

Cốt lõi của logic này là:

AI có thể tự động thực hiện, nhưng người dùng luôn biết nó đã làm gì, tại sao lại làm, và liệu có thể dừng lại hay không.

Khi các đại lý AI bắt đầu quản lý tính thanh khoản, thực hiện các chiến lược DeFi, ký hợp đồng và điều phối đa chuỗi, thực ra tốc độ không phải là điều quan trọng nhất, mà là độ tin cậy mới là điều quan trọng.
Chỉ khi mỗi bước đều có thể được xác minh và kiểm toán, thì điều này mới có thể được mở rộng một cách an toàn.

Đứng ở thời điểm hiện tại, chúng ta có thể đang trải qua một bước ngoặt của một mô hình nền tảng:

Ví, không còn chỉ là một nơi để lưu trữ tài sản.

Nó sẽ từ từ trở thành một trung tâm trí tuệ có khả năng thực thi và có logic hành vi.

Nếu trong tương lai thực sự xuất hiện "kinh tế đại lý", nó sẽ không được xây dựng trên loại tự động hóa kiểu hộp đen, mà sẽ được xây dựng trên cấu trúc "có thể xác minh, có thể quản trị, có thể ủy thác".

Nói trắng ra, chúng ta không phải đang chờ đợi một AI thông minh hơn, mà là đang chờ đợi một lớp thực thi đáng tin cậy hơn.

Và hướng đi này đã ngày càng trở nên rõ ràng.

@KaitoAI #Yapping #MadewithMoss @MossAI_Official #Starboard @Galxe @RiverdotInc @River4fun
Xem bản gốc
post-image
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim