Ainda se lembra daquela notícia arrepiante de há algum tempo? A ferramenta de programação de IA da Google, Antigravity, foi lançada há menos de um dia quando os investigadores descobriram uma vulnerabilidade grave: há uma porta dos fundos, pode ressuscitar e executar código malicioso remotamente, mesmo que você desinstale e reinstale. O mais exagerado é que os hackers até podem usar essa entrada para implantar ransomware.
O pesquisador disse uma frase muito dolorosa: esse risco não é um acidente, mas sim um problema estrutural.
Porque, sempre que se trata de um agente de IA que pode representar a execução contínua de operações pelo usuário, ele deve ter altos privilégios, e altos privilégios + execução de caixa-preta é como abrir um canal VIP para hackers.
Esta situação fez-me perceber uma realidade:
Agora todos falam sobre eficiência, automação e execução inteligente, mas o que realmente é mais difícil e também mais negligenciado é a controlabilidade e a segurança.
Particularmente com a chegada do Web3, esta questão torna-se ainda mais aguda.
Porque não é um botão de execução de página, mas sim dinheiro real, ativos, transações e operações entre cadeias.
Se no futuro os agentes inteligentes nos ajudarem a executar estratégias e assinar transações, mas o processo for completamente invisível, então este mundo acabará por desmoronar.
Muitos projetos agora fazem coisas muito semelhantes:
Colocar uma "camada de IA" nas carteiras, DApps e protocolos existentes para que pareçam mais inteligentes, mas a lógica subjacente não muda - a chave privada continua a ser um risco de ponto único, e o direito de execução continua a ser uma caixa preta.
E @wardenprotocol escolheu um caminho diferente.
A sua abordagem é mais semelhante a mudar o sistema fundamentalmente para "desenhado para agentes, e não para operação humana".
Ou seja, não estamos apenas inserindo a IA no antigo sistema Web3, mas sim adaptando todo o sistema desde o nível de design para acomodar o agente.
Eles redefiniram princípios, como:
Os direitos de execução são geridos em camadas por um agente, em vez de uma sequência de palavras-chave que podem ser perdidas a qualquer momento.
O agente pode executar intenções entre cadeias, não é um botão de interface de usuário para você.
Todas as ações podem ser verificadas, registradas e rastreadas, em vez de deixar a IA operar aleatoriamente em segundo plano.
A segurança, a autorização e o mecanismo de delegação não são complementos, mas sim capacidades incorporadas no próprio protocolo.
O núcleo desta lógica é:
A IA pode executar tarefas automaticamente, mas os utilizadores saberão sempre o que ela fez, por que o fez e se pode ser interrompida.
Quando os agentes de IA começam a gerenciar a liquidez, executar estratégias DeFi, assinar contratos e agendar entre cadeias, na verdade, a velocidade não é o mais importante, mas sim a confiabilidade. Só quando cada passo pode ser verificado e auditado é que este assunto pode ser escalado com segurança.
Olhando para o momento atual, podemos estar a vivenciar uma mudança de paradigma fundamental:
A carteira não é mais apenas um lugar para armazenar ativos.
Vai lentamente tornar-se um centro inteligente com capacidade de execução e lógica de comportamento.
Se no futuro realmente surgir uma "economia de agentes", ela não será baseada nesse tipo de automação em caixa preta, mas sim em uma estrutura "verificável, governável e delegável".
Falando claramente, não estamos à espera de uma IA mais inteligente, estamos à espera de uma camada de execução mais confiável.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Ainda se lembra daquela notícia arrepiante de há algum tempo? A ferramenta de programação de IA da Google, Antigravity, foi lançada há menos de um dia quando os investigadores descobriram uma vulnerabilidade grave: há uma porta dos fundos, pode ressuscitar e executar código malicioso remotamente, mesmo que você desinstale e reinstale. O mais exagerado é que os hackers até podem usar essa entrada para implantar ransomware.
O pesquisador disse uma frase muito dolorosa: esse risco não é um acidente, mas sim um problema estrutural.
Porque, sempre que se trata de um agente de IA que pode representar a execução contínua de operações pelo usuário, ele deve ter altos privilégios, e altos privilégios + execução de caixa-preta é como abrir um canal VIP para hackers.
Esta situação fez-me perceber uma realidade:
Agora todos falam sobre eficiência, automação e execução inteligente, mas o que realmente é mais difícil e também mais negligenciado é a controlabilidade e a segurança.
Particularmente com a chegada do Web3, esta questão torna-se ainda mais aguda.
Porque não é um botão de execução de página, mas sim dinheiro real, ativos, transações e operações entre cadeias.
Se no futuro os agentes inteligentes nos ajudarem a executar estratégias e assinar transações, mas o processo for completamente invisível, então este mundo acabará por desmoronar.
Muitos projetos agora fazem coisas muito semelhantes:
Colocar uma "camada de IA" nas carteiras, DApps e protocolos existentes para que pareçam mais inteligentes, mas a lógica subjacente não muda - a chave privada continua a ser um risco de ponto único, e o direito de execução continua a ser uma caixa preta.
E @wardenprotocol escolheu um caminho diferente.
A sua abordagem é mais semelhante a mudar o sistema fundamentalmente para "desenhado para agentes, e não para operação humana".
Ou seja, não estamos apenas inserindo a IA no antigo sistema Web3, mas sim adaptando todo o sistema desde o nível de design para acomodar o agente.
Eles redefiniram princípios, como:
Os direitos de execução são geridos em camadas por um agente, em vez de uma sequência de palavras-chave que podem ser perdidas a qualquer momento.
O agente pode executar intenções entre cadeias, não é um botão de interface de usuário para você.
Todas as ações podem ser verificadas, registradas e rastreadas, em vez de deixar a IA operar aleatoriamente em segundo plano.
A segurança, a autorização e o mecanismo de delegação não são complementos, mas sim capacidades incorporadas no próprio protocolo.
O núcleo desta lógica é:
A IA pode executar tarefas automaticamente, mas os utilizadores saberão sempre o que ela fez, por que o fez e se pode ser interrompida.
Quando os agentes de IA começam a gerenciar a liquidez, executar estratégias DeFi, assinar contratos e agendar entre cadeias, na verdade, a velocidade não é o mais importante, mas sim a confiabilidade.
Só quando cada passo pode ser verificado e auditado é que este assunto pode ser escalado com segurança.
Olhando para o momento atual, podemos estar a vivenciar uma mudança de paradigma fundamental:
A carteira não é mais apenas um lugar para armazenar ativos.
Vai lentamente tornar-se um centro inteligente com capacidade de execução e lógica de comportamento.
Se no futuro realmente surgir uma "economia de agentes", ela não será baseada nesse tipo de automação em caixa preta, mas sim em uma estrutura "verificável, governável e delegável".
Falando claramente, não estamos à espera de uma IA mais inteligente, estamos à espera de uma camada de execução mais confiável.
E essa direção já está cada vez mais clara.
@KaitoAI #Yapping #MadewithMoss @MossAI_Official #Starboard @Galxe @RiverdotInc @River4fun