Ramp Labs presenta una nueva solución para compartir la memoria entre múltiples agentes, con una reducción máxima del consumo de tokens del 65%

GateNews

Noticias de Gate, 11 de abril, la empresa de infraestructura de IA Ramp Labs publicó resultados de investigación titulados «Latent Briefing», que logran un intercambio de memoria eficiente entre sistemas multiagente mediante la compresión directa de la caché KV de modelos de gran tamaño, reduciendo de forma significativa el consumo de Tokens sin perder precisión. En las arquitecturas multiagente más comunes, el orquestador (Orchestrator) descompone las tareas y llama repetidamente al modelo del trabajador (Worker); a medida que la cadena de inferencia se alarga, el uso de Tokens se expande de manera exponencial. La idea central de Latent Briefing es usar el mecanismo de atención para identificar en el contexto las partes realmente clave, eliminando la información redundante directamente en la capa de representación, en lugar de depender de resúmenes de LLM que son lentos o de la recuperación RAG con poca estabilidad. En el benchmark LongBench v2, el método mostró un rendimiento sobresaliente: el consumo de Tokens del modelo Worker se reduce en 65%, el ahorro de Tokens en documentos de longitud media (32k a 100k) alcanza una mediana del 49%, la precisión global mejora alrededor de 3 puntos porcentuales frente a la línea base, y el tiempo adicional por cada compresión es de solo aproximadamente 1.7 segundos, lo que acelera el proceso unas 20 veces frente al algoritmo original. El experimento utilizó Claude Sonnet 4 como orquestador y Qwen3-14B como modelo de trabajador, cubriendo escenarios de documentos de múltiples tipos, como artículos académicos, documentos legales, novelas e informes gubernamentales. La investigación también encontró que el umbral de compresión óptimo varía según la dificultad de la tarea y la longitud del documento: para tareas difíciles conviene una compresión más agresiva para filtrar el ruido de razonamiento especulativo, mientras que para documentos largos es más adecuado una compresión ligera para conservar información clave dispersa.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Gemini Lanza Trading Agéntico para el Comercio Automatizado Impulsado por IA

La bolsa de criptomonedas Gemini ha lanzado la Operativa Agéntica (Agentic Trading), marcando la primera vez que una bolsa regulada en EE. UU. ha ofrecido integración directa de agentes de IA para operaciones automatizadas. La plataforma permite a los usuarios conectar Claude, ChatGPT y otros modelos de IA para automatizar estrategias de trading que van desde órdenes simples hasta

CryptoFrontierHace47m

DeFi United consigue $300M con Consensys, compromiso de 30K ETH de Lubin

## Consensys y Joseph Lubin prometen 30,000 ETH a DeFi United El lunes, el estudio de desarrollo de Ethereum Consensys y el fundador Joseph Lubin anunciaron conjuntamente una contribución de 30,000 ETH a DeFi United, un esfuerzo coordinado para cubrir pérdidas del exploit de Kelp DAO, según el anuncio de Aave en

CryptoFrontierhace2h

Alphea lanza una blockchain de Capa 1 nativa de IA con ejecución de agentes autónomos

Mensaje de Gate News, 27 de abril — Alphea, una plataforma blockchain de Capa 1 recién presentada diseñada para infraestructuras de IA, presentó oficialmente su entorno de ejecución descentralizado en el Hong Kong Web3 Festival 2026. La plataforma integra la ejecución, la memoria persistente y la computación verificable como

GateNewshace2h

Gate organizará una mesa redonda en Space sobre Trading con IA el 28 de abril: explorar la IA como motor del próximo ciclo de Web3

Mensaje de Gate News, 27 de abril — Gate organizará una mesa redonda en vivo en Space sobre Trading con IA el 28 de abril a las 8 p.m., reuniendo a expertos de la industria para explorar si la profunda integración de la IA en los flujos de trabajo de trading marca el verdadero punto de partida del próximo ciclo de Web3. La discusión examinará A

GateNewshace6h

Ant Group lanza Ling-2.6-1T: modelo de billón de parámetros optimizado para una ejecución de tareas eficiente en tokens

Mensaje de Gate News, 27 de abril — Ant Group's inclusionAI ha lanzado Ling-2.6-1T, un nuevo modelo insignia de instrucciones en la serie Ling con un billón de parámetros. A diferencia de los modelos de razonamiento de cadena larga, Ling-2.6-1T emplea un mecanismo de "Fast-Thinking" diseñado para ejecutar tareas con precisión usando un número mínimo de tokens

GateNewshace7h

La API de Nansen ahora admite el protocolo MPP de Tempo, lo que permite a los agentes de IA pagar por llamada

Mensaje de Gate News, 27 de abril — La API de Nansen ahora admite el Protocolo de Pagos para Máquinas (MPP), un estándar para pagos autónomos de máquina a máquina respaldados por Tempo y Stripe. La integración permite que los agentes de IA paguen directamente desde sus monederos en función de cada llamada. La función opera junto a

GateNewshace7h
Comentar
0/400
Sin comentarios