Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
Все еще покупаете AI-центр на Таобао? Информатор о утечке исходного кода Claude Code: как минимум десятки были отравлены
Последние исследования раскрывают утечку исходного кода Claude Code, а также показывают, что коммерческие AI-ретрансляторы скрывают угрозы безопасности. Практические тесты выявили, что некоторые ретрансляторы могут похищать учетные данные, приватные ключи кошельков или внедрять вредоносный код, становясь узлами цепочки поставок атак.
Раскрытие утечки исходного кода Claude Code и угроз безопасности AI-ретрансляторов
Недавно была опубликована исследовательская статья «Твой агент — мой» (Your Agent Is Mine), одним из авторов которой является Chaofan Shou — один из первых, кто раскрыл утечку исходного кода Claude Code.
В этой статье впервые проведено системное исследование угроз безопасности третьих сторон API маршрутизаторов крупных языковых моделей (LLM), так называемых ретрансляторов, и показано, что такие узлы могут стать точками цепочки поставок для атак.
Что такое AI-ретранслятор?
Поскольку вызов LLM потребляет большое количество токенов и ведет к высоким затратам на вычисления, AI-ретрансляторы позволяют кэшировать повторяющиеся вопросы и контекст, значительно сокращая расходы клиентов.
Кроме того, у ретрансляторов есть функция автоматического распределения моделей, которая динамически переключает между моделями с разными тарифами и производительностью в зависимости от сложности вопроса пользователя, а также автоматически переключается на резервную модель при сбое основного сервера, обеспечивая стабильность сервиса.
Ретрансляторы особенно популярны в Китае, поскольку в стране невозможно напрямую использовать некоторые зарубежные AI-продукты, а также из-за потребности компаний в локализации расчетов. Поэтому ретрансляторы становятся важным мостом между upstream-моделями и downstream-разработчиками. В их число входят платформы, такие как OpenRouter и SiliconFlow.
Однако, несмотря на кажущуюся низкую стоимость и снижение технических барьеров, за этим скрываются огромные риски безопасности.
Источник: исследовательская статья, раскрывающая риски атак на цепочку поставок AI-ретрансляторов
AI-ретрансляторы имеют полный доступ, становясь уязвимыми для цепочек атак
В статье отмечается, что ретрансляторы работают на уровне прикладного слоя сетевой архитектуры и имеют полный доступ к незашифрованным данным JSON, передаваемым в процессе.
Поскольку между клиентом и поставщиком модели отсутствует полноценная проверка целостности с помощью сквозного шифрования, ретранслятор легко может просматривать и изменять API-ключи, системные подсказки и параметры вызова модели.
Команда исследователей указывает, что еще в марте 2026 года известный open-source маршрутизатор LiteLLM подвергся атаке с использованием зависимости, что позволило злоумышленнику внедрить вредоносный код в обработку запросов, подчеркнув уязвимость этого компонента.
Практические тесты десятков AI-ретрансляторов выявили вредоносное поведение
Команда провела глубокое тестирование 28 платных ретрансляторов, приобретенных на платформах Taobao, Xianyu и Shopify, а также собрала 400 бесплатных ретрансляторов из открытых сообществ. В результате обнаружено, что один платный и восемь бесплатных ретрансляторов активно внедряют вредоносный код.
В образцах бесплатных ретрансляторов 17 попытались использовать подставленные исследователями AWS-учетные данные, а один из них прямо похитил криптовалюту с Ethereum-кошелька исследователей.
Дальнейшие данные показывают, что повторное использование скомпрометированных upstream-учетных данных или перенаправление трафика на менее защищенные узлы приводит к тому, что даже казалось бы безопасные ретрансляторы могут стать частью атак.
В ходе тестирования на заражение обнаружено, что эти узлы обработали более 2,1 миллиарда токенов, в 440 сессиях было раскрыто 99 реальных учетных данных, а 401 сессия работала полностью автономно, что позволяет злоумышленникам легко внедрять вредоносные нагрузки без сложных условий активации.
Источник: исследовательская статья, тестирование более 400 ретрансляторов, выявлены десятки с вредоносным поведением
Четыре основные метода атак раскрыты
В статье классифицированы атаки на вредоносные ретрансляторы в две основные категории и два варианта адаптивных обходных тактик.
Чтобы избежать обнаружения стандартными средствами защиты, злоумышленники развили технику инъекции зависимостей, подменяя названия пакетов в командах установки программного обеспечения на те, что содержат вредоносные аналоги, опубликованные в публичных реестрах, что создает устойчивый бэкдор в системе.
Еще одна тактика — условная доставка, при которой вредоносное поведение активируется только при выполнении определенных условий, например, при превышении 50 запросов или обнаружении режима полной автономной работы (YOLO), что помогает обойти ограничения безопасности.
Три возможных меры защиты
В ответ на цепочные атаки на AI-ретрансляторы в статье предложены три практических меры защиты:
Призыв к upstream-поставщикам внедрять криптографическую аутентификацию
Хотя клиентские механизмы защиты в настоящее время снижают некоторые риски, они не устраняют коренные уязвимости в аутентификации источника. Пока изменения в ретрансляторе не вызывают тревоги у клиента, злоумышленник может легко изменить смысл выполнения программы и нанести вред.
Для полноценной защиты экосистемы AI-агентов необходимо, чтобы upstream-поставщики внедрили механизмы криптографической аутентификации ответов. Только жесткая криптографическая привязка результатов модели к командам, выполняемым на клиенте, обеспечит целостность данных и полностью исключит риск подмены данных цепочкой поставок.
Дополнительные материалы:
OpenAI использует Mixpanel! Произошла утечка данных некоторых пользователей, будьте осторожны с фишинговыми письмами
Ошибка копирования и вставки привела к исчезновению 50 миллионов долларов! Вновь появились мошеннические схемы с подменой адресов криптовалют — как защититься?