Оттманский трейлер: новая модель безопасности OpenAI GPT 5.5-Cyber появится через несколько дней, столкновение с Claude Mythos

OpenAI анонсирует запуск специализированной модели безопасности сети GPT-5.5-Cyber, предназначенной для экспертов в области кибербезопасности, противостоящей строго контролируемой стратегии защиты Anthropic. Отметим, что Оттман предсказал, что в 2026 году может произойти масштабная кибератака, потрясшая мир.

OpenAI GPT-5.5-Cyber скоро будет представлен

Генеральный директор OpenAI Сам Оттман сегодня (30/04) предварительно сообщил, что в ближайшие дни будет запущена новая модель кибербезопасности GPT-5.5-Cyber, доступная специалистам в области интернет-безопасности. Он отметил, что команда будет сотрудничать с экосистемой и правительством, чтобы найти надежные способы доступа и обеспечить безопасность предприятий и инфраструктуры.

В апреле этого года Оттман в интервью основателю Axios Майку Аллену предсказал, что в 2026 году может произойти событие, способное потрясти весь мир, связанное с кибератаками.

Общественность продолжает обсуждать, насколько его слова отражают реальную угрозу, а недавно Anthropic выпустила модель Claude Mythos, способную самостоятельно выявлять уязвимости программного обеспечения, что усиливает споры и вызывает тревогу у правительства США.

  • **Соответствующая статья:**Claude Mythos — угроза финансовой безопасности? Министр финансов США и председатель ФРС срочно провели совещание, предупреждая о рисках

OpenAI планирует распространить инструменты кибербезопасности на все уровни правительства

Разногласия между OpenAI и Anthropic по стратегиям защиты отражают более широкий спор в области ИИ.

По сообщению CNN, до недавнего времени программа доверенного доступа к интернет-безопасности OpenAI была ограничена несколькими партнерами, и сейчас она расширяется на все проверенные государственные уровни, от федеральных агентств до местных, позволяя одобренным организациям использовать специальные версии моделей с меньшими ограничениями.

Руководитель политики национальной безопасности OpenAI Саша Бейкер отметил, что OpenAI не считает себя единственным решающим органом в вопросах распределения полномочий и приоритетов.

Разногласия двух гигантов ИИ: демократизация против строгого контроля

Модель Mythos от Anthropic обладает способностью выявлять и использовать уязвимости программного обеспечения. В связи с потенциальной опасностью компания постепенно внедряет её через строго контролируемый проект Glass Wing в сотрудничестве с правительственными представителями.

В области безопасности Anthropic выступает за медленный и осторожный подход, чтобы замедлить гонку вооружений, вызванную использованием ИИ хакерами, в то время как OpenAI планирует полностью открыть доступ к моделям.

Бейкер заявил, что необходимо демократизировать возможности защиты сети, чтобы все могли извлечь из этого пользу, а не ограничиваться только 50 крупнейшими компаниями по версии Forbes. Она подчеркнула, что это шанс для компаний исправить уязвимости до того, как злоумышленники получат к ним доступ.

Источник изображения: Getty Images/ANTHONY WALLACE/AFP Руководитель политики национальной безопасности OpenAI Саша Бейкер

OpenAI активно сотрудничает с США, разрабатывая план действий в эпоху разведки

Недавно OpenAI провела практический семинар в Вашингтоне, где Бейкер сообщила, что участниками стали представители Пентагона, Белого дома, Министерства внутренней безопасности и Агентства передовых исследований обороны, совместно тестирующие безопасность новых моделей, а через несколько недель планируется сбор обратной связи в Вашингтоне.

Кроме того, компания разрабатывает план действий для координации правительств и бизнеса в эпоху информационной разведки. В ближайшие дни планируется внедрение новых функций безопасности в ChatGPT и предоставление инструментов для улучшения личной кибербезопасности у широкой аудитории.

Дьявол или спаситель? Гиганты ИИ разыгрывают карту апокалипсиса

Однако многие компании ИИ часто предупреждают о возможных угрозах конца света, что вызывает сомнения в научных кругах.

В интервью BBC профессор этики Эдинбургского университета Шеннон Валлор отметила, что стратегия страха у компаний ИИ уже оказалась эффективной, превращая их продукты в потенциальные угрозы для мира, при этом не нанося ущерба или не ограничивая их власть. Это создает впечатление, что единственные, кому можно доверять в вопросах защиты, — это сами эти компании.

Она сказала, что утопия и апокалипсис — две стороны одной медали: «В любом случае, масштабы и мифологическая природа этих сценариев настолько велики, что кажется, будто механизмы регулирования, управления или судебные системы бессильны что-либо изменить.»

Это заставляет людей думать, что единственное, что они могут сделать — это ждать и смотреть, станут ли эти технологии в итоге демонами, уничтожающими цивилизацию, или спасителями, приносящими утопию. Название «Mythos» (миф) кажется специально созданным для вызова религиозного трепета.

Дополнительное чтение:
Новые политики в эпоху ИИ! OpenAI предлагает 4 инициативы: тридцатичасовая рабочая неделя, налог на роботов

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить