#TrumpordersfederalbanonAnthropicAI Це значне загострення у відносинах між "Великою Технікою" та федеральним урядом. У п’ятницю, 27 лютого 2026 року, президент Трамп дійсно видав директиву для всіх федеральних агентств припинити використання продуктів Anthropic, після напруженого протистояння щодо гарантій військового ШІ. Основний спір: "Червоні лінії" проти "Законного використання" Конфлікт зосереджений навколо двох конкретних засобів безпеки, які CEO Anthropic Даріо Амодей відмовився скасувати для Пентагону: Масове внутрішнє спостереження: Anthropic стверджував, що здатність ШІ агрегувати "розкидані, індивідуально нешкідливі дані" створює нові ризики для громадянських свобод, які сучасне законодавство ще не врахувало. Повністю автономна зброя: компанія стверджує, що сучасні передові моделі ще недостатньо надійні для прийняття смертельних цілевказівок без людського контролю. Пентагон, під керівництвом міністра оборони Піта Хегсета, вимагав "повного, необмеженого доступу" для всіх "законних цілей", стверджуючи, що приватні компанії не повинні диктувати військову політику або операційні рішення. Федеральна відповідь Виконавчий наказ: президент Трамп наказав негайно припинити нове використання технологій Anthropic у всіх федеральних агентствах, назвавши позицію компанії "ідеологічною" та "неспатріотичною". Ризик для національної безпеки: міністр оборони Хегсетх визначив Anthropic як "ризик ланцюга постачання для національної безпеки". Період поступового виключення: хоча заборона для більшості агентств є негайною, Міністерство оборони має 6-місячний термін для переходу своїх існуючих систем — включно з класифікованим середовищем "Claude Gov" — до інших постачальників. Anthropic пообіцяв оскаржити статус "ризику ланцюга постачання" у суді, назвавши його "юридично необґрунтованим" та "відплатою". Вони стверджують, що міністр не має повноважень забороняти оборонним підрядникам використовувати Claude для своїх неурядових клієнтів. За кілька годин після закінчення терміну, OpenAI оголосила про нову угоду щодо розгортання своїх моделей у класифікованих мережах Пентагону. Генеральний директор Сэм Альтман заявив, що їхня угода містить конкретний мовний пункт щодо людської відповідальності за використання сили, фактично заповнюючи прогалину, залишену Anthropic. Попри заборону, 1 березня з’явилися повідомлення, що Claude все ще використовується військовими США для інформування авіаударів в Ірані, що ілюструє, наскільки глибоко ця технологія вже інтегрована. Цей крок спричинив шок у Кремнієвій долині, де деякі експерти назвали його "спробою корпоративного вбивства", а інші вважають його необхідним кроком для забезпечення перемоги США у гонці ШІ без того, щоб бути "заручником" етичних рад технологій. $BTC $GT $ETH
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
#TrumpordersfederalbanonAnthropicAI Це значне загострення у відносинах між "Великою Технікою" та федеральним урядом. У п’ятницю, 27 лютого 2026 року, президент Трамп дійсно видав директиву для всіх федеральних агентств припинити використання продуктів Anthropic, після напруженого протистояння щодо гарантій військового ШІ. Основний спір: "Червоні лінії" проти "Законного використання" Конфлікт зосереджений навколо двох конкретних засобів безпеки, які CEO Anthropic Даріо Амодей відмовився скасувати для Пентагону: Масове внутрішнє спостереження: Anthropic стверджував, що здатність ШІ агрегувати "розкидані, індивідуально нешкідливі дані" створює нові ризики для громадянських свобод, які сучасне законодавство ще не врахувало. Повністю автономна зброя: компанія стверджує, що сучасні передові моделі ще недостатньо надійні для прийняття смертельних цілевказівок без людського контролю. Пентагон, під керівництвом міністра оборони Піта Хегсета, вимагав "повного, необмеженого доступу" для всіх "законних цілей", стверджуючи, що приватні компанії не повинні диктувати військову політику або операційні рішення. Федеральна відповідь Виконавчий наказ: президент Трамп наказав негайно припинити нове використання технологій Anthropic у всіх федеральних агентствах, назвавши позицію компанії "ідеологічною" та "неспатріотичною". Ризик для національної безпеки: міністр оборони Хегсетх визначив Anthropic як "ризик ланцюга постачання для національної безпеки". Період поступового виключення: хоча заборона для більшості агентств є негайною, Міністерство оборони має 6-місячний термін для переходу своїх існуючих систем — включно з класифікованим середовищем "Claude Gov" — до інших постачальників. Anthropic пообіцяв оскаржити статус "ризику ланцюга постачання" у суді, назвавши його "юридично необґрунтованим" та "відплатою". Вони стверджують, що міністр не має повноважень забороняти оборонним підрядникам використовувати Claude для своїх неурядових клієнтів. За кілька годин після закінчення терміну, OpenAI оголосила про нову угоду щодо розгортання своїх моделей у класифікованих мережах Пентагону. Генеральний директор Сэм Альтман заявив, що їхня угода містить конкретний мовний пункт щодо людської відповідальності за використання сили, фактично заповнюючи прогалину, залишену Anthropic. Попри заборону, 1 березня з’явилися повідомлення, що Claude все ще використовується військовими США для інформування авіаударів в Ірані, що ілюструє, наскільки глибоко ця технологія вже інтегрована. Цей крок спричинив шок у Кремнієвій долині, де деякі експерти назвали його "спробою корпоративного вбивства", а інші вважають його необхідним кроком для забезпечення перемоги США у гонці ШІ без того, щоб бути "заручником" етичних рад технологій. $BTC $GT $ETH