火星财经の報道によると、2月28日、人工知能企業のAnthropicは声明を発表し、「私たちは人工知能モデルClaudeの合法的な使用に関して、二つの例外を求めてきました。一つは、アメリカ国民に対する大規模な国内監視の禁止、もう一つは完全自律型兵器システムの禁止です。これまでのところ、国防総省やホワイトハウスから交渉の進展について直接の連絡は受けていません。例外条項を維持する理由は二つあります。一つは、現段階の最先端AIモデルは全自律兵器に適用できる信頼性を備えておらず、そのような用途は米軍の兵士や民間人の安全を脅かす可能性があること。もう一つは、大規模な国内監視は基本的人権の侵害にあたることです。」 「国防総省がAnthropicをサプライチェーンリスクとして位置付けたことは前例のないことであり、私たちは深く憂慮しています。Anthropicは2024年6月以降も米軍の戦闘員を支援し続けており、そのサービスの継続に努めています。この決定は法的に正当化されず、米国企業が政府と交渉する際の危険な前例となるでしょう。国防総省がどれだけ抑止や制裁を科そうとも、私たちの大規模国内監視と完全自律兵器に対する立場は変わりません。私たちは、いかなるサプライチェーンリスクの認定に対しても法的手段で異議を唱え続けます。」
Anthropic:米国国防総省またはホワイトハウスからの交渉進展に関する直接的な連絡はまだ受けていません
火星财经の報道によると、2月28日、人工知能企業のAnthropicは声明を発表し、「私たちは人工知能モデルClaudeの合法的な使用に関して、二つの例外を求めてきました。一つは、アメリカ国民に対する大規模な国内監視の禁止、もう一つは完全自律型兵器システムの禁止です。これまでのところ、国防総省やホワイトハウスから交渉の進展について直接の連絡は受けていません。例外条項を維持する理由は二つあります。一つは、現段階の最先端AIモデルは全自律兵器に適用できる信頼性を備えておらず、そのような用途は米軍の兵士や民間人の安全を脅かす可能性があること。もう一つは、大規模な国内監視は基本的人権の侵害にあたることです。」 「国防総省がAnthropicをサプライチェーンリスクとして位置付けたことは前例のないことであり、私たちは深く憂慮しています。Anthropicは2024年6月以降も米軍の戦闘員を支援し続けており、そのサービスの継続に努めています。この決定は法的に正当化されず、米国企業が政府と交渉する際の危険な前例となるでしょう。国防総省がどれだけ抑止や制裁を科そうとも、私たちの大規模国内監視と完全自律兵器に対する立場は変わりません。私たちは、いかなるサプライチェーンリスクの認定に対しても法的手段で異議を唱え続けます。」