忍者ブログ

さてはてメモ帳 Imagine & Think!

独立個人党のオルタ黙示録:なんでも何が正しいのか自分で考えてみよう-世界暴政化の策謀を絵本で理解-「百聞は絵本にしかず」

米国防総省、米国民へのスパイ行為を拒否したとしてアンスロピックAIをブラックリストに載せる計画 g.calder

US Pentagon Moves to Blacklist Anthropic AI For Refusing to Spy on Americans By g.calder on February 18, 2026 • ( 4 Comments )

https://expose-news.com/2026/02/18/pentagon-to-blacklist-anthropic-ai-for-refusing-to-spy-on-americans/

米国国防総省は、アメリカを代表するAI企業の一つであり、大規模言語モデル「クロード」の開発元であるアンスロピック社が、軍による倫理的制限なしの技術使用を拒否したことを受け、ブラックリストへの登録を検討しています。アンスロピック社は、使用制限は大量監視や自律型兵器の開発を防ぐために不可欠だと主張しています。一方、国防総省は、数ヶ月に及ぶ交渉が決裂したことを受け、同社を「サプライチェーンリスク」に指定し、防衛関係を断つことを検討していると報じられています。

これまで静かだった国防総省とアンスロピック社の技術提携は、公の場で哲学的な論争へと発展し、先例となる可能性もあります。争点は、AI企業が自社技術の利用方法に倫理的な境界を設定できるのか、それとも政府が決定権を持つのか、という点です。この争いは、AIを誰がコントロールするのかという、より大きな問題を提起しています。AIを開発する企業なのか、自由が脅かされている市民なのか、それともAIへの自由なアクセスを求める政府機関なのか。

 

国防総省、アンスロピック社をサプライチェーンリスクに指定することを検討

対立:サプライチェーンのリスクと倫理的限界

国防長官ピート・ヘグゼスは、アンスロピック社との関係を断ち切り、同社をサプライチェーンリスク(歴史的には外国の敵対国にのみ適用されるレッテル)と指定することに「近い」と言われています。なぜならアンスロピック社が自社のAIツールに課せられた倫理的制限を緩和することを拒否しているためです。その制限には、クロードを米国民の国内大規模監視や、人間の介入なしに発射可能な完全自律型兵器に使用することを拒否することなどが含まれます。

この論争は単なる仮説ではありません。国防総省は、OpenAIGooglexAIAnthropicという4つの主要AIプロバイダーに対し、兵器開発、情報収集、戦場作戦といった機密性の高い分野を含む「あらゆる合法的な目的」で自社のモデルを使用する許可を求めてきました。アンスロピック社のみが、一部の用途は引き続き禁止すべきだと主張しており、この姿勢は国防高官の間で不満を募らせています。

アンスロピック社と国防総省の契約は20257月に締結され、最大2億ドルに上ります。これは、最先端のAI技術を防衛ワークフローに統合するという米軍の広範な取り組みの一環です。Claudeは機密扱いの軍事ネットワーク向けに承認された最初のモデルであり、現在も機密性の高い任務に配備されている唯一のシステムです。他の企業は、非機密扱いの政府機関での使用に際し、安全対策を解除することに同意していますが、アンスロピック社だけが、あらゆる状況において倫理的な制限を堅持する姿勢を貫いています。

国防総省は、合法的な使用の範囲を事前に設定するのは制限が厳しすぎると主張しています。ある高官はAxiosに対し、個別に承認を交渉することは軍事計画にとって非現実的であり、パートナーは「いかなる戦闘においても我々の戦闘員が勝利する」よう支援する用意がなければならないと語ったと報じられています。この高官はまた、アンスロピック社が抵抗すれば報復措置を受ける可能性があると警告しており、対立の深刻化を反映しています。

アンスロピック社は、クロードAIがマドゥロ逮捕に使われたことを知らなかった

この論争における哲学的な断層線は、20261月に米軍がベネズエラのニコラス・マドゥロ[Nicolás Maduro]大統領を捕らえるために実施した作戦中にクロードが利用されたとの報道を受けて、より明確になりました。複数の報道によると、クロードはパランティアが構築したシステムを通じて使用されましたが、アンスロピック社の暴力および使用に関する規定では、同社のモデルを「あらゆる暴力行為を助長または促進する」ため、あるいは兵器の設計や配備に使用することを禁じています。軍は詳細を明らかにしておらず、アンスロピック社はクロードの特定の作戦における使用については言及していないと述べ、使用に関するポリシーはあらゆる状況に適用されると主張しています。

このことから明らかになったのは、政府による「合法的な使用」の解釈と、アンスロピック社による倫理的制約の解釈の間に乖離があるということです。多くの人にとって、マドゥロ事件は、商用AIを軍事作戦に組み込むことに伴うリスクを如実に表しています。企業は道徳基準を約束しますが、政府が第三者を通じて技術を展開する場合、それらの基準は回避または無視される可能性があります。

倫理か効率か?人類主義は自らの立場を貫く

この確執の根底には、単なる契約上のものではなく、哲学的な側面があります。アンスロピック社のCEOと経営陣は、民間人の監視や自律型兵器の無制限な開発を阻止するためのガードレールの必要性を公に主張してきました。こうした立場は、市民の自由と、AIの無制限な展開がもたらす潜在的な社会的危害への懸念に根ざしています。この姿勢は、一部の国民、特に政府の行き過ぎをプライバシーと自由への脅威と捉える人々の共感を呼んでおり、アンスロピック社を原則主義、国防総省を高圧的だと批判する支持者たちの結集点にもなっています。

しかし、国防総省の視点から見ると、こうした制限はイノベーションを鈍らせ、防衛計画を複雑化させます。ほぼ互角の競争相手が高度なAIを軍事分野に導入しようと競い合っている時代に、当局は躊躇を運用上のマイナス要因と捉えています。国防総省が「あらゆる合法的な目的」に使用できるAIを推進しているのは、こうした緊急性を反映していますが、同時に軍事におけるAI利用に対する民間による監視の在り方についても疑問を投げかけています。

クロードのようなAIモデルが企業のインフラに広く統合されているという現実が、緊張をさらに高めています。報道によれば、米国の大企業10社のうち8社がAIモデルを使用しています。つまり、サプライチェーンのリスク指定は防衛関係に影響を及ぼすだけでなく、より広範な商業エコシステムに波及する可能性があるということです。

アンスロピック社とペンタゴンの争いから学んだこと

この衝突は、AI時代のより広範なジレンマを浮き彫りにしています。先進技術が開発段階を終え、強力な機関の手に渡った後、その利用方法を誰が決定するのか、という問題です。アンスロピック社は、ツールの力とリスクの両方を理解している開発者が、その境界線を設定するべきだと主張しています。一方、国防を担う国防総省は、契約を締結し、配備した技術の利用方法については、いかなる制約も受けないべきだと主張しています。

より深い問題は、倫理的制約がテクノロジーのあらゆる利用分野に及ぶべきなのか、それとも政府が安全保障の名の下にそれを無視できるべきなのか、という点です。その答えは、一つの契約にとどまらず、プライバシー、軍事的自立、企業の責任、そして究極的には、テクノロジーの限界を形作るのは国民なのか政府なのか、そしてどのような政府がそうなのかという問題にまで及びます。

最終的な思考

アンスロピック社とペンタゴンの綱引きで、私たちは未来に関する極めて重要な問題を目の当たりにしています。強力なツールが作られたとき、それがどのように使われるかは誰の価値観によって決まるのでしょうか。それを作る企業なのか、それを使用する政府なのか、それとも自由が危機に瀕している国民なのか。

PR

コメント

プロフィール

HN:
beingtt
性別:
非公開

P R