
米オープンAIが米国防総省との間で結んだ機密システム向け人工知能(AI)モデル提供の合意内容を修正し、自社のAIを使った米国民の監視を明示的に禁じる条項を追加しました。 アンソロピックとの交渉決裂や、トランプ政権によるアンソロピック排除をめぐる批判が高まる中での修正であり、軍事AIと市民監視をめぐる企業倫理のあり方が改めて問われている状況です。
オープンAIは3月2日、2月27日に公表した米国防総省との合意文書を改訂し、「AIシステムは米国民の国内における監視を意図して使用してはならない」との条項を追加したと明らかにしました。 国防総省が民間企業などから入手した位置情報やクレジットカードの取引履歴といった個人情報を分析し、米国民を追跡・監視する目的でオープンAIの技術を使うことも禁止する内容です。 さらに、米国家安全保障局(NSA)など国防総省傘下の情報機関は今回の合意の対象外とされ、これら機関が同社のAIを利用するには別途新たな契約を結ぶ必要があるとされています。
背景には、チャットボット「Claude(クロード)」を提供する米アンソロピックと国防総省の交渉が、AIによる米国民監視への利用をめぐる対立から2月27日に決裂した経緯があります。 国防総省は、全地球測位システム(GPS)の位置情報やクレジットカードの購買履歴などの民間データをAIで解析することを求めましたが、アンソロピック側はプライバシー侵害の懸念から、大規模監視や完全自律型兵器への活用を明確に禁じる条件を維持し、譲歩を拒んでいました。
一方、トランプ米政権は2月27日、全ての連邦政府機関に対しアンソロピックの技術使用停止を指示し、同社を「サプライチェーン上のリスク」に指定すると表明しました。 その直後にオープンAIが国防総省の機密ネットワークへのAI導入合意を発表したことで、アンソロピックが失う可能性のある政府契約の受け皿になろうとしたのではないかという見方も出ていました。 こうしたタイミングが重なったことで、オープンAIの契約文言には解釈の余地が大きく、監視利用を完全には縛り切れていないのではないかとする批判が国内外の専門家や市民団体から相次いでいました。
オープンAIのサム・アルトマン最高経営責任者(CEO)は、アンソロピックと国防総省の交渉が決裂した直後に自社の合意を公表したことについて、「発表を急ぐべきではなく、誤りだった」と投稿し、機会主義的だとの批判を招いたと認めています。 社内でも、監視や自律型兵器への関与をめぐる説明を求める声が強まっており、アンソロピックの姿勢に同調する従業員も少なくないとされています。
軍事AIと市民監視に揺れる企業倫理と政権方針
今回の合意修正は、オープンAIが軍事AIへの関与を拡大する一方で、少なくとも表向きには米国民の監視から距離を置く姿勢を打ち出す試みといえます。 しかし、具体的な運用や監査の仕組みが明らかでない中で、どこまで実効性のある歯止めになるかについては、依然として疑問視する声もあります。
アンソロピックは、国防総省によるAIの「合法的なあらゆる利用」を求める圧力に対し、大規模監視と完全自律型兵器を明確に拒む立場を崩さず、結果として最大2億ドル規模ともされる契約が危機に陥ったと伝えられています。 その姿勢は、軍事利用の線引きを重視するテック企業の象徴的な事例として注目される一方、政権側は同社を「急進左派企業」と批判し、「今後一切取引しない」とまで発言するなど、政治的対立の色合いも強まっています。
トランプ政権が政府のAI調達からアンソロピックを排除する方針を打ち出す中で、オープンAIに対する依存度は今後さらに高まる可能性があります。 その一方で、国務省がアンソロピックからオープンAIへの切り替えを進める動きなど、政府機関内でのAIベンダーの再編も報じられており、AI開発各社の事業戦略と倫理方針が国の安全保障政策と密接に結びつきつつあります。
軍事利用と市民監視をめぐる攻防は、今後も続く見通しです。AIの安全性や人権保護を掲げる企業がどこまで政府の要求に向き合うのか、また政府側がどのような透明性と規制の枠組みを示すのかが、国際的なAIガバナンスの行方を占う試金石となっています。












-300x169.jpg)