1. Home
  2. News
  3. 大規模言語モデルのAnthropic、米国国家安全保障機関専用のAIモデルを発表
2025/06/06

Startup Portfolio

大規模言語モデルのAnthropic、米国国家安全保障機関専用のAIモデルを発表

生成AIを開発するスタートアップ企業のAnthropic PBCは、米国の国家安全保障機関専用に開発したAIモデル群を新たに発表しました。同社は今回発表したモデルが「米国の最高機密レベルの国家安全保障機関にすでに導入されている」としており、その利用は厳重に管理された機密環境に限定されるとしています。新たなAIモデル『Claude Gov』は、政府機関からのフィードバックを基に開発され、実際の運用ニーズや国家安全保障上の要件に対応すると同時に、Anthropicが掲げる安全性へのコミットメントを維持した設計となっています。

 

Anthropicは、AI業界において「Constitutional AI(憲法AI)」という独自の概念を提唱し、安全性を追求したAIモデルの開発で知られています。これはAIモデルが正しい価値観に基づいて行動するよう設計された学習システムで、別のAIがその出力を監視し、必要に応じて修正を促すことで、有害な結果を最小限に抑えるという仕組みです。

 

米国の国家安全保障機関は、この新たなAIモデルを、戦略的計画やインテリジェンス分析、脅威評価の支援といったさまざまな用途で活用することが可能となります。「これは、機密環境の特別なニーズに応えるカスタムモデルを提供し、米国国家安全保障機関に安全で責任あるAIソリューションを提供する我々のコミットメントをさらに強化するものです」とAnthropicは述べています。これらの専用モデルは、インテリジェンスや防衛関連の文書や情報に対する理解力を高め、国家安全保障上重要な言語や方言への高度な対応能力を備えています。また、機密情報の扱いに関するモデルの挙動が改善されており、機密情報を取り扱う際の拒否反応が従来より少なくなるよう設計されています。

Anthropicは昨年11月に、Palantir Technologies Inc.やAmazon Web Services Inc.と提携し、米国の諜報機関および防衛機関向けにClaudeモデル群を提供する取り組みを開始しています。

 

Anthropicについて
Anthropic PBCは、AI技術を利用して有害な結果を最小化し、倫理的なAIの活用を促進することを目的に設立された米国の生成AIスタートアップ企業です。同社のAIモデルは「Constitutional AI」という独自の安全性確保手法を採用しており、国家安全保障機関を含むさまざまな分野に導入されています。

 

TagsAIUnited States

関連ニュース

Contact

AT PARTNERSにご相談ください