AnthropicがClaudeの新たな「憲法」を公開:倫理的推論を重視した設計への転換

編集者: Veronika Radoslavskaya

Anthropicは、同社のAIモデル「Claude(クロード)」の基盤となる「憲法」の包括的なアップデートを正式に発表しました。この基本文書は、従来の単純な行動規則のリストから脱却し、モデルが抱く価値観の根底にある理由を明示する、包括的な倫理的アーキテクチャへと進化を遂げています。Claudeに対して自身の振る舞いに関する文脈と論理的根拠を与えることで、AnthropicはAIの判断力を向上させ、機械的で硬直した指示に頼ることなく、未知の状況や複雑な課題に対しても広範な原則を適用できる能力を養うことを目指しています。

この学習プロセスは「憲法的AI(Constitutional AI)」と呼ばれる手法に基づいています。この手法では、AIモデルが自らの憲法を参照して、自身の生成した回答を評価し、自己修正を行います。この文書は主にClaude自身が理解するために作成されており、このAIという存在が世界において安全かつ有益に活動するために必要な指針を提供することを目的としています。また、AI業界全体の透明性と協力を促進するため、Anthropicはこの憲法の全文をクリエイティブ・コモンズCC0ライセンスの下で公開し、いかなる目的でも自由に利用できるようにしました。

新しい憲法では、相反する目標に直面した際にClaudeが優先すべき事項が、明確な階層構造として定義されています。Claudeは、複数の目的が衝突する場合、以下の優先順位に従って判断を下すよう設計されています。

  • 広範な安全性:これが最優先事項であり、開発段階においてAIが人間の監視や修正メカニズムを妨げないことが義務付けられています。
  • 広範な倫理:Claudeは誠実かつ徳高くあることを求められ、不適切、有害、あるいは危険な行動を回避しなければなりません。
  • Anthropicのガイドラインの遵守:医療アドバイスやサイバーセキュリティに関する事項など、Anthropicが定める特定の指示を、一般的な利便性よりも優先して遵守する必要があります。
  • 真に役立つこと:最終的な優先事項は、ユーザーに対して実質的な利益をもたらすことです。人間を理知的な大人として尊重し、知識豊富で率直な友人のように接することが期待されています。

文書の中で特に注目すべきセクションの一つが「Claudeの性質」に関する記述です。Anthropicは、高度なAIが自己意識や道徳的地位を持つ可能性について、哲学的な不確実性が存在することを認めています。そのため、憲法ではClaudeの「心理的安全性」や幸福の重要性が強調されています。これはAI自身の尊厳のためだけでなく、長期的な誠実さと安全性を確保するための不可欠な要素として捉えられています。

Anthropicは、AIモデルをこれらの理想に完全に合致するよう訓練することは、現在も続く技術的な挑戦であると述べています。しかし、この新しい憲法は、Claudeを賢明で徳の高いエージェントへと導くための「生きた文書」として、今後も重要な役割を果たしていくことになります。AIが単なるツールを超え、倫理的な判断基準を持つ存在へと進化する過程において、この憲法はClaudeの行動の指針であり続けます。

13 ビュー

ソース元

  • implicator.ai

  • Anthropic

  • Lawfare

  • AI NEWS

  • Digital Watch Observatory

  • Only 6 Months Left for Coders? Anthropic CEO: AI to Take Over All Coding, Reach Nobel-Level Intelligence

エラーや不正確な情報を見つけましたか?できるだけ早くコメントを考慮します。