アントロピック、公共の安全と責任あるAI開発に焦点を当てたAI透明性フレームワークを発表
簡単に言えば Anthropic は、最大規模の最先端 AI 開発者を対象とした柔軟な透明性フレームワークをリリースし、急速な技術進歩の中で、責任ある、安全で説明責任のある AI 開発をサポートするための開示基準と安全プロトコルを提案しています。
安全性と整合性に重点を置いたAI研究組織、 人間原理 連邦、州、または国際レベルでの適用を目的とした、透明性に関するフレームワークを公開しました。このフレームワークは、最先端のAIシステムとその開発者向けに特別に設計されており、 defi安全プロトコルに関連する開示の期待。
同団体は、最先端のAI開発における透明性の向上は、公共の安全を守り、高度なAI技術の開発者の説明責任を確保する上で不可欠であると強調しています。急速な進歩を踏まえ、Anthropicは、政府、学界、産業界による安全基準と評価メカニズムのより広範な確立には時間がかかるかもしれないものの、強力なAIシステムの安全かつ責任ある開発を支援するための暫定的な措置が必要であると指摘しています。
この枠組みは意図的に非規範的であり、AI研究が急速に進化しているという認識を反映しています。同組織によれば、いかなる規制戦略も適応性を保ち、医療研究、公共サービスの効率化、国家安全保障といった分野における進歩を阻害するものであってはなりません。また、アントロピックは、特に現在の評価手法は継続的な技術変化によって短期間で時代遅れになることが多いため、過度に厳格な規制はイノベーションを阻害する可能性があると警告しています。
AIの透明性のための標準の確立:最大規模のモデル開発者と安全な開発フレームワークに焦点を当てる
人間原理 AI透明性政策の策定を支援するための一連の基本原則を提示しました。これらの提案された基準は、特に最大規模の最先端のAIモデル開発者に適用できるよう設計されています。defiAIセクター全体を広く対象とするのではなく、コンピューティングリソース、評価パフォーマンス、研究開発投資、年間売上高といった基準に基づいて、AI規制の適用範囲を限定する。このアプローチは、国家安全保障や壊滅的なリスクをもたらす可能性が低いモデルを開発する小規模な開発者やスタートアップ企業が、同程度の規制負担を負わないようにすることを目的としています。推奨される閾値の例としては、年間売上高約100億ドル、または研究開発費および設備投資額が1億ドル近くなどが挙げられますが、これらの数値は精緻化の余地があり、分野の発展に合わせて定期的に見直されるべきです。
提案されたフレームワークのもう一つの重要な要素は、対象となる開発者がセキュア開発フレームワークを維持することを義務付けることです。この内部構造は、化学兵器、生物兵器、放射線兵器、核兵器の悪用に関連する脅威、および自律モデルの不整合によるリスクなど、高度なAIモデルに関連するリスクを特定し、軽減するための手順を概説するものです。これらのフレームワークはまだ開発段階であるため、実装には柔軟性が求められます。
アントロピックはさらに、各開発者のセキュア開発フレームワークを、機密性の高いコンテンツを適切に編集した上で、企業が管理する公開ウェブサイトを通じて公開することを推奨しています。この透明性により、研究者、政府、市民社会などの外部ステークホルダーは、AIモデルの導入状況を追跡できるようになります。企業は、公開されたフレームワークへの準拠を自己証明することが期待されます。
さらに、開発者は、テスト手順、評価結果、および適用された緩和策の概要を記載したシステムカードまたは同等のドキュメントを公開する必要があります。この情報は、公衆またはモデルの安全性が損なわれる可能性がある場合は編集される可能性がありますが、モデルの展開時に共有し、モデルの変更後には更新する必要があります。
アントロピックは、法執行を支援するため、開発者がフレームワークへの準拠を故意に虚偽表示することを違法とする法的規定を提案しています。この措置は、既存の内部告発者保護制度を有効化し、意図的な不遵守事例に法的リソースが集中することを確実にすることを目的としています。
全体として、同組織は、AI透明性ポリシーは、適応性の高い最低限の基準から始めるべきだと主張しています。AI安全性研究は急速に進化しているため、このフレームワークは、産業界、政府、学術界の関係者によって生み出される新たな知見や新たなベストプラクティスに応じて進化するように設計されるべきです。
この提案された透明性モデルは、業界における安全関連のベストプラクティスを強調し、高度なAIモデルを責任を持って訓練する方法の基盤を確立します。開発者が最低限の説明責任基準を遵守することを保証すると同時に、一般の人々や政策立案者が責任ある開発アプローチと過失のある開発アプローチの違いを識別できるようにすることを目的としています。説明されているセキュア開発フレームワークの概念は、Anthropic、Google DeepMindなどの組織が既に使用しているポリシーに匹敵します。 OpenAI、マイクロソフトなど、いずれもフロンティアモデルの展開時に同様の戦略を採用しています。
セキュア開発フレームワークの開示要件を法律に組み込むことで、こうした業界慣行を過度に硬直化させることなく、正式なものとすることができます。また、現在は任意となっているこうした透明性確保のための措置が、特にAIの能力が進化し続ける中で、長期的に維持されることも保証されます。
免責事項:本記事の内容はあくまでも筆者の意見を反映したものであり、いかなる立場においても当プラットフォームを代表するものではありません。また、本記事は投資判断の参考となることを目的としたものではありません。
こちらもいかがですか?
先物取引と取引BotにTANSSIUSDTが登場
先物取引と取引BotにMUSDTが登場
[新規上場] RCADE Network(RCADE)がBitget Launchpoolに登場!参加して124,440,000 RCADEの山分けを獲得しよう
先物取引と取引BotにCROSSUSDTが登場
暗号資産価格
もっと見る








