全文 | ホワイトハウスは AI 企業 7 社を招集し、人工知能への自主的な取り組みを発表

記事の出典: Alpha Rabbit Research Notes

2023 年 7 月 21 日、ホワイトハウスの発表によると、ジョー バイデン米国大統領は 7 月 21 日にホワイトハウスに主要な人工知能企業 7 社 (Amazon、Anthropic、Google、Inflection、Meta、Microsoft、OpenAI) を招集し、これらの企業が人工知能技術の安全、信頼性、透明性の高い開発の実現を支援することに自発的に取り組んでいることを発表しました。この記事は OpenAI の公式 Web サイトからのものであり、主な内容はホワイトハウスの Web サイトと一致しています**。 **

全文

人工知能のテクノロジーとサービスの安全性、セキュリティ、信頼性を強化するために、OpenAI およびその他の主要な人工知能研究所は自主的な取り組みを行っています。 **この取り組みは主にホワイトハウスによって調整されており、米国および世界中で有意義かつ効果的な AI ガバナンスを推進するための重要なステップです。 **

安全で有益な AI を構築するという使命を追求するため、OpenAI は、OpenAI のような運用可能な基本モデルに合わせた特定のガバナンス実践の試験運用と改良を継続します。さらに、OpenAI は、人工知能モデルの潜在的な危険性を評価する技術の開発など、規制への情報提供に役立つ研究分野への投資を継続します。

*「世界中の政策立案者が、高度な能力を備えた AI システムを対象とした新しい法律を検討しています。本日の私たちのコミットメントは、進行中の議論への具体的な実践に貢献します。この発表は、AI ガバナンスを推進するための OpenAI の世界中の政府、市民社会団体、その他の組織との継続的な協力の一環です」と OpenAI のグローバル アフェアーズ担当バイスプレジデント、アンナ・マカンジュ氏は述べています。 *

自主的な AI への取り組み

以下の自主的な取り組みのリストは、もともとホワイトハウスによって発表されたものです。

以下は、人工知能技術の安全、信頼性、透明性の高い開発と応用を促進するために企業が行った取り組みのリストです。以下の取り組みは、既存の法律や規制と一致しており、人工知能の法制度および政策システムの健全性を促進するように設計されています。各企業は、関連する法律、規制、制度が施行されるまで、以下の自主的な約束を履行します。また、一部の企業は、この約束を超える他の約束を行う場合があります。

範囲: このコミットメントで言及されている特定のモデルは、現在の業界フロンティアよりも強力な生成 AI モデル (例: 画像生成用の GPT-4、Claude 2、PaLM 2、Titan、DALL-E 2 など、現在リリースされているモデルよりも強力なモデル) にのみ適用されます。

注: セキュリティは意図的な (人為的な) 脅威に対応し、セーフティは AI システム自体の脆弱性や予期せぬ結果に対応します。ここで、AI セーフティは機能安全に対応し、AI セキュリティは AI 情報セキュリティに対応します

安全性 (機能安全に重点を置く)

**1) 悪用、社会的リスク、国家安全保障上の懸念 (例: 生物学、サイバー、その他のセキュリティ領域) に関して、モデルとシステムを社内外で再評価するという取り組み。 **

これらの取り組みに関与している企業は、最終製品の構築、AI に対する国民の信頼の確保、重大な国家安全保障の脅威からの防御には、強力なレッド チーム テストが不可欠であることを理解しています。 レッドチームテストを含むモデルの安全性と能力の評価は、科学的探査のオープン領域であり、さらなる作業が必要です。企業は、この分野の研究を進め、対象となるすべての新モデルの主要な公開リリースに向けて、多面的で専門的かつ詳細なレッドチームのテスト体制を開発することに取り組んでいます。これには、独立したドメイン専門家からの意見も含まれます。システムを設計するときは、次の点に高い優先順位が与えられるようにしてください。

  • 生物学的、化学的、放射線学的リスク(システムが兵器の開発、設計、取得、使用の参入障壁をどのように軽減するかなど)
  • サイバーセキュリティ機能 (システムが脆弱性の発見、悪用、運用を支援する方法など) は、モデルの機能を考慮する必要があり、有用な防御用途もあるため、システムに組み込むのに適しています。
  • 物理システムを制御する機能を含む、システムの相互作用とツールの使用の影響
  • モデル自体を複製する、または「自己複製」するモデルの機能 ※偏見や差別などの社会的リスク

上記の作業を支援するために、参加企業は、AI システムの意思決定プロセスの説明可能性や悪用に対する AI システムの堅牢性の向上など、継続的な AI セキュリティ研究を推進します。同様に、企業は透明性レポートでレッドチームとセキュリティプログラムのテストを公表することを約束します。

2) 企業と政府の間で、信頼と安全性のリスク、AI の危険性や新たな機能、および安全対策の回避の試みに関する情報を共有することに努めます

この取り組みに参加する企業は、レッドチームのテストと AI の信頼性と安全性の促進のための情報共有、共通基準、ベスト プラクティスの重要性を認識する必要があります。 **お客様は、NIST AI リスク管理フレームワークや、レッド チームのテスト、安全性、社会的リスクに関連する将来の標準など、最先端の AI 安全性に関する共有標準とベスト プラクティスの開発、推進、採用に参加するためのフォーラムまたはメカニズムを確立または参加することを約束します。 **フロンティア能力の進歩や、セーフガード回避の試みなどの新たなリスクや脅威に関する情報の共有を促進し、重点重点分野に関する技術作業グループの開発を促進するフォーラムまたはメカニズム。この取り組みにおいて、当社は必要に応じて、米国政府を含む政府、市民社会、学術界と緊密に連携していきます。

セキュリティ/ネットワークセキュリティ (情報セキュリティを中心としたセキュリティ)

3) 独自のモデルや未公開のモデルを保護するために、サイバーセキュリティ防御と内部関係者の脅威に対する保護策に投資します

コミットメントに参加する企業は、特にサイバーセキュリティと内部関係者による脅威のリスクに関して、対象範囲内のモデルの未公開の AI モデルの重みを自社のビジネスの中核的な知的財産として考慮する必要があります。これには、モデルの重みへのアクセスを職務上必要な人物のみに制限すること、最も貴重な知的財産と企業秘密の保護と一致する堅牢なインサイダー脅威検出プログラムを確立することが含まれます。さらに、分銅は、不正配布のリスクを軽減するために、適切な安全な環境で保管および使用する必要があります。

4) 第三者が問題や脆弱性を発見して報告するよう奨励します

この取り組みを行う企業は、強力な「レッドチームテスト」の後でも AI システムが依然として脆弱である可能性があることを認識しており、安全でない動作などの脆弱性の責任ある開示を奨励するために、報奨金システム、コンテスト、賞品の範囲内でシステムに対する報奨金を設定すること、または AI システムを企業の既存のバグ報奨金プログラムに組み込むことを約束します。

## 信頼

**5) AI によって生成されたオーディオまたはビデオ コンテンツの場合、信頼性の高い帰属、透かし、またはその両方を含め、ユーザーがオーディオまたはビデオ コンテンツが AI によって生成されたかどうかを理解できるようにするために、新しいメカニズムを開発および展開する必要があります。 **

この取り組みに参加している企業は、オーディオ コンテンツまたはビデオ コンテンツが人工知能によって生成されたものであるかどうかを人々が知ることができるようにすることの重要性を認識しています。これを達成するために、企業は、開発完了後に、公開されているシステムによって作成されたオーディオまたはビデオ コンテンツの帰属および/または透かしシステムを提供するために、導入される範囲を含む堅牢なメカニズムを開発することに同意します。また、特定のコンテンツが自社のシステムによって作成されたかどうかを判断するツールや API も開発します。現実と容易に区別できる視聴覚コンテンツ、または会社の人工知能システムによって生成されたものとして容易に認識できるように設計された視聴覚コンテンツ (人工知能アシスタントのデフォルトの音声など) は、このコミットメントの対象にはなりません。

ウォーターマークまたは属性データには、コンテンツを作成したサービスまたはモデルの識別子が含まれている必要がありますが、ユーザーを特定できる情報を含める必要はありません。より広範には、この誓約を行っている企業は、同業者や標準設定団体と協力して、ユーザーが生成したオーディオまたはビデオ コンテンツと AI が生成したオーディオまたはビデオ コンテンツを区別できるようにする技術的フレームワークを開発することを誓約します。

**6) 公平性や偏見への影響などの社会的リスクについての議論を含め、モデルやシステムの機能、限界、および適切な使用と不適切な使用の領域について公的に報告する。 **

誓約に参加する企業は、ユーザーが使用または対話する AI システムの既知の機能と制限を認識する必要があることを認識する必要があります。企業は、対象となるすべての重要な新モデルのリリース レポートを公開する必要があります。これらのレポートには、実行されたセキュリティ評価 (危険な機能などの分野も含まれますが、これらの評価は公開の対象となります)、適切な使用の領域に影響を与えるパフォーマンスの重大な制限、公平性や偏見などの社会的リスクに対するモデルの影響に関する議論、モデルの展開の適合性を評価するために実施された敵対的テストの結果が含まれる必要があります。

**7) 有害な偏見や差別の回避、プライバシーの保護など、AI システムによってもたらされる社会的リスクに関する研究を優先します。 **

この誓約に参加する企業は、AI システムによる有害な偏見や差別の蔓延を防ぐ重要性を認識する必要があります。企業は通常、信頼と安全のチームを強化し、AI の安全性研究を推進し、プライバシーを促進し、子供を保護し、最終的な利益を得るために AI のリスクを積極的に管理するよう努めます。

8) 社会の最大の課題への対処を支援する最先端の AI システムを開発および導入する

この誓約に参加する企業は、気候変動の緩和と適応、がんの早期発見と予防、サイバー脅威との闘いなど、社会の最大の課題に対処するための最先端の人工知能システムの研究開発を支援することに同意する必要がある。企業はまた、AIのメリットを享受できるよう学生や職員の教育と訓練を推進し、国民がAI技術の性質、能力、限界、影響を理解できるよう支援する取り組みを支援することも約束した。

参考: AI ガバナンスの前進 (openai.com)

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)