米国のAI安全研究所は、OpenAIとAnthropicの新しいAIモデルに対して安全評価を行い、技術の進歩が社会的なリスクをもたらさないようにするためのものです。この研究所は2023年に設立され、バイデン・ハリス政権の行政命令の一環として、責任あるAIイノベーションを推進することを目的としています。OpenAIとAnthropicのトップリーダーは協力に支持を表明し、AIの開発における安全の重要性を強調しています。
米東部時間8月29日木曜日、報道によると、AIのリーディングカンパニーであるOpenAIとAnthropicは、新しいAIモデルのリリース前に、米国政府のAI安全研究所によるこれらのモデルの能力と潜在的なリスクの評価を受けることで合意し、潜在的な安全上の問題を軽減する方法を共同で研究し、これらのAI技術が社会に負の影響を与えないようにすることを確保します。
米国のAI安全研究所は、2023年にバイデン・ハリス政権のAIに関する行政命令の下で設立されました。この研究所の任務は、責任あるAIの開発を確保するために、テスト、評価、ガイドラインの開発を行うことです。さらに、米国商務省の国立標準技術研究所(NIST)が木曜日に発表した合意に基づき、アメリカ政府は英国のAI安全研究所と密接に協力し、これらのAI企業にフィードバックを提供して安全対策の改善を支援します。
米国のAI安全研究所所長エリザベス・ケリーは、このように述べています:
「安全は画期的な技術イノベーションを推進するために不可欠です。これらの合意はまだ始まりに過ぎませんが、AIの将来的な発展を責任ある形でリードする上で重要な意味を持っています。」
OpenAIの最高戦略責任者ジェイソン・クォンは、この協力に対して支持を表明しています:
「米国のAI安全研究所の使命を強く支持しており、AIモデルの安全なベストプラクティスと基準を共同で策定することを楽しみにしています。この研究所が責任あるAI開発における米国のリーダーシップの重要な役割を果たすと信じています。研究所との協力を通じて、グローバルな枠組みを提供できることを期待しています。」
Anthropic社もAIモデルの効果的なテスト能力の確立は非常に重要だと述べています。同社の共同創設者兼ポリシーディレクターのジャック・クラークは次のように語っています:
AIの安全性と信頼性を確保することは、この技術が積極的な影響をもたらすために非常に重要です。このようなテストと協力により、AIがもたらすリスクをより良く発見し減らすことができ、責任あるAIの発展を促進できます。私たちはこの重要な仕事に参加できることを誇りに思っており、AIの安全性と信頼性のために新たな基準を確立することを望んでいます。
また、Microsoftが支援するOpenAI社は、新たな資金調達の準備をしており、目標は少なくとも10億ドルを集めることです。これにより、同社の評価額は1000億ドルを超えます。Microsoftは2019年以来、OpenAIに130億ドルを投資し、現在は同社の利益の49%を持っています。
新たな資金調達に関するニュースは、OpenAIが新機能のSearchGPTをテストしていることを明らかにした約1か月後に報じられました。この新機能はAI技術とリアルタイムの検索データを組み合わせており、ChatGPTは将来的には質問に答えるだけでなく、オンラインで答えを見つけるのにも役立つかもしれません。