①OpenAI o1モデル(「ストロベリー」大モデル)は、人工知能が複雑な推論タスクの領域で新たなレベルに達することを示しています。②AIモデルの動作方法を変更することで、新しいモデルは回答の品質を効果的に向上させ、同時にいくつかのメカニズム上の欠陥を回避することができます。③OpenAIは、o1プレビューバージョンとo1 miniの2つのモデルを初めて発表しました。
財聯社9月13日訊(編集 史正丞)北京時間の金曜日の午前1時ごろ、AI時代は新たなスタートを迎えます-一般的な複雑な推論が可能な大きなモデルがついに前に出てきました。
OpenAIは、公式サイトでお知らせし、すべてのサブスクライバーにOpenAI o1プレビューモデル(「ストロベリー」大モデル)を配信することを開始しました。OpenAIは、複雑な推論タスクにおいて、新しいモデルは人工知能の能力の新たなレベルを表しているため、そのためにカウントを1にリセットし、「GPT-4」シリーズとは異なる新しい名前を付ける価値があると述べています。
大規模モデルの特徴は、AIが回答する前により多くの時間を考えるということであり、まるで人間が問題を解決するために考えるプロセスのようです。従来の大規模モデルでは、背後にある論理は、大量のデータセットからパターンを学習して単語生成のシーケンスを予測することであり、厳密には質問を理解することではありません。
認知能力は「理科博士課程の水準」に到達するでしょう
2023年にリリースされたGPT-4は、高校生の知能レベルと似ていますが、GPT-5はAIが「高校生から博士」に成長するのを完了するものです。このo1モデルはその重要な一歩です。
GPT-4oなどの既存の大規模モデルと比較して、OpenAI o1はより困難な推論問題を解決でき、かつ過去のモデルのメカニズム上の欠陥を改善することができます。
例えば、この新しいモデルは、strawberryの中に実際にいくつの「r」があるのかを数えることができます。
また、コーディングの問題に関するAIの回答は、より整理されたものになります。コードを書く前に、回答の流れを完全に考えてからコードを出力することです。
例えば、予定された条件に基づいての詩作業(例えば、2番目の行の最後の単語は「i」で終わる必要がある)では、「ペンを取って書けばいい」というGPT-4oでは回答は出るかもしれませんが、通常は一部の条件を満たすだけであり、自己修正はしません。これは、AIが最初に生成するときに正しい答えに出会う必要があることを意味します。そうでなければ、間違いが起こる可能性があります。しかし、o1モデルでは、AIは継続的に試行錯誤を行い、答えを磨くことで、生成結果の精度と品質を大幅に向上させます。
興味深いことに、AIの思考プロセスを開くと、「この問題について考えてみてもいいですか?」、「ああ、時間がないので早く答えを出さなければなりません」というAIの表現も出てきます。OpenAIは、ここで表示されているのは「生成モデルの要約」であり、企業も「競争上の優位性を保持する」要因があることを率直に認めています。
OpenAIの研究責任者であるJerry Tworek氏によれば、o1モデルのトレーニングは、以前の製品と根本的に異なります。以前のGPTモデルは、トレーニングデータ内のパターンを模倣することを目的としていましたが、o1のトレーニングは問題を独自に解決することを目指しています。強化学習の過程では、報酬とペナルティのメカニズムを使用して、AIに「思考プロセス」を使用して問題を処理することを「教育」することが行われます。これは人間が問題を分解し分析する方法を学ぶことと同様です。
テストによると、o1モデルは国際数学オリンピックの資格試験において83%のスコアを獲得することができ、一方GPT-4oは13%の問題を正しく解決することができます。また、プログラミング競技大会Codeforcesでは、o1モデルは89%パーセンタイル以上の成績を収める一方、GPT-4oは11%しかありません。
(図で示されているように、o1モデルのプレビューバージョンの能力は正式版よりも低いです)
OpenAIによると、次のアップデートのバージョンでは物理、化学、生物学のチャレンジングなベンチマークテストで、AIのパフォーマンスが博士レベルに近いと表れています。
その欠点と制約について話しましょう
自分で問題を考えることができるAIモデルは、プログラマーやクリエイティブな作業者、およびほとんどの理系関連の専門家にとって有益なアップグレードだと理解するのは難しくありませんが、この新しいモデルには制約があります。
まず第一に、OpenAI o1モデルはまだ多モードの大規模モデルではなく、また事実性の質問に答える点でも他のモデルには及びません。そのため、画像対話、一般常識の質問、インターネット検索などでは、GPT-4oの方がまだ優れています。もちろん、OpenAIは将来的にこのモデルにネットワーク連携、ファイルのアップロード、画像検索などの機能を追加する予定です。
もう一つの問題は価格であり、非常に高額です。o1-previewモデルの価格は、100万の入力トークンごとに15ドル、100万の出力トークンごとに60ドルであり、それぞれGPT-4oの3倍と4倍です。100万のトークンはおおよそ75万の英単語に相当します。
o1-プレビューモデルの他に、OpenAIはo1-miniモデルも同時にリリースしました。o1-miniはより速く、より安価なモデルであり、価格も80%オフになり、広範な世界知識を必要としないシナリオに適しています。
また、OpenAIの動きから判断すると、この推論モデルは非常に計算リソースを消費する恐れがあります。同社は、9月12日からChatGPTサブスクリプションユーザーにこれら2つの新しいモデルへのアクセスを提供しますが、現時点ではo1-previewは週に30回のメッセージ数の制限があり、o1-miniは50回の制限があります。
企業向けChatGPTおよび教育ユーザーは来週からこれら2つのモデルにアクセスできます。API使用レベルが5レベルに達する開発者は、これら2つのモデルをすぐに使用でき、1分あたりの速度制限は20回です。OpenAIは将来的にo1-miniモデルを無料ユーザーに提供する予定ですが、現時点ではスケジュールがありません。
編集/Somer