やっとGPTの状態が明確になりました!
$マイクロソフト(MSFT.US$今日からアンドレイ・カルパシ氏のプレゼンテーションを観ながらTwitterのノートを取って、一緒に楽しみましょう。
アンドレイ・カルパシ氏はステージから始めます:
1 - プレトレーニング - 数ヶ月x何千ものGPU
2、3、4 - 数時間または数日かかるファインチューニングステージ
アンドレイ・カルパシ氏はステージから始めます:
1 - プレトレーニング - 数ヶ月x何千ものGPU
2、3、4 - 数時間または数日かかるファインチューニングステージ
![やっとGPTの状態が明確になりました!](https://ussnsimg.moomoo.com/feed_image/70042970/52ad3df785313bbd92fca556fd35c37b.png/bigmoo)
プレトレーニング開始前には、2つの準備ステップがあります。
データ収集 - 異なるソースから大量のデータを取得します(ここではAndrej LLaMaの混合)。
トークナイズ - 語句を整数に変換する、損失のない変換。
データ収集 - 異なるソースから大量のデータを取得します(ここではAndrej LLaMaの混合)。
トークナイズ - 語句を整数に変換する、損失のない変換。
![やっとGPTの状態が明確になりました!](https://ussnsimg.moomoo.com/feed_image/70042970/adba1c9051ac3b6bb2f9fbb2d4b9464f.jpg/bigmoo)
![やっとGPTの状態が明確になりました!](https://ussnsimg.moomoo.com/feed_image/70042970/a2e1fc15dd2036ea9a3d9c18597c8e82.jpg/bigmoo)
「モデルに含まれるパラメータの数だけで、モデルのパワーを判断するべきではありません」
LLaMaは1兆-1.4兆トークンに対して、GPT-3は300Bトークンに対してトレーニングされました。
LLaMaは1兆-1.4兆トークンに対して、GPT-3は300Bトークンに対してトレーニングされました。
![やっとGPTの状態が明確になりました!](https://ussnsimg.moomoo.com/feed_image/70042970/f575e01816c738b1bf9b45efc29669ab.jpg/bigmoo)
「残念ながらトランスフォーマーの仕組みについて詳しく説明する時間がありません」
アンドレイ氏が教育に情熱を持っていることが大好きです!
正直に言って、これをツイートにまとめることはできません。
正直に言って、これをツイートにまとめることはできません。
![やっとGPTの状態が明確になりました!](https://ussnsimg.moomoo.com/feed_image/70042970/f48b60f2d42338d188cd08ea3ed29d32.jpg/bigmoo)
こちらはニューヨーク・タイムズの例で、シェイクスピアに基づいたGPTモデルを訓練しました。
多くの反復を経てLMがシェイクスピアテキストの次にどの単語が来るかをより正確に予測するようになっていることがわかります。
多くの反復を経てLMがシェイクスピアテキストの次にどの単語が来るかをより正確に予測するようになっていることがわかります。
![やっとGPTの状態が明確になりました!](https://ussnsimg.moomoo.com/feed_image/70042970/b1a4c1ddde5c335482f0fa7d6cb64be6.jpg/bigmoo)
率直に言って、ここでは大幅に言い換えますが、各反復で、トレーニングモデルは次のトークン/整数が緑のトークンの次に来るかを予測しようとします。このトレーニング曲線で予測がどの程度元のテキストと一致するかが明らかに示されています。
GPT-2以降、業種では、プロンプトを特定の方法で構成し、いくつかの例(Few Shot prompting)を提供すると、ベースモデルはプロンプトで提供された指示を自動完了するように"騙される"ことがわかりました。
![やっとGPTの状態が明確になりました!](https://ussnsimg.moomoo.com/feed_image/70042970/e176ab7777553d9c8453e9f73c64e3ec.jpg/bigmoo)
Andresさんはこれを何度も繰り返し、現在はLLaMaを使用するのが最善であるとされている最高のオープンソースモデルは、AIです(OAIはGPT-4について何もリリースしていません)。
$メタ プラットフォームズ A(META.US$GPT-2-リリース+重み
GPT-3- APIを介してベースモデルが利用可能(da-vinci)
GPT-4- APIを介して利用可能ではない
ベースモデルは助手ではなく、基本的な意味であなたが求めることはできません。ただの自動完了テキストです。
$メタ プラットフォームズ A(META.US$GPT-2-リリース+重み
GPT-3- APIを介してベースモデルが利用可能(da-vinci)
GPT-4- APIを介して利用可能ではない
ベースモデルは助手ではなく、基本的な意味であなたが求めることはできません。ただの自動完了テキストです。
![やっとGPTの状態が明確になりました!](https://ussnsimg.moomoo.com/feed_image/70042970/3bafd4903eef34c398114cf23c3d242a.jpg/bigmoo)
でも少しの Few-shot プロンプトを使ってドキュメントの構造を構成すると、ベースモデルは人工知能と人間の間のチャットとして自動完了するように"騙され"るようになります。
しかし、このトリックだけでは不十分です。ですから、ステップ2に移ります。
しかし、このトリックだけでは不十分です。ですから、ステップ2に移ります。
![やっとGPTの状態が明確になりました!](https://ussnsimg.moomoo.com/feed_image/70042970/e0b5e4b74e083d2a82ca8525d06ef8b0.jpg/bigmoo)
教師付きのファインチューニングです。
指示の小規模だが高品質な(人間の請負業者を思い浮かべてください)データセットを収集し、交換用のデータセットでモデルのトレーニングを継続します。そうすることで、SFT(教師付きファインチューニング)モデルを得ることができます。
SFTモデルは...まだグッと言えるレベルではなく、決してchatgptの品質ではありません。ですから、トレーニングは続きます。
SFTモデルの質問と回答を生成し、ユーザーが3つのバージョンを比較して最高のものをランク付けし、モデルがユーザーによって選択された選択肢で再トレーニングされるようになっています。
指示の小規模だが高品質な(人間の請負業者を思い浮かべてください)データセットを収集し、交換用のデータセットでモデルのトレーニングを継続します。そうすることで、SFT(教師付きファインチューニング)モデルを得ることができます。
SFTモデルは...まだグッと言えるレベルではなく、決してchatgptの品質ではありません。ですから、トレーニングは続きます。
SFTモデルの質問と回答を生成し、ユーザーが3つのバージョンを比較して最高のものをランク付けし、モデルがユーザーによって選択された選択肢で再トレーニングされるようになっています。
![やっとGPTの状態が明確になりました!](https://ussnsimg.moomoo.com/feed_image/70042970/0cf99360dbb93063987bc41739295ea3.jpg/bigmoo)
これは、より優れた投票された応答を重んじることで実現されます。たとえば、あなたが打つと
3つのバージョンを生成し、ユーザーがそれらを比較してランク付けして、モデルに選択肢をトレーニングさせるように求めます。
3つのバージョンを生成し、ユーザーがそれらを比較してランク付けして、モデルに選択肢をトレーニングさせるように求めます。
![やっとGPTの状態が明確になりました!](https://ussnsimg.moomoo.com/feed_image/70042970/48ca524119d03d538df07da1b7c3eb38.jpg/bigmoo)
、それらを比較してランク付けし、選択肢をモデルにトレーニングさせます。
エクイティまたはその他に投資する多くの人々がカナダ市場からの配当を求めていますが、なぜ$HDIVがより注目されないのでしょうか?比較すると、他の2つを圧倒し、月単位でより多くのキャッシュを支払うため、再投資するか、月額で使用するかを決定することができます。あなたもそうですか?
chatgpt関連では、応答を再生成することができますが、それらの信号はRLHFにとって非常に良いです。
Andrejは、RLHFモデルが私たちにとって"感じ"が良い理由について説明しています。少なくとも、良いアシスタントである点に関しては。
もしこのまま読み続ける方がいらっしゃったら、私はこのビデオを紹介します。![]()
もしこのまま読み続ける方がいらっしゃったら、私はこのビデオを紹介します。
興味深いことに、AndrejはRLHFについて、ベースモデルよりも改良されているわけではないと話しています。RLHFモデルはエントロピーが少ないため、より"発明的"になる可能性があります。
そのため、基本モデルの方がまだ優れているため、それらはまだ混沌としています。
そのため、基本モデルの方がまだ優れているため、それらはまだ混沌としています。
![やっとGPTの状態が明確になりました!](https://ussnsimg.moomoo.com/feed_image/70042970/b7eb2b7e56a93a0ea4f9906d6f985b52.jpg/bigmoo)
これは、ランキングに基づいてバークレー大学の人々によってランク付けされたモデルの現在の状態です。
興味深いことに、karpathyはGPT-4が遥かに最高であると言っていますが、表では、Claudeの1224 ELOレーティングに対して1274であり、「遥かに」とは思えません。
興味深いことに、karpathyはGPT-4が遥かに最高であると言っていますが、表では、Claudeの1224 ELOレーティングに対して1274であり、「遥かに」とは思えません。
![やっとGPTの状態が明確になりました!](https://ussnsimg.moomoo.com/feed_image/70042970/f4ddec1d0390338095756b7f0f121be2.jpg/bigmoo)
RLHFモデルはより優れており、上位3つ全てがRLHFモデルで、残り(彼の知る限り)はSFTモデルです。
やったね!講義の前半が終わりました。これらのモデルの問題へのアプリケーションに移ります。
やったね!講義の前半が終わりました。これらのモデルの問題へのアプリケーションに移ります。
![やっとGPTの状態が明確になりました!](https://ussnsimg.moomoo.com/feed_image/70042970/d3ee90c7439c3789993250db246acc15.jpg/bigmoo)
そして、Andejは、人間がステートメントを書くプロセスとの違いについてかなり深く掘り下げています。
"カリフォルニアの人口は、アラスカの53倍です"
人間の脳は、ループ処理、事実チェック、計算、反省を経ています。
"カリフォルニアの人口は、アラスカの53倍です"
人間の脳は、ループ処理、事実チェック、計算、反省を経ています。
![やっとGPTの状態が明確になりました!](https://ussnsimg.moomoo.com/feed_image/70042970/dc0d6320e4183480bbfd6ee833cb5f27.png/bigmoo)
一方、GPTはオートコンプリートをしようとしていますが、内部的には対話はありません。
トークンごとに、数字を見つける必要があるか、確認する必要があるファクトであるかに関係なく、同じ"コンピュート"を費やしていますが、彼らは広範な知識と完璧な記憶(コンテキストウィンドウ)を持っています。
トークンごとに、数字を見つける必要があるか、確認する必要があるファクトであるかに関係なく、同じ"コンピュート"を費やしていますが、彼らは広範な知識と完璧な記憶(コンテキストウィンドウ)を持っています。
![やっとGPTの状態が明確になりました!](https://ussnsimg.moomoo.com/feed_image/70042970/0c7149076bf73a5ba21a8a3f1a0da622.png/bigmoo)
一連の考えのような方法は、ステップバイステップで考えて"より多くのトークン"、"より多くの考える時間"を提供することによって、モデルに提供されます。
これにより、モデルは自分の作業を示し、より良い答えを得るために"考える時間"を与えられます。
これにより、モデルは自分の作業を示し、より良い答えを得るために"考える時間"を与えられます。
![やっとGPTの状態が明確になりました!](https://ussnsimg.moomoo.com/feed_image/70042970/585655af0d713b37a1b9f68e8d6d5a8b.png/bigmoo)
今、Andrejは自己反省を方法の1つとして説明しています。
モデルは既にサンプリングしたトークンをキャンセルする方法がないため、"引っかかって"しまうことがあります。
間違った単語を言って途中で止めて、「言い換えよう」と言う場合を想像してみてください。
モデルは既にサンプリングしたトークンをキャンセルする方法がないため、"引っかかって"しまうことがあります。
間違った単語を言って途中で止めて、「言い換えよう」と言う場合を想像してみてください。
モデルにはそのような贅沢はないため、間違った道へと進むことがあります...
ただし、セルフリフレクションのような例では、モデルに出力内容をレビューし、それを評価するよう求めることによって、モデルには出力の推論をもう一度行う「セカンドチャンス」が与えられ、結果が改善されます!
ただし、セルフリフレクションのような例では、モデルに出力内容をレビューし、それを評価するよう求めることによって、モデルには出力の推論をもう一度行う「セカンドチャンス」が与えられ、結果が改善されます!
![やっとGPTの状態が明確になりました!](https://ussnsimg.moomoo.com/feed_image/70042970/f4a3834ea20b30418e580f7cc82b1e93.png/bigmoo)
アンドレイは、システム1とシステム2の思考モデルを用いたThinking Fast and SlowをLLMsに使用することが大好きです。
CoT、セルフリフレクション、そして最近リリースされたTree of thoughtのようなこれらの技術は、よりゆっくりと、より慎重な考えをするシステム2を構築する試みです。
CoT、セルフリフレクション、そして最近リリースされたTree of thoughtのようなこれらの技術は、よりゆっくりと、より慎重な考えをするシステム2を構築する試みです。
![やっとGPTの状態が明確になりました!](https://ussnsimg.moomoo.com/feed_image/70042970/5da8fc2e508d39c8806e816fff30c105.png/bigmoo)
免責事項:このコミュニティは、Moomoo Technologies Inc.が教育目的でのみ提供するものです。
さらに詳しい情報
コメント
サインインコメントをする