share_log

微软CTO:AI大模型的“Scaling Law”还能走多远?

マイクロソフトのCTO:AIの大規模モデルの「Scaling Law」はまだどこまで進むのか?

wallstreetcn ·  07/11 04:10

本文作者:李笑寅

出典:ハードAI

AI時代、大規模言語モデル(Large Language Model, LLM)が蔓延しています。

既に2020年に、OpenAIは論文の中で「スケーリング則」という法則を提唱しました。この法則は、大規模なモデルの最終的な性能は、計算量、モデルのパラメータ数、トレーニングデータ量の大きさと主に関連しており、モデルの具体的な構造(層数/深さ/幅)とはほとんど関係ありません。

その後、AI界ではOpenAIが好調で、多くのスタートアップ企業や科学技術巨大企業がこの法則を信条としています。

AI技術の発展に伴い、Scaling Lawに疑問を投げかける人が増えています。大型モデルのトレーニングがデータの奴隷になる可能性があるという主流の反対意見があります。そして、人からますます遠ざかっていく。

このような背景の中、7月9日にRedpoint VenturesのPat GradyとBill CoughranとマイクロソフトのCTO(最高技術責任者)Kevin ScottはAIに関するトークを行い、マイクロソフトのAI戦略、OpenAIとの協力の進捗状況、大型モデルの将来の発展方向などについて話し合いました。

このインタビュー動画を見た後、この記事ではKevin Scottの素晴らしい視点をまとめました。

1.マイクロソフトのAI戦略は、置換技術ではなく、プラットフォーム、システムを構築することです。

2.過去20年で、AI分野で最も重要な進歩は、スケール(特にデータの規模、計算能力の規模)に関係しています。投資の重点はスケールの拡大に置かれています。

3.現在のビジネスモデルには依然としてScaling lawの法則が適用されており、大型モデルを拡張する一方で、マージン効率は減少していません。

4.マイクロソフトがOpenAIに着目する理由は、モデルの拡張に伴い、OpenAIがプラットフォームを構築するための基盤になる可能性があるからです。

5.データの質は、データの量よりも重要であり、人工知能のトレーニングアルゴリズムにテンプレートを提供し、将来の協力の経済的枠組みを提供することができます。

6.価値のあるトレーニングデータを取得し、モデルを推論して、両者に囲まれた2つの形態のビジネスモデルが現れ、AI推薦と広告を組み合わせたビジネスモデルを試みています。

7.次世代の大型モデルが登場し、以前よりもより安価でよりパワフルになります。

以下はインタビューのハイライトです。

ホスト:Kevin Scott、マイクロソフトの最高技術責任者。私たちはKevinを数十年前から知っているので、彼がGoogleにいた時代に遡ることができ、当時あなたは私たちのパートナーであるBill Coughranと交わっていました。今日の番組にはBillも参加することになっており、楽しい時間を過ごしていただけると思います。

Kevin Scott:ここに来れて光栄です。

ホスト:まず、私はあなたが以前に話したことを知っていますが、私たちの聴衆にとっては、弗吉尼亚州の田舎から来た子供がなぜマイクロソフトのCTOになったのかということはわからないかもしれません。誰が想像できただろうか?

Kevin Scott:確かに、私はこれを複製できない体験だと思います。自分自身の人生について振り返ってみると、正しい時間、正しい場所で起こっただけです。今、私は52歳ですので、パソコン革命がすべて崩壊し始めたとき、私はちょうど10歳から12歳でした。そのとき、あなたが子供の頃にしていることをやって、何をしているのか、どこに興味があるのかを理解しようとしていました。

一般的に言えるのは、もし偶然にもあなたが興味を持ち、そして学ぶために非常にやる気があるなら、より多くのことを学び、自分自身を急速に成長させることができ、合理的な場所で終わることができる可能性があります。私はコンピュータに興味を持っていました。そして、私は家族で最初の大学生であり、私は学士号を取得しました。私はコンピュータサイエンスを専攻し、英文学を副専攻しています。だから、私はある時点で、私が学士号を取得した後に何をするかを決定しようとしていました。

私は貧しいし、いつもつかまっているのが嫌でしたので、現実的な道を選びました。英語の博士号を持つことは素晴らしいことだと思いますが、2つの学位のうち、私はコンピュータサイエンスを選びました。ある時点で、私はコンピュータサイエンスの教授になりたいと思っていました。コンパイル、最適化、プログラミング言語の人になることを決心しました。数年間の大学院学習を経て、私はほとんど最後まで粘りましたが、もう教授になりたいとは思わなくなりました。論文を6か月もかけて書いて、いくつかの合成基準を3%と改善する——これは私が世界に大きな影響を与える方法ではないと思います。そして、私はそれらの作業を繰り返すわけにはいかない。

そこで、私は2003年にGoogleに履歴書を送りました。私は誰かの電子メールを受け取りました:Craig Neubauer Manning、彼はちょうどニューヨークにGoogleの最初のリモートエンジニアオフィスを開設したところでした。私は素晴らしい面接を経験しましたが、それが意図的に行われたのか、私がラッキーだっただけなのかはわかりませんが、Googleで仕事をしているコンパイラの人物すべてが私の面接リストにいるように思われました。

この面接により、私は最終的にこの起業会社の広告チームに加わる機会を得ました。当時、会社はまだ初期段階で、モバイルデバイスが発展しようとしている重要な時期でした。私はこの会社のモバイル広告の基盤を築くのを手助けし、その後、Google本社に戻り、LinkedInの上場を手助けし、エンジニアリング運営チームを管理しました。そして、その後、マイクロソフトに買収されました。

司会者:あなたは正しい場所、正しい時間にいて、あなたができることを尽くし、あなたが本当に興味深いことを成し遂げるのに一番良い選択をしました。今度はAIと機械学習に焦点を当てます。

明らかに、あなたはマイクロソフトで多くの仕事をしており、OpenAIや他の企業と協力していますが、AIの実践チームについてどう思いますか?

Kevin Scott:非常に複雑なAIプラットフォームを構築する場合、たとえば多大な分散システム、ネットワーク、シリコンなどのシステムアプリケーションが必要な場合、博士号は非常に役立ちます。問題に飛び込んで素早く進めるために多くの基礎知識が必要であり、一般的には、博士号を持つ人々は非常に頭が良いと言えるでしょう。そのため、私はこれが主要な助けとなる要因であると考えています。つまり、あなたは前の技術を極める厳しいトレーニングプログラムを経験しており、非常に複雑なプロジェクトに対処できる、また博士号を持っている必要があります。

司会者:それはAIプラットフォームシステムプロジェクトに似ていますが、博士号を取得すると、通常は特定の事柄に比較的孤立して取り組むことになります。そのため、人々は自分自身をチームに組み込み、他の人々と効果的に協力できるようにする方法を学ぶ必要があります。あなたのアドバイスは非常に役立ちます。ただ、プラットフォームを構築すること以外に、AIには学校教育での適用法、医療保健での適用法、開発者ツールの構築方法など、多くのことが必要です。

マイクロソフトは、おそらく最も影響力のある、そして野心あるAI戦略を持っているようです。マイクロソフトのAI戦略について、簡単に説明してくれますか?また、自分自身に点数をつける場合、最高の仕事は何ですか?比較的良くない仕事はありますか?

Kevin Scott:私たちは実際にこのトピックについて話をしていました。私は、マイクロソフトがプラットフォーム会社であることを考えていました。私たちはいくつかの大規模なプラットフォームコンピューティングの波に参加または推進してきましたが、われわれはPC革命の支柱企業の1つであることに照らして考えれば、われわれは遠い過去にインターネット革命においても重要な役割を果たしていました。

私たちが考えているのは、この特定の技術時代にどのようにテクノロジープラットフォームを構築し、他の人がそのプラットフォーム上で何かを構築し、他の人が有用なものを作ることができるようにするか、それが私たちのAI戦略であり、現在、最先端のモデルから小型言語モデル、最適化された推論基盤までを拡張し、トレーニングおよび推論規模を拡大し、プラットフォーム全体をよりアクセス可能にして、すべての世代のモデルをより安価で、より強力にしています。すべての開発者ツールと同様に、安全基盤、テストなどのすべての必要なものを確保し、堅牢なAIアプリケーションを構築するために必要なものを提供し、技術的な空白を埋めることができます。そして、これが私たちの戦略であり、私たちは良くやっていると思います。

私はエンジニアであり、ほとんどのエンジニアは短期的な悲観主義者であり、長期的な楽観主義者であると思います。例えば、「私はこれらのことが好きではない、多くの問題がある、私は落胆したが、私はこれらすべての問題を処理し、最終的にそれらが解決されると思っている」と言います。私たちはそのため、非常によくしていることが何かあると思います。最も重要なことは、OpenAIと協力して、非常に強力なAIをより多くの人々が使用できるようにすることです。OpenAIと協力して取り組んだおかげで、新しい顧客を多数獲得し、強力なAIアプリケーションを構築しないで済む顧客もいます。したがって、OpenAIとの協力において私たちは非常に高い評価を得ていると思います。私たちは、AIプラットフォームの姿が何であるかに関して、理念を共有しており、それは完全性の高いものにすることを目指しています。

私たちは基本的なAIについて好意を持っていると考えていますが、少し遅れています。そして、私たちはAIに投資していないわけではありません。多年にわたり、マイクロソフトリサーチは、AIの先駆者の1つと言えるでしょう。

実際には、過去20年間、人工知能分野で最も重要な進歩は、いくつかのスケールに関係していました。それらは通常、データスケールと計算スケールの組み合わせで、より低いスケールで不可能なことを実行できるようにしてくれるものです。ある時点で、データや計算能力が指数関数的に増加し、分散しているため、10種類の異なることにすべて賭けをするのは経済学的に不可能であると考えられます。

私たちは、すべての卵を正しいバスケットに早く入れなかったと思います。私たちはAIに多額の投資をしていますが、それはさまざまなものに分散しています。それは、聡明な人々の感情を傷つけたくないという理由です。いずれにしても、私たちはそれらのプロジェクトが最後にどこに向かっているかさえわからないので、私には比較的不良なプロジェクトがあるかどうかわかりません。しかし、私たちは最近はスケールの拡大に重点を置いています。

司会者:あなたは「スケール第一主義者」になった時期はいつでしょうか?何か特定の出来事がありましたか?

Kevin Scott:私はマイクロソフトで7年半程働いたことがありますが、私がCTOになった時点で、私の仕事はMicrosoftと業界全体を左から右に見渡し、私たちが実行していることに欠けているものを見つけ、数年間は、マイクロソフトの最大の問題はAIの進歩が十分に速くないことになると予想しました。だから私は、2017年中ごろに、スケール拡大の信仰を持つようになりました。それは私の仕事の重要な部分であり、戦略を明確にするのに役立ちました。

その後、私たちはマイクロソフト内部の多くのものを再編成し、より人工知能に焦点を当てるようにしました。約1年後、私たちはOpenAIと最初の取引を行いました。その後、私たちは投資を加速し、より専門的、明確で、目的を持った投資を目指しています。

司会者:OpenAIの潜在能力に最も早く気づいたのは何でしたか? Kevin Scott:これらのモデルが拡張されるにつれて、プラットフォームを構築する基盤になると信じていました。

あなたにはデータプール、たくさんのマシン、そしてアルゴリズムがあれば、モデルをトレーニングできます。ただし、そのモデルは特定のものをトレーニングしているようなものです。私がGoogleでやったことのように、これは広告のクリック率の予測のようなものですが、正確で効果的です。しかし、GPTの前に、狭い用途に関するほとんどの仕事が行われていました。あなたは狭いことのためにモデルを構築しようとしており、それを拡張することは困難です。

これらすべてを複製する場合、あなたは適用方向の違うPhDとAIのPhDが必要です。そして、AIを構築するために、異なるプロセスが必要です。当時、OpenAIOのこれらの大規模な言語モデルは、多くの異なることに適用されるため、機械翻訳や感情分析のために別々のモデルを構築する必要はありません。当時、私は本当に驚きました。

やるには、市場研究者の博士と人工知能の方向の博士が必要です。そして、アプリケーションで人工知能を構築しようとする場合は、異なるプロセスが必要です。当時の状況は、OpenAIOのこれらの大規模な言語モデルが多くの異なるものに適用できたため、機械翻訳や感情分析に別々のモデルを構築する必要がなくなったことを示しています。私はその時、これは非常に異常だと思いました。

したがって、拡大に従って転移学習の効果が向上する。大規模な言語モデルが加算および減算を実行できることを知っているため、次の規模点に到達すると、これらの能力セットはややまたは著しく汎用的になります。また、私たちとOpenAIは同じ信念を持っています。彼らは、これらのプラットフォーム機能が時間とともに規模の関数としてどのように現れるかについて、非常に原則的な分析を行い、多くの実験検証を行い、彼らの推測が正しいことを証明しました。

同じプラットフォーム信念を持つパートナーを見つけ、それらの規模点を通じてトレーニング検証を実行できる能力が必要です。これは、私が以前行った多くのことと同じくらい簡単なことではありませんが、私は過去の投資に比べて、この協力関係に対する高い信念を持っています、多くの人がこのレベルに同意していなかったとしても。

司会者:投資について言及しましたが、現在、多くの業界メディアが模型トレーニングのコストについて推測しています。何十億、何百億ドルといったうわさがあります。私は、私自身の背景に基づいて、私はトレーニングがすぐに推論に置き換えられると思います。そうでなければ、私たちが構築したモデルはどのように使用すべきかわからなくなります。そうではない場合、投資は得策ではありません。

したがって、計算分野の発展についてはどのように考えていますか?それはどこに向かっているのだろうか?人々はおそらく冗談を言うでしょう、今はすべてのお金がエヌビディアに向かって流れていると言われているからです。 Kevin Scott:エヌビディアは素晴らしい仕事をしています。規模拡大の効率性に関して言えば、現在起こっている面白いことは、すべての世代のハードウェアがより高いパフォーマンスを提供することです。これは通常、汎用計算分野におけるモールの法則を超える程度に高いです。A100はV100よりも3倍半もコストパフォーマンスが良いです。H100はそこまで良くないですが、近いです。次の世代は非常に良く見えるため、あらゆる理由から、ハードウェアはプロセステクノロジとアーキテクチャ構成の部分で繰り返し利用可能です。

そのため、64ビットの算術演算が必要なのではなく、精度の低い算術演算が必要です。これにより、並列性が非常に高くなります。ハードウェアアーキテクチャでの並列性を抽出する能力はますます強くなっており、多くのイノベーションがネットワーク側面にあります。私たちはすでにフロントラインモデルの時代を終えていますが、少なくとも単一のGPU上で興味深いことを実行できます。多年にわたって、トレーニングと推論は常にそうでした。

実際、2012年以降、有効なパワースケーリングを実行していません。トランジスターはますます多くなり、温度は低くなっています。密度の問題はたくさんありますが、動力消費問題を処理する必要があります。 主持人:この推論は、異なるデータセンター構造を推進するのでしょうか? Kevin Scott:私たちはトレーニング環境と推論環境を異なる方法で構築しています。シリコンから始まり、ネットワークレベルの構造に至るまで、推論にはトレーニングよりも多くのものが必要です。私たちは現在、多年かかる大規模な環境を構築するために、推論を通じて行っています。

もしもっと良いシリコン構造、より良いネットワーク構造、より良い冷却技術が提供された場合、これはより実験的なものとして簡単に実行できるので、トレーニング環境のような大規模な資本プロジェクトよりも簡単に実行できます。私が言いたいのは、これがトレーニング環境ほど簡単だということです。つまり、あちこちで大量の乱雑をして、APIにアクセスすることしかできないとか、オープンソースで何もインスタンス化できないことなど、受け入れ可能なアクセス方法ではないものが必要です。%78

そのため、同じプラットフォーム信念を持つパートナーを見つけ、それらの規模点を通じてトレーニング検証を実行できる能力が必要です。これは、私が以前行った多くのことと同じくらい簡単なことではありませんが、私は過去の投資に比べて、この協力関係に対する高い信念を持っています、多くの人がこのレベルに同意していなかったとしても。

私たちはトレーニング環境と推論環境を異なる方法で構築する必要があります。シリコンから始まり、ネットワークレベルの構造に至るまで、推論にはトレーニングよりも多くのものが必要です。私たちは現在、多年かかる大規模な環境を構築するために、推論を通じて行っています。

それで、異なるシリコン構造、異なるネットワーク構造、異なる冷却技術が提供されると、これは一種のより実験的なものであり、単に一部のラックを交換するだけで実行できます。つまり、トレーニング環境よりも大きな資本プロジェクトを実行する場合よりも簡単です。つまり、直観的には、推論環境がより多様化し、競争が激しくなり、反復速度が速くなると思われます。

ソフトウェアに関しては、我々は推論スタックについても同様の傾向を見ています。このため、それは計算全体で大部分を占めるため、供給不足のため制限されています。したがって、より多くのパフォーマンスを引き出すために、ソフトウェアスタックを最適化する動機が非常に大きくなっています。

司会者:需要と供給のバランスが変化する環境にすぐに入ると思いますか?マイクロソフトではないかもしれませんが、私たちは市場レベルでそれを見る気がします。 Kevin Scott:フロントランナーモデルを構築することは、資源を消費する非常にコストのかかることです。人々が前沿モデルを構築し、それらをアクセスしやすくすることを望んでいる限り、それらが受け入れ可能なアクセス方法にならない限り、あなたが知っているように、APIだけにアクセスできたり、オープンソースで何もインスタンス化できなかったりすることなど、それは受け入れ可能なアクセス方法ではありません。あなたが見ている傾向のように。

フロントランナーモデルを構築することは、資源を消費する非常にコストのかかることです。人々が前沿モデルを構築し、それらをアクセスしやすくすることを望んでいる限り、それらが受け入れ可能なアクセス方法にならない限り、あなたが知っているように、APIだけにアクセスできたり、オープンソースで何もインスタンス化できなかったりすることなど、それは受け入れ可能なアクセス方法ではありません。あなたが見ている傾向のように。

たとえば、私たちは自分自身のスマートフォンのハードウェアとオペレーティングシステムを構築する必要があるため、このような企業を立ち上げるには、自分自身の前線モデルを構築する必要があります。

私たちはあらゆる業種に参加しています。

市場にとって有意義なことは、多くの人々が多くのモデル推論を行っていることです。これは、多くの製品が製品の市場に適合する点を見つけたことを意味します。これは、これらのものが拡大していることを意味しますが、インフラ開発に大量の投機的資金が流入するように、ある意味多くのことを意味します。

拡張に関しては、Microsoftは最近、トレーニングデータの品質が数と同等に重要であると指摘する論文を発表しました。私たちが業界で見ている推測は、高品質のトレーニングデータの供給源を枯渇させつつあるということです。あなたは、いくつかの記事を読んだことがあるでしょう。その記事は、トレーニングデータを取得するためのさまざまな提携関係を築いていると主張していますが、これらのデータはよく壁に直面しています。これらの問題はどのように発展すると思いますか?私たちは、コンピューティングパワーがますます強力になるにつれて、トレーニングデータがますます少なくなる可能性があると感じています。

私は、これがほぼ避けられないと考えています。私にとって、データの品質はデータの量よりも重要です。これは、人工知能のトレーニングアルゴリズムにテンプレートを提供し、将来の協力に経済的な枠組みを提供できるため、素晴らしいことです。

あなたは、これによりより賢いモデルが生み出されると知っています。実は、大量の計算リソースを無駄にして、さまざまなことを行う必要はありません。インフラの観点から見ると、大規模な言語モデルはデータベースではありません。それを検索エンジンとして使用する場合、それを「私はこれを持っているので、すべてのものをそこに入れなければならない」と思うべきではありません。

私たちは、トレーニングモデルに価値のあるデータを持っており、その後、モデルを推論するためにデータまたはアプリケーションにアクセスする必要があります。これらは別々のものです。これらに囲まれていることに関しては、それらはおそらく2つの異なるビジネスモデルである可能性があります。

現在、すべてのデータは検索エンジンにあります。これはランダムウェイトではなく、はっきりとしたインデックスに置かれています。Googleなどで検索するように、クエリを入力し、トラフィックを送信するか、SEOと広告を行います。これに囲まれて、多くのビジネスモデルがあります。

私たちは、データを推奨するためのビジネスモデルを見つけることになると思います。これにより、エージェントまたは人工知能アプリケーションが情報を取得する必要がある場合、推論を行ってユーザーに答えを提供できます。私たちは、それについてビジネスモデルを見つけ出すでしょう。定期購読、シェアリング、ライセンス、新しい広告モデルです。私は数日前、若者に向けて言っていました。あなたたちは新しい広告ユニットが代理店にとって何を意味するかを理解するために調査する必要があります。それはちょうど作成された会社のようなものであり、以前の広告ユニットと同じ特性と品質を持っています。情報、製品、サービスを持っている人たちは、その情報、製品、サービスを必要とする可能性がある人々の注意を引きたいと思っています。品質が重要で、関連性も重要で、その他多くのものがあります。

ホスト:問題は、ある程度、価値関数がより幅広い推論能力のボトルネックであるということをよく聞きます。しかし、より広範な領域に入ると、価値関数を構築することがより困難になります。この問題には実際の解決策がありますか?実際の影響はありますか?より広範な問題は、推論と要素の総合領域がどこに向かっているかですか?

Kevin Scott:私たちは、一連のベンチマークテストで結論を出そうとしています。過去数年間で見た興味深いことの1つは、モデルの世代では、特定のベンチマークに完全または非常に近いステータスまで追いつくことができますが、後で、自分たちのライトハウスとなる他のものを見つけなければならないということです。したがって、あなたが触れた問題は、あなたが想像できる最も粒度の細かいものでしか高価な実験でした。テキストで教科書として出てくるようになり、評価の象徴的な貢献をするような、一連の高価な実験です。

ホスト:現在のモデルの水準についてどう思いますか? Microsoftは、多数のパイロットプロジェクトを立ち上げ、最近はエンドユーザーが製品を使用するのを支援する試みをしています。その一方で、多くの企業が自律型エージェントを開発しようとしています。これらのモデルの期待されるパフォーマンス範囲は非常に広く、私たちは数年後どこにいると思いますか?

Kevin Scott:それは非常に良い質問だと思います。あなたは、哲学的な観点から、誰でもAIに置き換えられるかもしれないと考えることができます。AIの「副運転手」という名前がつけられた理由は、Microsoft内部でこれらのものを構築しようとしている人々が思考を促すことを望んでいるからです:私はどのようにして認知作業を行う人々を助けることができますか。

私たちは代替技術ではなく、システムを構築したいと考えています。しかし、範囲を特定の領域に狭めると、グローバルな前方モデルの機能から実際のツールに変換する方法について考えることがより簡単になります。したがって、私はこれが合理的な導入パスであると考えています。私たちはすでにいくつかのパイロットプロジェクトを持っており、実際の市場需要があり、日常的に多くの人々が使用しています。

そして、実際に、副運転手ができることが広範囲にわたっているほど、それを自分で行うのがより困難になります、特にあなたがそれがあなたを代表して何をしているのかを知っている場合。一度たくさんの誤りがあると、「これが機能していない」とユーザーが最初に反応するのは自然なことです。「しばらく使ってみなければならない」という感覚があります。あなたの重要なケースを最適化する必要があるので、超広いものではなく、エラーに満ちています。したがって、私たちは、それが展開される前に非常に良いものになってほしいと思っています。

ホスト:誰もが同じようにOpenAIをプレイすることから始め、たぶん彼らは他のいくつかのプロプライエタリな基本モデルを使用し始め、それらはいくつかのオープンソースモデルと組み合わされ、彼ら自身のものを持つかもしれません。そこにはベクトルデータベースがあります。アーキテクチャの観点からは、人々はではない完全に異なる道を歩む傾向があるようです。しかし、12か18か月後、彼らから聞くことができるのは、巨大な80/20規則が動作しているということです、すなわち、自動化がほとんどのタスクを非常に速く効率的に行うことができますが、最後の1マイル、最後の数パーセントは、あなたがそれに本当に信頼できなくなるほど難しいです。

はい、多くのタスクにとって、これはかなり描きにくいようです。したがって、私がとても興味を持っていることの1つは、基本モデルがいつ十分に良くなるのか、最後の2%を排除するのに十分なのかということです。

Kevin Scott:私は、しばらくの間、これら2つのものが共存すると考えています。私はあなたたちがこの質問をするかもしれないと知っていますが、他の人がどう考えようとも、私たちは規模を拡大すると同時に収益の限界減少を見ていないことを試みています。実際、私たちは測定パラメータを持っていますが、超コンピューターを構築し、モデルをトレーニングするには時間がかかるため、数年ごとにサンプリングする必要があります。

次のモデルが進行中であるため、いつリリースされるか、そしてそれがどの程度優れているかを正確に予測することはできませんが、ほぼ間違いなく、あなたが「ああ、私の神よ、これは少し高すぎる」と思うかもしれない問題、または「これはあまりにも壊れやすい」と思う問題を解決することができ、すべてが改善され、より安価で、もっと耐久性があり、より複雑なことが可能になります。各世代のモデルの切り替えごとに、このような物語が繰り返されています。

私たちはマイクロソフト内部でもこの問題について考えています。私たちの開発者がこれらの人工知能製品を開発する際に犯す可能性がある1つのエラーは、私が現在のフロントランナー技術を利用して既にそれを補完する必要があると信じ込んでいるということです。しかし、それをする必要があるということは確かですが、アーキテクチャに非常に注意する必要があります。そうすることによって、次のサンプルが到着したときに次のサンプルを採用するのを妨げるものではありません。

それで、私たちはこれらのアプリケーションを適切に構築することに注力しています。新しいものが現れたときに、それを適用できるようになります。私たちは常にここを鍛錬しています。

私たちの内部で苦労していることの1つは、先端モデルを見た後、いくつかのチームが「天啊,我们不可能在其上部署产品,因为它很脆弱,而且太贵了」と言うことです。私からのアドバイスは、新しいエッジが現れたときに自分自身に十分な柔軟性を持っていることです。これにより、自分自身の疑念を維持し、自分が信じる分野を信頼することができます。

これらの内容は、情報提供及び投資家教育のためのものであり、いかなる個別株や投資方法を推奨するものではありません。 更に詳しい情報
    コメントする