share_log

GROQ SUPERCHARGES FAST AI INFERENCE FOR META LLAMA 3.1

META LLAMA 3.1の人工知能推論がGROQによって超高速化されました

PR Newswire ·  07/23 11:15

Groqが開発した最大で最も能力が高いオープンなファンデーションモデル4050億がGroqCloudで実行されています。

カリフォルニア州マウンテンビュー、2024年7月23日/ PRNewswire /-AI推論の高速化においてリーダーであるGroqは、LPU AI推論技術でパワーを得るLlama 3.1モデルを発売しました。 Groqは、この重要な業種の立ち上げでMetaと協力し、最新のLlama 3.1モデル(4050億Instruct、700億Instruct、80億Instruct)をGroqスピードで実行しています。 この3つのモデルは、既にGroqシステムにビルドしている30万以上の開発者のコミュニティであるGroqCloud Dev Consoleと一般の人々のためのGroqChatで利用可能です。

「Groqのクラウド展開のための超低遅延推論には本当に興奮しています。これは私たちのオープンソースへの取り組みがAIに革新と進歩をもたらす素晴らしい例です。私たちのモデルとツールをコミュニティで利用可能にすることにより、Groqのような企業が私たちの作業を構築し、エコシステム全体を前進させるのに役立つだろう」とMark Zuckerberg、Metaの創業者兼CEOは語りました。

Metaの創業者兼CEOのMark Zuckerbergは次のように述べています。
「Groqのクラウド展開のための超低遅延推論には本当に興奮しています。これは私たちのオープンソースへの取り組みがAIに革新と進歩をもたらす素晴らしい例です。私たちのモデルとツールをコミュニティで利用可能にすることにより、Groqのような企業が私たちの作業を構築し、エコシステム全体を前進させるのに役立つだろう」と述べたMark Zuckerberg、Metaの創業者兼CEO。

「Metaは、AIのためのLinux、つまりオープンなオペレーティングシステムを作成しており、Groq LPU(高速AI推論の提供)だけでなく、エコシステム全体で利用可能です。技術においてオープンは常に勝ち、このLlama 3.1のリリースにより、Metaは最高のプロプライエタリモデルに追いついた。この割合では、クローズドモデルをリードするのも時間の問題でしょう」とJonathan Ross、GroqのCEO兼創業者は語ります。「Metaからの各新しいリリースで、私たちはGroqプラットフォームに参加する開発者の大きな流入を見ています。過去5か月間で、Llamaの品質とオープンさに加えて、Groq LPUでの信じられないほどのスピードに引き寄せられる開発者は、わずか数名から30万人以上に成長しました」

Llama 3.1モデルは、機能性と機能性の面で大きな進歩です。これまでで最大かつ最も能力の高いオープンリリースの大規模言語モデルであるLlama 3.1 4050億は、業界をリードする専有モデルに匹敵します。企業、スタートアップ、研究者、および開発者は、プロプライエタリの制限なしにこのスケールと機能のあるモデルにアクセスできます。これにより、前例のない協力と革新が可能になります。Groqを使用することで、AI革新者はGroqCloud上で異例のスピードで実行されるLlama 3.1 4050億のすさまじい可能性にアクセスでき、より高度でパワフルなアプリケーションを構築することができます。

Llama 3.1 4050億を含むLlama 3.1(4050億、700億、80億Instructモデルを含む)により、AIコミュニティは、12.8万までのコンテキスト長と8つの言語のサポートを利用できます。 Llama 3.1 4050億は、一般的な知識、操舵、数学、ツールの使用、多言語翻訳において、比類のない柔軟性、制御性、最新技術の能力を持っています。 Llama 3.1 4050億は、合成データ生成やモデル蒸留などの新しい機能を開放し、オープンで責任あるAIエコシステムの共有のMetaとGroqの取り組みをさらに推進します。

Llama 3.1 4050億のような大きなオープンモデルの推論スピードが前例のないものであるため、開発者は、エージェントワークフローに依存する新しいユースケースを解除し、患者の連携とケア、市場需要を分析してリアルタイムで価格を調整する動的価格設定、リアルタイムセンサデータを使用した予測メンテナンス、顧客への問い合わせに応答して問題を数秒で解決するカスタマーサービスなどのユースケースを提供することができます。

GroqCloudは5か月間で30万人以上の開発者に成長し、GPUのコストの一部で次世代のAIアプリケーションを構築することの重要性を強調しています。

GroqのウェブサイトでGroqスピードでLlama 3.1モデルを経験し、このリリースについて詳しく学ぶことができます。

GroqはAI推論技術を構築しています。 Groq LPU AI推論技術は、AI計算速度、品質、エネルギー効率を提供するハードウェアおよびソフトウェアプラットフォームです。Groqは、シリコンバレーに本社を置き、AIアプリケーションのためのクラウドおよびオンプレミスのソリューションをスケールして提供しています。LPUおよび関連するシステムは、北米で設計、製造、組み立てられています。 Groqスピードを試してください。
Groqは高速な人工知能推論技術を開発しています。 Groq LPU AI推論技術は、AI計算速度、品質、エネルギー効率に優れたハードウェアおよびソフトウェアプラットフォームを提供します。シリコンバレーに本社を置くGroqは、AIアプリケーションのクラウドおよびオンプレミスの拡大ソリューションを提供しています。LPUおよび関連システムは北アメリカで設計、製造、組み立てられています。Groqの速度を試してみてください。

メディアに関するお問い合わせ
Megan Hartwick
[email protected]

出典:Groq

これらの内容は、情報提供及び投資家教育のためのものであり、いかなる個別株や投資方法を推奨するものではありません。 更に詳しい情報
    コメントする