Whether a person is an aspiring filmmaker hoping to make it in Hollywood or a creator who enjoys making videos for their audience, we believe everyone should have access to tools that help enhance their creativity. Today, we're excited to premiere Meta Movie Gen, our breakthrough generative AI research for media, which includes modalities like image, video, and audio. Our latest research demonstrates how you can use simple text inputs to produce custom videos and sounds, edit existing videos, and transform your personal image into a unique video. Movie Gen outperforms similar models in the industry across these tasks when evaluated by humans.
This work is part of our long and proven track record of sharing fundamental AI research with the community. Our first wave of generative AI work started with the Make-A-Scene series of models that enabled the creation of image, audio, video, and 3D animation. With the advent of diffusion models, we had a second wave of work with Llama Image foundation models, which enabled higher quality generation of images and video, as well as image editing. Movie Gen is our third wave, combining all of these modalities and enabling further fine-grained control for the people who use the models in a way that's never before been possible. Similar to previous generations, we anticipate these models enabling various new products that could accelerate creativity.
While there are many exciting use cases for these foundation models, it's important to note that generative AI isn't a replacement for the work of artists and animators. We're sharing this research because we believe in the power of this technology to help people express themselves in new ways and to provide opportunities to people who might not otherwise have them. Our hope is that perhaps one day in the future, everyone will have the opportunity to bring their artistic visions to life and create high-definition videos and audio using Movie Gen.
映画監督になりたいと夢見る人や自分の観客のためにビデオを作るのが楽しいクリエイター、全ての人に創造性を高めるのに役立つツールへのアクセス権を持っているべきと考えています。本日、私たちは、画像、ビデオ、オーディオなどのモダリティを含む、メディア向けの画期的な生成AI研究であるMeta Movie Genを披露することに興奮しています。私たちの最新の研究により、テキスト入力を使用してカスタムビデオや音声を生成したり、既存のビデオを編集したり、個人の画像をユニークなビデオに変換したりする方法を示しています。Movie Genは、これらのタスク全般で業界の似たモデルを上回り、人間による評価において優れています。
この取り組みは、基本的なAI研究をコミュニティと共有するという私たちの長い実績の一部です。最初の生成AI作業は、画像、オーディオ、ビデオ、3Dアニメーションの作成を可能にしたMake-A-Sceneシリーズのモデルで始まりました。拡散モデルの登場とともに、Llama Image foundationモデルを使用した第二の波の作業が行われ、画像やビデオの高品質な生成、および画像編集が可能になりました。Movie Genは全てのこれらのモダリティを組み合わせ、これまでにない方法でモデルを使用する人々にさらなる細かい制御を可能にします。先行世代と同様に、これらのモデルが様々な新製品を可能にし、創造性を加速させることができると期待しています。
これらの基礎モデルには多くのエキサイティングなユースケースがありますが、生成AIはアーティストやアニメーターの業務を代替するものではありません。私たちはこの研究を共有している理由は、このテクノロジーの力を信じ、人々が新しい方法で自己表現するのを助け、そうでなければできないかもしれない人々に機会を提供することです。私たちの希望は、もしかしたら将来、誰もが自分の芸術的なビジョンを実現し、Movie Genを使用してハイビジョンのビデオやオーディオを作成する機会を持つことができるようになることです。