banner
hughie

hughie

热爱技术的小菜鸟, 记录一下所学所感

CoDi-Any2Anyの生成モデル

前書き#

この記事では、CoDi について簡単に紹介します。

CoDi は、言語、画像、ビデオ、音声など、任意の入力モードから任意の組み合わせの出力モードを生成することができます。


本文#

一、CoDi とは何ですか#

CoDi は、言語、画像、ビデオ、音声など、任意の入力モードの任意の組み合わせから、言語、画像、ビデオ、音声などの任意の出力モードの組み合わせを生成することができます。CoDi は、入力空間と出力空間でモードをアラインし、拡散プロセス中にアラインメントを橋渡しすることによって、共有のマルチモード空間を構築します。これにより、任意の入力組み合わせを条件付けて、任意のモードの組み合わせを生成することができます。

二、CoDi の生成モード#

CoDi は、既存の生成 AI システムとは異なり、複数のモードを並行して生成することができ、その入力はテキストや画像などのサブセットモードに制限されません。さらに、CoDi の入力空間と出力空間のモードはアラインされているため、トレーニングデータに存在しないモードでも、任意の入力組み合わせを条件付けて、任意のモードの組み合わせを生成することができます。

13-CoDi_architecture

CoDi は、拡散プロセス中に共有のマルチモード空間を構築することで、新しい組み合わせ可能な生成戦略を採用しています。これにより、時間に対してアラインされたビデオや音声などの交差するモードの同期生成が実現されます。高度にカスタマイズ可能で柔軟な CoDi は、強力な統合モード生成の品質を実現し、単一モード合成の状態で優れたパフォーマンスを発揮し、最先端の単一モード合成技術と同等のものです。

三、まとめ#

公式のdemo、モデルの構造とパラメータ

最近、多モードモデルが多く登場していますが、研究者は学習を続ける必要があります。一般の利用者は必要ありませんので、読む必要はありません。


最後に#

参考記事:

公式ホームページ


声明#

この記事は個人の学習記録として作成されました。

この記事はhblogと同期しています。

読み込み中...
文章は、創作者によって署名され、ブロックチェーンに安全に保存されています。