【HunyuanVideo】動画生成AI最高のパラメータ数!Tencent発の巨大オープンソース

HunyuanVideo 動画生成AI パラメータ数

Tencentから新たな動画生成AIが登場!

HunyuanVideoは、オープンソースで利用可能なテキストからビデオを生成するモデルの中で、現在最もパラメータ数が多く、高性能なモデルです。

100億のパラメータを持ち、物理的な正確性とシーンの一貫性が高いビデオを生成できます。 これにより、コンセプトを具体化し、創造的な表現を促進します。

押さえておきたいポイント
  • 動画生成AI至上最高パラメータ数
  • 物理法則遵守の動画生成
  • クローズドモデルに匹敵する性能

本記事では、HunyuanVideoがこれまでの動画生成AIとどう違うのか、どのように使っていくのかを解説し、リアリティの高い動画を生成できるか検証します。

本記事を最後まで読むことで、HunyuanVideoの理解が深まり活用できますので、ぜひ最後までお読みください!

目次

HunyuanVideoの概要

HunyuanVideoは、オープンソースで利用可能なテキストからビデオを生成するモデルの中で、最もパラメータ数が多く、高性能なモデルです。

100億のパラメータを持ち、物理的な正確性とシーンの一貫性が高いビデオを生成できます。

参考:https://github.com/Tencent/HunyuanVideo/blob/main/assets/hunyuanvideo.pdf

HunyuanVideoの特徴

HunyuanVideoの特徴はオープンソースでありながら、クローズドモデルの動画生成AIに匹敵する性能を持つ点です。

参考:https://huggingface.co/tencent/HunyuanVideo

左のグラフが計算資源の使用比較であり、右の図がモデルの性能比較です。

まず、左のグラフではクローズドソースモデル(例:Gen-3やLuma1.6)は、多大な計算リソースを必要とする一方で、HunyuanVideoは効率的なリソース使用を実現していることが示されています。オープンソースの他モデルとの間に「計算資源のギャップ」が存在することも強調されています。

次に右のグラフでは、HunyuanVideoと他の代表的な動画生成AI(Runway Gen-3, Luma1.6, CNTopAなど)のパフォーマンスを「Overall Score (%)」として比較。

HunyuanVideoは、全体スコアにおいて最も高い評価を得ており、特にモーションの質で優位性を示すとされています。

それ以外にもHunyuanVideoの特徴はいくつもあります。それぞれ概要をお伝えします。

  • 高画質:映画のようなビデオ品質を実現し、現実的なスタイルとバーチャルなスタイルを自由に切り替えることが可能。
  • 高ダイナミクス:ダイナミックなモーションの制約を打ち破り、1つのショットで完全なアクションを表示。
  • 連続アクション:豊富な表現により、一連のアクションを一度に完了。
  • 芸術的なショット:単一カメラの動きを打ち破り、カメラワークをシームレスに統合することが可能。
  • コンセプトの汎化:最も現実的なエフェクトを使用して、バーチャルなシーンを表現可能。
  • 物理法則の遵守:物理法則に準拠することで、視聴者の違和感を軽減。
  • 自然につながるシーン遷移:映画のようなストーリーテリングを実現。
  • 簡単なコマンドでスムーズな作成:シンプルなコマンドでスムーズな作成が可能。
  • 高度なシーンモデリング:高度なシーンモデリングが可能。
  • 自然な背景の動き:自然な背景の動きを実現。
  • 表情豊かで生き生きとした表情とジェスチャー: 表情豊かで生き生きとした表情とジェスチャーを表現。
  • 人間の微妙な動きや表情をリアルタイムでキャプチャ: 人間の微妙な動きや表情をリアルタイムでキャプチャ。

HunyuanVideoと従来の動画生成AIとの違い

HunyuanVideoにおけるテキストエンコーダーはMultimodal Large Language Modelが採用されています。一方で従来の動画生成AIはT5 XXLであり、Multimodal Large Language Modelは高い画像テキスト整合性を持ち、HunyuanVideoが生成する動画の品質を向上させます。

また、ユーザーの指示を忠実に解釈する能力が向上し、複雑な生成タスクにも対応可能となりました。

参考:https://huggingface.co/tencent/HunyuanVideo

また、HunyuanVideoで重要となるのがディフュージョンバックボーンです。

ディフュージョンバックボーンはHunyuanVideoがテキストから動画を生成する際に、テキスト情報とノイズ(初期状態の動画データ)を条件付けて処理する主要なコンポーネント

テキスト情報を活用してノイズを動画に変換するディフュージョンプロセスを高度に最適化しており、特にデュアルストリームからシングルストリームへの設計が、効率性と生成品質を両立する重要な役割を果たします。

参考:https://huggingface.co/tencent/HunyuanVideo

HunyuanVideoのライセンス

HunyuanVideoのライセンスはTencent Hunyuan Community License Agreementです。

Tencent Hunyuan Community License Agreementは特許使用以外可能と明記されていますが、細かな制約があります。

まず商用利用は可能ですが、月間アクティブユーザー数が1億人を超える場合(ライセンス対象者の全プロダクト/サービスの合計)、Tencentから別途ライセンスを取得する必要があります。また、Tencent Hunyuan Worksを商用プロダクトに利用する場合、「Powered by Tencent Hunyuan」の記載が推奨。

改変も可能ですが、改変後のモデルは「Model Derivatives」として扱われ、改変内容については「改変したこと」を明示する必要があります。また改変したモデルや派生物をTencent Hunyuan以外のAIモデルに活用することは禁止です

配布も可能ですが、配布する際には第三者に本ライセンス契約のコピーを提供する必要があり、改変したファイルには「改変した」ことを明示する必要があります。また、配布物に「Tencent HunyuanはTencent Hunyuan Community License Agreementの下でライセンスされています」というテキストファイル(Notice)を含める必要があります。

配布する製品・サービスに「Powered by Tencent Hunyuan」と表示することを推奨。

私的利用も可能ですが、Acceptable Use Policy(適正利用ポリシー)を守ること(例:危害を加える用途や違法行為に使用しないなど)、利用地域(日本を含む)が「Territory(対象地域)」に限定されている必要があります。

利用用途可否
商用利用⭕️
改変⭕️
配布⭕️
特許使用不明
私的使用⭕️
参考:https://github.com/Tencent/HunyuanVideo/blob/main/LICENSE.txt

なお、1024×1024の10秒動画を生成できるOpen-Sora Planについて詳しく知りたい方は、下記の記事を合わせてご確認ください。

HunyuanVideoの使い方

ではHunyuanVideoを使っていきます。

デモが用意されているので、まずは使ってみたいという場合には、デモを使うのがおすすめです。

GitHubにはHunyuanVideoは最低でも45GBのGPU Peak Memoryが必要です。そのため、google colaboratoryのA100でも実装は難しいと思います。

HunyuanVideoモデル(バッチサイズ= 1)を実行してビデオを生成するための要件

参考:https://github.com/Tencent/HunyuanVideo/tree/main?tab=readme-ov-file

そのため、自身のパソコンにGPUを積んでいない方もデモ版の利用が良いと思います。google colaboratoryのA100で実装をしてみましたが、モデルのダウンロードでクラッシュしたりするので、ここからはreplicateを使った使い方は解説します。

HunyuanVideoのデモ版の使い方

HunyuanVideoのデモはreplicateで提供されているので、サインアップもしくはログインすればOKです。

参考:https://replicate.com/tencent/hunyuan-video

prompt、width、height、video_length、infer_steps、seedをそれぞれ入力すればOKです。

prompt:動画の内容を指示。
width:動画の横方向の解像度。
height:動画の縦方向の解像度。
video_length:動画のフレーム数を指定。
infer_steps:推論プロセス(サンプリング)でのステップ数を指定。
seed:再現性を確保するための乱数シード値。同じシード値を使えば同じ動画を生成。

プロンプトを「A dog walks on the grass, realistic style.」にして生成した動画が以下です。

かなりリアルに生成されていると思います。

replicate APIを使った実装

replicate APIを使った実装方法も記載されているので、google colaboratoryで実装してみます。

APIを使った実装はこちら
import replicate
import os
os.environ["REPLICATE_API_TOKEN"] = "your_API_Key"

# モデルの最新バージョンを取得して確認
model = replicate.models.get("tencent/hunyuan-video")
version = model.latest_version
print("Latest version ID:", version.id)

# 入力パラメータの設定
input_params = {
    "prompt": "A cat walks on the grass, realistic style.",
    "width": 854,
    "height": 480,
    "video_length": 129,
    "infer_steps": 50,
    "flow_shift": 7,
    "embedded_guidance_scale": 6
}

# バージョンIDを含めて実行
model_path = f"tencent/hunyuan-video:{version.id}"
print("Using model path:", model_path)

# モデルの実行
output = replicate.run(
    model_path,
    input=input_params
)

# 出力の保存
with open("output.mp4", "wb") as file:
    file.write(output.read())

上記のコードを実行することで、output.mp4という動画が生成されるので、ダウンロードすればOKです。

実際に生成された動画はこちら。

HunyuanVideoで生成できる動画はリアリティが高いのかを検証

HunyuanVideoはオープンソースでありながら、クローズドモデルに匹敵する性能を持っています。また、物理法則を遵守し、高画質な動画生成が可能です。

そこで、HunyuanVideoで生成できる動画はリアリティが高いのか・物理法則を遵守するのか検証してみたいと思います。

また、他の動画生成AIと生成された動画を比較するために、同じプロンプトで動画を生成してみたいと思います。

タスクとしては次の3つです。

  • 物理法則を遵守する動画生成
  • OpenAI Soraと比較
  • ビールのCM動画生成

物理法則を遵守する動画生成

まずは物理法則を遵守する動画を生成していきます。

プロンプトはこちらです。

A red ball rolls down a slope, accelerates naturally due to gravity, and comes to rest on a flat surface, realistic style.

和訳:赤いボールが斜面を転がり、重力によって自然に加速し、平らな面に静止するリアルなスタイル。

こちらのプロンプトでボールの加速や減速が自然に描写されるか、平坦な面で静止する動きが正しいか検証してみたいと思います。

加速はされていますが、減速はされていない印象です。また、後半になると地面からボールが浮き上がっており、物理法則を無視しているような気がします。

OpenAI Soraと比較

次にOpenAI Soraで作られている動画と同じプロンプトで動画を生成してみます。OpenAI Soraで作られている動画はこちらを参考にします。

A stylish woman walks down a Tokyo street filled with warm glowing neon and animated city signage. She wears a black leather jacket, a long red dress, and black boots, and carries a black purse. She wears sunglasses and red lipstick. She walks confidently and casually. The street is damp and reflective, creating a mirror effect of the colorful lights. Many pedestrians walk about.

和訳:暖かく光るネオンとアニメーションの街の看板で埋め尽くされた東京の通りを歩くスタイリッシュな女性。黒いレザージャケットに赤いロングドレス、黒いブーツを履き、黒い財布を持っている。サングラスに赤い口紅。彼女は自信に満ち、さりげなく歩いている。通りは湿っていて反射し、色とりどりのライトの鏡のような効果を生み出している。多くの歩行者が歩いている。

HunyuanVideoに最適化したプロンプトではないからでしょうか。パッとみただけでAIで生成された動画、というのがわかる動画かと思います。

ビールのCM動画生成

最後にビールのCM動画を生成してみたいと思います。入力するプロンプトは以下です。

A cold glass of beer with golden liquid and a perfect frothy head placed on a wooden table, surrounded by soft golden light. Slow motion bubbles rising in the glass as condensation forms on the surface. A tagline appears: ‘Crafted to Perfection.’

和訳:木製のテーブルの上に置かれた、黄金色の液体と完璧な泡立ちを持つ冷たいグラスのビール。グラスの表面に結露が生じ、泡が立ち上がるスローモーション。「Crafted to Perfection」というキャッチフレーズが表示される。

キャッチフレーズが表示されるようプロンプトを与えましたが、それは遵守されませんでした。しかし、液体の流れとしての物理法則は遵守されています。

なお、高品質動画を効率的に作成する方法とGoogle Colabでの実装について詳しく知りたい方は、下記の記事を合わせてご確認ください。

まとめ

本記事ではHunyuanVideoについて解説し、実際の使い方について紹介をしました。オープンソースでありながらクローズドモデルに匹敵する性能を持つのは本当でした。

HunyuanVideoで生成される動画はどれも高画質でありリアリティにあふれ、非常にクオリティの高いものばかりです。今後はHunyuanVideoを使ったショート動画や映画などさまざまな場面で使われることが予想できますね。

ぜひ皆さんも本記事を参考にHunyuanVideoを使ってみてください。

最後に

いかがだったでしょうか?

生成AIで貴社のビジネス課題を解決し、効率的かつ高品質な成果を実現。最新テクノロジーの導入で競争優位を築きましょう。

株式会社WEELは、自社・業務特化の効果が出るAIプロダクト開発が強みです!

開発実績として、

・新規事業室での「リサーチ」「分析」「事業計画検討」を70%自動化するAIエージェント
・社内お問い合わせの1次回答を自動化するRAG型のチャットボット
・過去事例や最新情報を加味して、10秒で記事のたたき台を作成できるAIプロダクト
・お客様からのメール対応の工数を80%削減したAIメール
・サーバーやAI PCを活用したオンプレでの生成AI活用
・生徒の感情や学習状況を踏まえ、勉強をアシストするAIアシスタント

などの開発実績がございます。

まずは、無料相談にてご相談を承っておりますので、ご興味がある方はぜひご連絡ください。

➡︎生成AIを使った業務効率化、生成AIツールの開発について相談をしてみる。

生成AIを社内で活用していきたい方へ
無料相談

「生成AIを社内で活用したい」「生成AIの事業をやっていきたい」という方に向けて、生成AI社内セミナー・勉強会をさせていただいております。

セミナー内容や料金については、ご相談ください。

また、サービス紹介資料もご用意しておりますので、併せてご確認ください。

投稿者

  • 翔平

    総合病院で10年間理学療法士として勤務し、その後Pythonを独学で学びデータアナリストとして転職。趣味はキックボクシング

  • URLをコピーしました!
  • URLをコピーしました!
目次