Chatterbox Turboとは?高速かつ高評価を獲得したオープンソースTTSを徹底解説

- 同条件のゼロショット評価において、Chatterbox Turboは主要TTSモデルより高いスコア
- 5〜10秒の短い音声でも自然さと音質が評価
- 高速性だけでなく、主観評価でも競争力を持つモデル
2025年12月、Resemble AIから新たな音声生成モデルがリリースされました!
今回リリースされた「Chatterbox Turbo」は従来のTTSに比べ処理速度は高速に、遅延は最小に抑えられています。
本記事ではChatterbox Turboの概要から仕組み、実際に使う方法について解説をします。本記事を最後までお読みいただければChatterbox Turboの理解が深まり、自身でも実装が可能です。
ぜひ最後までお読みください!
\生成AIを活用して業務プロセスを自動化/
Chatterbox Turboの概要
Chatterbox Turboは、Resemble AIがリリースしたオープンソースのテキスト読み上げ(TTS)モデル。
リアルタイム用途を強く意識しており、GPU上で実時間比の6倍速、350Mパラメータ、75msレイテンシ、ボイスクローニングに必要な参照音声は5秒といった指標が報告されています。

Chatterbox Turboは「速さ」「表現力」「オープンさ」を同時に求める開発で、有力な選択肢になるのではないでしょうか。
Chatterbox Turboの位置付けとしては、計算資源とVRAMを抑えつつ高品質な音声を出すことにフォーカスしたモデルです。speech-token-to-melデコーダを蒸留し、生成ステップを10から1に減らすことでボトルネックを解消。
低レイテンシのボイスエージェントを主目的にしつつ、ナレーションやクリエイティブ用途にも適しています。
さらに、[cough]や[laugh]などのパラ言語タグがChatterbox Turboでネイティブ対応になりました。
Chatterbox Turboの仕組み
ここではChatterbox Turboがどのような技術構成で高速な音声生成を実現しているのかを解説します。
結論から言えば、従来型TTSのボトルネックを明確に切り分け、推論経路を極端に短縮した点がChatterbox Turboの強みです。リアルタイム応答を前提とした設計思想が、アーキテクチャ全体に反映されていると言えるでしょう。
Chatterbox Turboは、テキスト入力を直接音声波形へ変換するのではなく、speech tokenを中間表現として扱う構成です。通常のChatterbox系モデルでは、speech-token-to-mel変換に複数ステップのデコーダ処理が使われていました。
一方でChatterbox Turboでは、このデコーダを蒸留し、生成ステップを10から1へ削減。計算量と待ち時間を同時に削るための割り切った設計がポイントです。
処理フローでは、入力テキストはまず言語モデル部分でspeech tokenへ変換されます。その後、単一ステップ化されたデコーダにより、即座にmelスペクトログラムが生成されます。
最終段ではボコーダ処理を経て音声波形が出力される流れです。
この直線的なパイプライン構成が、75msという低レイテンシを支えている要因と考えられます。
Chatterbox Turboの特徴

ここでは、Chatterbox Turboが持つ主な特徴を解説します。
Chatterbox Turboは単なる高速TTSではなく、実運用を意識した設計が随所に見られる点が重要です。特に「低レイテンシ」「表現力」「オープン性」の3つがChatterbox Turboの中心になるでしょう。
リアルタイム用途に最適化された高速性能
Chatterbox Turboは、GPU上で実時間比6倍速の推論性能を示しています。レイテンシは約75msとされており、対話型アプリケーションを強く意識した数値です。

上記の図は、Chatterbox TurboとElevenLabs Turbo 2.5、Cartesia Sonic 3、VibeVoice 7Bを対象に行われたヘッドトゥヘッド評価の結果です。
5〜10秒の参照音声と同一テキストを用いたゼロショット条件で比較されており、自然さや音質に関する選好率が示されています。
いずれの組み合わせでも、Chatterbox Turboが高いスコアを獲得しているのがわかります。
少量音声で成立するボイスクローニング
Chatterbox Turboでは、約5秒の参照音声からゼロショットでのボイスクローニングが可能です。
事前学習や長時間の収録を必要としない点は、導入コストの低さにつながります。プロトタイプ検証から本番運用までを短期間で回せる点が魅力でしょう。
個別話者に合わせた音声生成を手軽に試せるという特徴もあります。
パラ言語表現へのネイティブ対応
Chatterbox Turboは、[laugh]や[cough]といったパラ言語タグをネイティブに扱えます。従来のTTSでは後処理で補うことが多かった要素をモデル内部で統合。

その結果、感情表現や間の演出を含めた音声生成が可能です。会話表現の自然さを重視する場面で、効果を発揮すると見られます。
なお、150ms低遅延の次世代リアルタイム音声認識モデルであるScribe v2 Realtimeについて詳しく知りたい方は、下記の記事を合わせてご確認ください。

Chatterbox Turboの安全性・制約
Chatterbox Turboを利用する上で、いくつか安全性と制約を知っておくと良いでしょう。
まず安全性の観点で特徴的なのが、生成音声への透かし埋め込みです。Chatterbox Turboの出力音声には、PerThによるウォーターマークが組み込まれています。これにより、合成音声であるかを検証できる仕組みが提供されました。
音声ディープフェイクへの懸念を踏まえた、予防的なアプローチと言えます。
一方で、入力データの保存方針や暗号化方式など、詳細なセキュリティ実装については公式には明らかにされていません。
音声データや参照音声がどのように扱われるのかは、公開情報からは判断できない状況です。そのため、個人情報や機密情報を含む音声を扱う場合は注意が必要でしょう。
本番利用を検討する際には、提供元への確認が前提になります。
Chatterbox Turboの料金
Chatterbox Turbo自体はオープンソースモデルとして提供。
そのためモデルの利用そのものは無料で使えますが、モデルを動かすためのインフラコストは別途考える必要があります。
また、RESEMBLE.AI経由で利用する場合には、無料プランからエンタープライズプランまで用意されており、プランに応じて課金が必要です。
| プラン | 料金 |
|---|---|
| CREATOR | $9.5/月(初月のみ) 移行$19/月 |
| PROFESSIONAL | $99/月 |
| BUSINESS | $699/月 |
| ENTERPRISE | 要問い合わせ |
Chatterbox Turboのライセンス
Chatterbox TurboはMITライセンスに基づいて提供されています。
通常、MITでは暗黙の許可と解釈される場合が多いですが、技術特許に関わる利用には留意が必要です。
| 利用用途 | 可否 |
|---|---|
| 商用利用 | ⭕️ |
| 改変 | ⭕️ |
| 配布 | ⭕️ |
| 特許使用 | 明示的には記載なし |
| 私的使用 | ⭕️ |
なお、49種類のボイスと10言語対応の音声合成モデルであるQwen3-TTSについて詳しく知りたい方は、下記の記事を合わせてご確認ください。

Chatterbox Turboの実装方法
では実際に使っていきましょう。google colaboratoryで実装を試みましたが、下記のようなエラーが出てしまうので、ローカルにダウンロードして実行をします。Hugging Faceはこちら。
× Getting requirements to build wheel did not run successfully.
│ exit code: 1
╰─> No available output.実行時の環境は以下です。
• Hardware: Apple Mac mini (M4Pro, Apple Silicon)
• OS: macOS 15.x
• Python: 3.11.x
• Environment: conda (miniforge)
• Execution device: CPU (Apple Silicon, CUDA not available)
まずはconda環境を作ります。
conda create -n chatterbox-turbo python=3.11 -y
conda activate chatterbox-turbo続いてライブラリのインストールです。
pip install -U pip setuptools wheel
pip install "numpy<1.26"
pip install -U "huggingface-hub<1.0,>=0.23.2" transformers
pip install torch torchaudio※huggingface-hub==1.x が入ると transformers が落ちる可能性があるため、1.0未満に固定。実際に私は1.xだと実行できませんでした。
次にクローン。
git clone https://github.com/resemble-ai/chatterbox.git
cd chatterbox
pip install -e .
# 確認
python -c "from chatterbox.tts_turbo import ChatterboxTurboTTS; print('Turbo import OK')"Hugging Faceの認証。
hf auth loginこれで準備は完了です。
サンプルコードはこちら
import torch
import torchaudio as ta
from chatterbox.tts_turbo import ChatterboxTurboTTS
device = "cpu"
model = ChatterboxTurboTTS.from_pretrained(device=device)
text = "Hello. This is Chatterbox Turbo running on an M4 Mac with conda."
wav = model.generate(text)
ta.save("turbo.wav", wav, model.sr)
print("saved turbo.wav")上記を実行すればHugging Faceからダウンロードされます。

該当ディレクトリにturbo.wavが保存されているのを確認して、再生してみましょう。
実際に生成されたのがこちら。
かなり流暢にテキストを読み上げてくれていますね。
Chatterbox Turboの活用事例
ここでは、Chatterbox Turboの特性を踏まえた活用事例や利用シーンを考えてみます。
リアルタイム音声エージェント
Chatterbox Turboは、75msという低レイテンシと実時間比6倍速の推論性能を備えています。この特徴から、対話型AIやカスタマーサポート用の音声エージェントでの活用が考えられます。
ユーザーの発話に即応する必要がある場面では、遅延の少なさがUXに直結します。音声対話を前提としたUIで特に有効でしょう。
ゲーム・バーチャルキャラクター
[laugh]や[cough]などのパラ言語タグをネイティブに扱える点は、キャラクター表現に向いています。
セリフ単位で感情や仕草を音声に反映できるため、没入感の高い演出が可能です。リアルタイム性を求められるライブ配信やVTuber領域でも活用できそうです。
Chatterbox Turboを実際に使ってみた
前述の実装方法では英語のみでしたので、いくつかの言語で読み上げてもらいたいと思います。
サンプルコードはこちら
import torch
import torchaudio as ta
from chatterbox.tts_turbo import ChatterboxTurboTTS
# ===== 設定 =====
device = "cpu" # M4 MacはCPUでOK
output_file = "multilang_8langs.wav"
silence_sec = 0.4 # 言語間の無音(秒)
texts = [
("ja", "こんにちは"),
("en", "Hello"),
("fr", "Bonjour"),
("de", "Guten Tag"),
("es", "Hola"),
("it", "Ciao"),
("ru", "Здравствуйте"),
("zh", "你好"),
]
# ===== モデルロード =====
model = ChatterboxTurboTTS.from_pretrained(device=device)
silence = torch.zeros(1, int(silence_sec * model.sr))
waves = []
# ===== 生成 =====
for lang, text in texts:
print(f"Generating [{lang}] {text}")
wav = model.generate(text)
waves.append(wav)
waves.append(silence)
# 最後の無音を削除
full_wav = torch.cat(waves[:-1], dim=-1)
# ===== 保存 =====
ta.save(output_file, full_wav, model.sr)
print(f"saved {output_file}")実際に生成された音声がこちら。
ロシア語は聞き取れなかったですが、上記8つの言語で日本語と中国語は適切に読み上げられていない気がしますね。
なので、今度は日本語のみでテキストを読み上げてもらいます。
サンプルコードはこちら
import torchaudio as ta
from chatterbox.tts_turbo import ChatterboxTurboTTS
device = "cpu" # Apple Silicon / M4 Mac
model = ChatterboxTurboTTS.from_pretrained(device=device)
text = (
"これは音声読み上げのデモです。"
"システムは入力された文章を解析し、音声として出力します。"
"操作はとても簡単で、文章を入力するだけで自動的に読み上げが行われます。"
"それでは、音声をご確認ください。"
)
wav = model.generate(text)
ta.save("japanese_demo.wav", wav, model.sr)
print("saved japanese_demo.wav")生成された音声がこちら。
やはり日本語は難しいみたいですね。対応言語はEnglishと書いてありましたが、フランス語とかを読み上げられていたので、できるかと思いましたが、ダメなようです。
なお、300ms応答のリアルタイムTTSモデルであるVibeVoice-Realtime-0.5Bについて詳しく知りたい方は、下記の記事を合わせてご確認ください。

まとめ
本記事ではChatterbox Turboの概要から仕組み、実際に使う方法について解説をしました。現時点では公式にサポートされているのは英語のみですが、極低遅延のTTSはリアルタイム処理では非常に重宝するため、今後は日本語もサポートされると良いなと思います。
ぜひ皆さんも本記事を参考にChatterbox Turboを使ってみてください!
最後に
いかがだったでしょうか?
Chatterbox Turboは、リアルタイム性と音声品質を両立したTTSを検討する際の有力な選択肢です。
音声エージェントの導入を検討している方は、まず小規模な検証から試してみてはいかがでしょうか。
株式会社WEELは、自社・業務特化の効果が出るAIプロダクト開発が強みです!
開発実績として、
・新規事業室での「リサーチ」「分析」「事業計画検討」を70%自動化するAIエージェント
・社内お問い合わせの1次回答を自動化するRAG型のチャットボット
・過去事例や最新情報を加味して、10秒で記事のたたき台を作成できるAIプロダクト
・お客様からのメール対応の工数を80%削減したAIメール
・サーバーやAI PCを活用したオンプレでの生成AI活用
・生徒の感情や学習状況を踏まえ、勉強をアシストするAIアシスタント
などの開発実績がございます。
生成AIを活用したプロダクト開発の支援内容は、以下のページでも詳しくご覧いただけます。
➡︎株式会社WEELのサービスを詳しく見る。
まずは、「無料相談」にてご相談を承っておりますので、ご興味がある方はぜひご連絡ください。
➡︎生成AIを使った業務効率化、生成AIツールの開発について相談をしてみる。

「生成AIを社内で活用したい」「生成AIの事業をやっていきたい」という方に向けて、生成AI社内セミナー・勉強会をさせていただいております。
セミナー内容や料金については、ご相談ください。
また、サービス紹介資料もご用意しておりますので、併せてご確認ください。
