GPT 4 Turboとは?機能やメリット、ChatGPT歴代モデルとの違いを解説

ChatGPT APIまで活用しているヘビーユーザーのみなさん、よりハイスペック&ローコストな「GPT 4 Turbo」が登場しました!
生みの親・サムアルトマン氏によるGPT 4 Turboの投稿が以下のとおり、大バズりしています。
それもそのはず。こちらは無印GPT 4で入力できる文字数が4倍になり、API経由でもマルチモーダルに対応しているにも関わらず、利用料金が半額以下に抑えられているんです!
この記事ではそんなGPT 4の改良版・GPT 4 Turboの機能 / 使い方 / いつから使えるのか / 料金…etc.を詳しく紹介していきます。最後まで読んでいただくとWebサイト&アプリ開発の幅が広がるので、ぜひ最後までお読みください!
GPT 4の改良版!GPT 4 Turboの概要
日本時間で2023年11月7日に開催されたOpenAI DevDayで、GPT 4の改良版「GPT 4 Turbo」が発表されました。以下、このGPT 4 Turboのすごいところ&無印GPT 4とのスペックの違いを解説します。
GPT 4と比較すると、GPT 4 Turboには以下のような特徴があります。※1
- 入力できる文字数の増加
- API上でのマルチモーダル
- 高度なプログラミングタスクに対応
- 利用料金の軽減
ChatGPT API周りの機能が、無印GPT 4比で充実しています。
そんなGPT 4 Turboの特徴を1つずつ解説していきます。
入力できる文字数の増加
GPT 4 Turboからは、GPT 4比で4倍の128,000トークンまで読み込みが可能になりました。本に換算すると300ページ分ものテキストが入力できるとのことです。
API上でのマルチモーダル対応
GPT 4 Turbo以降は、ChatGPT API経由で画像入力ができるようになっています。さらにAPI経由で他モデルと組み合わせる使い方も可能で、DALL E3による画像出力機能やTTSによる音声出力機能などが実装できます。
高度なプログラミングタスクに対応
GPT 4 Turboからは、XMLやJSONなど特定のフォーマットについて、回答での表記が統一できるようになっています。さらに同じ内容の再生成機能も解放されています。
利用料金の軽減
GPT 4と比べてGPT 4 Turboでは、ChatGPT APIでの入力料金が1/3以下、出力料金が1/2以下とそれぞれ安くなっています。
※OpenAI o1では、GPT 4 Turbo比でAPIでの入力料金が1.5倍、・出力料金が2倍高くなっています。以上の概要だけでも、「GPT 4 Turbo」がただものではないということがわかりますね。
さらに次の見出しでは、他のモデルとスペックを比べながら、そのすごさを掘り下げていきます!
GPT 4 Turboと他のモデルのスペックの違いを比較
まずはGPT 4 TurboとOpenAIの他モデルとで、スペックを比較した以下の表をご覧ください。※2
OpenAI o1 | GPT 4o | GPT 4 Turbo | GPT 4 | GPT 3.5 Turbo | GPT 3.5 | |
---|---|---|---|---|---|---|
いつから公開 | 2024年12月5日〜 | 2024年5月13日〜 | 2023年11月7日〜 | 2023年3月14日〜 | 2023年6月13日〜 | 2022年3月15日〜 |
入力できる文章量 | 200,000トークン | 128,000トークン | 128,000トークン | 最大32,768トークン | 最大16,385トークン | 4,096トークン |
学習データの鮮度 | 2023年10月まで | 2023年10月まで | 2023年12月まで(一部モデルは2023年4月まで) | 2021年9月まで | 2021年9月まで | 2021年6月まで |
API経由で入力できるデータ | テキスト&画像 | テキスト&画像&音声 | テキスト&画像 | テキスト | テキスト | テキスト |
API経由で出力できるデータ | テキスト | テキスト&画像&音声 | テキスト | テキスト | テキスト | テキスト |
以上のとおり、GPT 4 Turboでは大幅に性能が向上しています。
とくに注目していただきたいのが、「GPT 4とGPT 4 Turboの差」と「GPT 3.5 TurboとGPT 4の差」です。実はGPT 4 Turboにリニューアルするにあたって、モデルチェンジ以上の改修を受けている部分もあるのです!
次はそんなGPT 4 Turboで実現した機能を紹介していきます。
GPT 4 Turboでできるようになったこと7つ
GPT 4 Turboで大きくアップデートされたのは以下の7つの要素です。
- Function Calling
- JSON modeなど
- Reproducible Outputs / Log Probabilities
- GPT 4 Turbo with vision
- DALL E 3
- Text to speech
- Whisper v3(いつから使えるかは不明)
まずはアップデートを受けたFunction Callingから、その機能をみていきましょう!
【Function Calling】ワンアクションで複雑なアプリ操作ができる!
以前から使えたアプリの関数呼び出し機能「Function Calling」が、GPT 4 Turboにて強化されています!具体的には1回の命令で、複数の関数がまとめて呼び出せるようになりました。さらに呼び出しの精度も向上しています。
たとえばAPI経由でExcelを操作する際、これまでは「一列の合計をSUM関数で出して」と「合計をROUND関数で四捨五入して」というふうに、合計2回の命令が必要でした。
それがアップデートで、「一列の合計を出して四捨五入して」と、ワンアクションで命令するだけで済むようになりました!
【JSON modeなど】より精密なコーディングが可能!
GPT 4にソースコードを生成してもらう際、プログラミング言語の表記がブレることがよくありました。GPT 4が使えるGitHub Copilot Xなどでも同様のトラブルは起こりますよね。
しかしGPT 4 Turboからは、表記のレギュレーションを守ってくれるようになったのです!たとえば常にXMLの文法で回答させたり、正しいJSONを記述させたり(JSON mode)といった使い方が可能です。
先ほどのFunction Callingとあわせて、アプリ開発がより一層簡単になりますね!
【Reproducible Outputs / Log Probabilities】回答の再現性がコントロール可能、生成確率までチェックできる!
GPT 4 Turboの思考過程をハックできる機能も実装されました!具体的には以下の2機能がAPIで使えるようになっています。
- Reproducible Outputs(再現性のある出力):同じ回答が繰り返し生成できる機能
- Log Probabilities:トークンの生成確率をさかのぼって確認できる機能
2機能の活用事例・使い方などは紹介されていませんが、どちらもOpenAI社内では好評だったとのこと。エンジニアのみなさん、ぜひぜひこちらもお試しください!
【GPT 4 Turbo with vision】API経由での画像入力もできる!
ついにAPI経由で、画像入力ができるようになりました!画像入力用のAPIはGPT 4Vではなく「GPT 4 Turbo with vision」という名前で追加されています。(正式モデル名はgpt-4-turbo-2024-04-09)
このGPT 4 Turbo with visionを応用すれば、連携先のアプリ&Webサイトからの画像入力が実現します。その活用事例は以下のとおりです。
- 通販サイトの商品画像から説明を生成させる
- レジャー施設の館内マップを使って案内させる
後述の音声合成機能「Text to speech」を合わせれば、目の不自由な方に向けた自動ガイダンスも可能。GPT 4 Turbo以降は福祉分野でも、生成AIの利用が進んでいきそうです。
【DALL E 3】API経由で画像生成まで可能!
これは「いつから使えるの?」と待っていた方も多いはず!GPT 4 TurboのAPIと並行して、ChatGPT外でDALL E3が使える「Images API」もリリースされています。
これまでコカコーラなど一部の大企業は、DALL E3を使ったキャンペーンを行っていました。ですがImages APIの登場以降は、誰でも気軽にDALL E3を使ったイベントが開催できるようになるはずです。
ちなみに生成にかかる料金は画像1枚あたり0.04ドル〜0.08ドル、とのことでした。
【Text to speech】人間に近いクオリティの音声がAPI経由で合成できる!
GPT 4 Turboのリリースに伴って、API経由での音声合成機能「Text to speech(TTS)」も解放されています。以降はChatGPT外のWebサイトやアプリでも、コンテンツの音声出力が実現します。
このTTSでは、6つのプリセット音声から好きな声色が設定可能。さらにベースグレードのtts-1のほか、高音質版のtts-1-hdも選べます。
入力料金は1,000文字あたり15ドルとのことでした。これならバリアフリーに配慮したWebサイトが作れますね。
【Whisper v3】APIでも使える自動音声認識モデル
Open AIの音声認識機能「Whisper V3」が近々、API経由での利用にも対応するようですが、2025年22024年6月時点ではまだ対応していません。(API版はWhisper v2-large)
APIでは提供されていないものの、Hugging Faceからダウンロードしてローカルで使うことはできます。
GPT 4 TurboのAPIと組み合わせれば、会話形式でWebサイトやアプリが操作できるようになるかもしれません!いつから使えるのかは不明ですが、続報を待ちましょう。
なお、API版のWhisperについて詳しく知りたい方は、下記の記事を合わせてご確認ください。

GPT 4 Turboの料金体系
以上のとおり、スペック面でGPT 4から大幅な進化を遂げたGPT 4 Turbo。その分、利用料金が高くなっていそうですが……実はそうでもありません!
o1 | GPT 4o | GPT 4 Turbo | GPT 4(32K版) | GPT 4(8K版) | |
---|---|---|---|---|---|
入力にかかる料金 | 15ドル / 1000トークン | 2.5ドル / 1000トークン | 10ドル / 1000トークン | 60ドル / 1000トークン | 30ドル / 1000トークン |
出力にかかる料金 | 60ドル / 1000トークン | 10ドル / 1000トークン | 30ドル / 1000トークン | 120ドル / 1000トークン | 60ドル / 1000トークン |
このように、ベーシックな8K版のGPT 4と比べても利用料金が大幅に安くなっているんです!※3具体的なコストの違いはというと……
- GPT 4(8K版)と比べて入力料金が1/3・出力料金が1/2
- GPT 4(32K版)と比べて入力料金が1/6・出力料金が1/4
このようにGPT 4からGPT 4 Turboに乗り換えるだけで、入力&出力にかかる合計料金が半分以下に抑えられます。
ちなみに、旧モデルであるGPT 4 Turboは現状APIでの提供のみとなっており、ChatGPTでは使えません。
参考までに、ChatGPTの各プランの料金と特典の違いを載せておきます。※4
無料版 | ChatGPT Plus | ChatGPT Pro | ChatGPT Team | ChatGPT Enterprise | |
---|---|---|---|---|---|
料金 | 無料 | 月額20ドル | 月額200ドル | 月額25ドル(年払い)月額30ドル(月払い) | ASK |
特典 | ・GPT-4o mini へのアクセス ・GPT-4oへの限定アクセス ・標準音声モード ・GPTsの利用 ・ファイルアップロード、高度なデータ分析、Web ブラウジング、画像生成への限定アクセス | ・無料版の特典が付属(制限は拡大) ・o1 および o1-mini への限定アクセス ・GPTsの作成 | ・Plusの特典が付属 ・GPT-4oとo1 への無制限アクセス ・高度な音声モードへの無制限アクセス ・o1 プロモードへのアクセス | ・Plusまでの特典一式が付属 ・GPT-4o miniへの無制限アクセス ・ワークスペースでの共有が可能に ・入力が学習に転用されなくなる | ・Teamまでの特典一式が付属 ・各モデルへのアクセスが無制限に ・大量のデータ入力にも対応 |
ChatGPTではすでに使えなくなったGPT 4 Turboですが、Microsoftが提供しているCopilotの無料版なら使えます。
CopilotとChatGPTの違いが気になる方は、以下の記事をご覧ください。

GPT 4 Turboを利用するメリット

GPT-4 Turboを利用すると、以下のようなメリットを受けられます。
- AIチャットボットを作成して問い合わせ業務を自動化できる
- 議事録や報告書などを効率よく作成できる
- 顧客向けに新しいAIサービスを提供できる
以下でそれぞれ解説していくので、利用を検討している方は参考にしてみてください。
AIチャットボットを作成して問い合わせ業務を自動化できる
GPT-4 TurboをAPI経由で連携すれば、AIチャットボットの作成が可能です。社内向けにAIチャットボットを導入すれば、カスタマーからの問い合わせ業務をAIに任せて自動化できます。
企業側には、人件費削減や労働力の確保といったメリットがありますが、ユーザー側にも24時間365日悩みを解決できるという大きなメリットがあります。
議事録や報告書などを効率よく作成できる
GPT-4 Turboなら、議事録や報告書の作成もお手の物です。とくに、API経由でText to speech(TTS)の機能を利用すれば、会議音声の文字起こしもできます。
議事録や報告書の作成といったルーティン業務を効率化すれば、よりクリエイティブな活動に時間を回せるのも魅力です。
顧客向けに新しいAIサービスを提供できる
GPT-4 TurboのAPIを活用すれば、新しいAIサービスを開発して顧客に提供できます。GPT-4 Turboが使えるサービスとしては、Microsoftが提供している「Microsoft Copilot」が有名です。
さすがにCopoilotに対抗するのは無理がありますが、AIアシスタントやチャットボットなどを高いレベルで開発できれば、十分顧客に高い価値を届けられる可能性があります。
GPT 4 Turboを利用するデメリット・注意点

利用すると多くのメリットをもたらすGPT-4 Turboですが、以下のようなデメリットや注意点が存在します。
- 最新のモデルではない
- ほかに安いAPIモデルがある
- 情報の正確性に欠ける可能性がある
とくに、ほかに高性能かつ安く使えるAPIのモデルがあることには注意が必要です。
以下で詳しく解説していくので、導入を決める前に一度目を通しておきましょう。
最新のモデルではない
2025年2月現在の最新モデルは、「OpenAI o1」となっており、GPT-4 Turboは最新ではありません。
つまり、性能の高さを重視しているのであれば、GPT-4 Turboよりも新しいOpenAI o1やGPT-4oを利用すべきです。
ほかに安いAPIのモデルがある
GPT-4 Turboは、GPT4に比べると安いですが、あとからリリースされた「GPT-4o」のほうがさらに安いです。
そのため、API料金の手頃さを求めてGPT-4 Turboをチェックしたなら、「GPT-4o」のほうがより好条件で利用できます。
情報の正確性に欠ける可能性がある
多くの生成AIが抱えている課題の1つですが、GPT-4で出力された情報が必ずしも正しいとは限りません。
GPT-4が回答を生成する際に参照しているインターネット上の情報に誤りがあったり、モデル自体には2023年12月までの学習データしか備わっていないためです。
そのため、GPT-4 Turboを利用する際は、必ずファクトチェックをしましょう。
なお、ChatGPTを企業利用するリスクが知りたい方は、以下の記事もご覧ください。

GPT 4 Turboの使い方
ここからはGPT 4 Turboの使い方を紹介していきます。
以前は有料版ChatGPTでも使えたGPT 4 Turboですが、ChatGPTで使えるモデルが新しくなったことにより、現在ではAPIでしか利用できません。
したがって、ここではAPI経由でGPT 4 Turboを使う方法を紹介していきます。
ちなみに使用できるモデルは……
- gpt-4-turbo / gpt-4-turbo-2024-04-09(画像入力対応)
- gpt-4-0125-preview
- gpt-4-1106-preview
の3種類。
APIは以下の3ステップで利用できます。
1.OpenAIのアカウント取得
2.APIキーの取得
3.プログラミング言語でAPIを利用(Python)
ということで、ここからは各手順について詳しくみていきましょう!
1.OpenAIアカウントの開設
OpenAIアカウントを開設する為に以下のサイトにアクセスして下さい。

真ん中の「Get started」をクリックして、BOTではないかの認証があるのでクリックして次に進んでください。
アカウント作成に必要なフォームが表示されるので、必要情報を入力してアカウントを作成します。 メールアドレスのサインアップの他、GoogleアカウントかMicrosoftアカウントの認証を利用することも可能です。
パスワードや簡単な質問に回答する必要があるので、アナウンスに従って入力します。 サインアップには電話認証が必要になるので事前にSMSが利用可能な電話番号を用意して下さい。
2.APIキーの発行
アカウントを作成したら以下のサイトにアクセスしてAPIキーを取得する為に「+ Create new secret Key」をクリックして下さい。 OpenAPI-keys

発行されたAPIキーは、あとで利用するので保存しておいて下さい。

3.プログラミング言語でAPIを利用(Python)
最後にプログラミング言語でAPIを利用します。 今回はPythonを利用してみました。
- 概要リンク
https://platform.openai.com/overview - ドキュメント
https://platform.openai.com/docs/quickstart/build-your-application - APIキー発行
Personal -> View API keys -> Create new secret key
openai のインストール
まずPythonで利用する為のライブラリをインストールします。
コマンドラインで、
pip3 install openai
windowsの場合は、
pip install openai
これでAPIを利用する準備ができました。
以下はサンプルコードです。
Pythonプログラム
import openai
openai.api_key = "YOUR_API_KEY" #前述で発行したAPIをKeyに置き換えてください
response = openai.ChatCompletion.create(
model="gpt-4-1106-preview",
messages=[
{"role": "user", "content": "質問内容をここに書きます"},
]
)
print(response["choices"][0]["message"]["content"]) #返信のみを出力
なお、GPT-4 Turboを利用できるのは、ChatGPT plusなどのGPT-4にアクセスできる方のみですのでご注意ください。
GPT 4 Turboを実際に使ってみた
それでは早速GPT 4 Turboを使っていきます。ここでは、新たに利用可能になったGPT-4 Turbo with Vision APIや、Parallel function calling、JSON Modeなどを試します。
GPT-4 Turbo with Vision API
まずは、APIでの利用が可能になったGPT-4 Turbo with Visionから使っていきます。
以下のMandrill.pngを送信します。

b64=$(base64 Mandrill.png | tr -d '\\n')
payload='{
"model": "gpt-4-vision-preview",
"messages": [
{
"role": "user",
"content": [
{
"type": "text",
"text": "この画像、どう思う?"
},
{
"type": "image_url",
"image_url": {
"url": "data:image/png;base64,'"$b64"'"
}
}
]
}
],
"max_tokens": 300
}'
echo $payload | curl <https://api.openai.com/v1/chat/completions> \\
-H "Content-Type: application/json" \\
-H "Authorization: Bearer $OPENAI_API_KEY" \\
--data-binary @-
{
"id": "chatcmpl-8ISJDxrAR1oCfS6O6WqmwCl6uq3Vr",
"object": "chat.completion",
"created": 1699409415,
"model": "gpt-4-1106-vision-preview",
"usage": {
"prompt_tokens": 271,
"completion_tokens": 186,
"total_tokens": 457
},
"choices": [
{
"message": {
"role": "assistant",
"content": "この画像は、鮮やかな色彩のマンドリルの顔をクローズアップしたものです。マンドリルは、その特徴的な赤と青の顔色と、黄色がかった毛皮で知られる霊長類です。彼らは社会性が高く、アフリカの熱帯雨林に生息しています。画像は非常に鮮明で、マンドリルの顔の細部をはっきりと捉えています。自然の美しさと野生動物の多様性を感じさせるすばらしい写真ですね。"
},
"finish_details": {
"type": "stop",
"stop": "<|fim_suffix|>"
},
"index": 0
}
]
}
モデルに入力して実行すると、以下のテキストが出力されました。
この画像は、鮮やかな色彩のマンドリルの顔をクローズアップしたものです。
マンドリルは、その特徴的な赤と青の顔色と、黄色がかった毛皮で知られる霊長類です。
彼らは社会性が高く、アフリカの熱帯雨林に生息しています。画像は非常に鮮明で、マンドリルの顔の細部をはっきりと捉えています。
自然の美しさと野生動物の多様性を感じさせるすばらしい写真ですね。
非常に詳細で綺麗な文章が返ってきました。
画像の説明だけでなく、それがマンドリルであることを認識して、種の特徴まで説明してくれています。
これだけでも高性能なのが伝わってきますね!
Parallel function calling
続いて、Parallel function callingを使用します。
詳細は以下のページを参照してみてください。
function callingのスキーマは複雑になりがちなので、Pythonを使用します。
既存のfunction callingとは違い、toolとして差別化されているようです。
import openai # 1.1.1
import json
funcs = [
{
"type": "function", "function": {
"name": "buy_item",
"description": "商品を買う",
"parameters": {
"type": "object",
"properties": {
"item": {
"type": "string",
"description": "商品名",
},
"quantity": {
"type": "number",
"description": "購入する商品の数",
}
},
"required": ["item","quantity"],
},
}
}
]
message = """牛乳を1つ買ってきてちょうだい。卵も6つお願い"""
client = openai.OpenAI()
response = client.chat.completions.create(
messages=[
{
"role": "user",
"content": message
}
],
model="gpt-4-1106-preview",
tools=funcs
)
tool_calls = response.choices[0].message.tool_calls
for call in tool_calls:
args = json.loads(call.function.arguments)
print(args["item"], args["quantity"])
JSON Mode
次に、新たに追加されたJSON Modeを使用していきます。
以下のように、要件定義書を与えてWeb API設計書をJSON形式で出力してもらいます。
import openai # 1.1.1
system = """
# 命令書
あなたはウェブエンジニアです。要件定義書が与えられるので、下記の制約条件に従って必要なWeb APIの設計書を出力してください。
# 制約条件
- [要件定義書]に準拠すること
- [API設計書形式]に合わせたJSONで出力すること
- GET/POST/PUT/DELETE、それぞれ別のAPIとして扱うこと
# API設計書形式の例
```json
{
apis: [
{
name: "ユーザー登録",
description: "ユーザーを登録する",
method: "POST",
path: "/users",
request: ユーザー情報,
response: ユーザーID
}
]
}
```
"""
message = """
# 要件定義書
ToDoアプリの設計書(概略版)
1. 概要
この文書は、シンプルなToDoアプリの基本的な設計を記述します。アプリは、ユーザーがタスクを簡単に追加、管理、完了としてマークできる機能を提供することを目的とします。
2. 機能要件
- **タスクの追加**: ユーザーは新しいタスクを追加できる。
- **タスクの一覧表示**: 追加されたタスクが一覧で表示される。
- **タスクの編集**: ユーザーは既存のタスクを編集できる。
- **タスクの削除**: ユーザーはタスクを削除できる。
- **タスクの完了**: ユーザーはタスクを完了としてマークできる。
- **フィルタリング**: 完了したタスクと未完了のタスクを分けて表示できる。
3. 非機能要件
- **使いやすさ**: インターフェースは直感的で簡単に使えるものでなければならない。
- **パフォーマンス**: タスクの追加、編集、削除は迅速に行われる。
- **拡張性**: 将来的な機能追加に対応できる設計であること。
4. システムアーキテクチャ
- **クライアント**: スマートフォンやウェブブラウザで動作するフロントエンド。
- **サーバー**: タスクのデータを保持し、クライアントとのやり取りを行うバックエンドサーバー。
5. 技術スタック
- フロントエンド: ReactまたはVue.js
- バックエンド: Node.js + Express
- データベース: MongoDBまたはPostgreSQL
6. ユーザーインターフェース
- **タスク一覧画面**: タスクがリストアップされる。
- **タスク追加モーダル**: タスクを追加するためのポップアップモーダル。
- **タスク編集インターフェース**: 既存タスクを編集するためのインターフェース。
- **フィルタリングオプション**: 完了/未完了を切り替えるためのUIコンポーネント。
7. データモデル
- **タスク**:
- ID
- タイトル
- 説明
- 完了状態
- 作成日時
- 更新日時
8. セキュリティ
- **認証**: ユーザーはアカウントを作成し、ログインすることでタスクを管理できる。
- **データ保護**: HTTPSを使用してデータを暗号化し、データベースは定期的にバックアップする。
9. 開発とデプロイ
- 開発にはGitを使用し、ソースコードはGitHubに保管する。
- デプロイにはHerokuまたはAWSを使用する。
10. テスト
- 単体テスト: 各機能に対して単体テストを行う。
- 統合テスト: 全体のワークフローが正常に機能するかのテストを行う。
- ユーザーアクセプタンステスト: 実際のユーザーがテストを行い、使用感を評価する
"""
client = openai.OpenAI()
response = client.chat.completions.create(
messages=[
{
"role": "system",
"content": system
},
{
"role": "user",
"content": message
}
],
model="gpt-3.5-turbo-1106",
)
print(response.choices[0].message.content)
出力されたものがこちらです。
```json
{
"apis": [
{
"name": "タスクの追加",
"description": "新しいタスクを追加する",
"method": "POST",
"path": "/tasks",
"request": {
"title": "string",
"description": "string"
},
"response": {
"taskId": "string"
}
},
{
"name": "タスクの一覧表示",
"description": "追加されたタスクを一覧で表示する",
"method": "GET",
"path": "/tasks",
"request": null,
"response": [
{
"taskId": "string",
"title": "string",
"description": "string",
"completed": "boolean",
"createdAt": "string",
"updatedAt": "string"
}
]
},
{
"name": "タスクの編集",
"description": "既存のタスクを編集する",
"method": "PUT",
"path": "/tasks/{taskId}",
"request": {
"title": "string",
"description": "string",
"completed": "boolean"
},
"response": {
"message": "string"
}
},
{
"name": "タスクの削除",
"description": "タスクを削除する",
"method": "DELETE",
"path": "/tasks/{taskId}",
"request": null,
"response": {
"message": "string"
}
},
{
"name": "タスクの完了",
"description": "タスクを完了としてマークする",
"method": "PUT",
"path": "/tasks/{taskId}/complete",
"request": null,
"response": {
"message": "string"
}
},
{
"name": "タスクの未完了へ変更",
"description": "完了済みのタスクを未完了に変更する",
"method": "PUT",
"path": "/tasks/{taskId}/incomplete",
"request": null,
"response": {
"message": "string"
}
}
]
}
しっかりとしたJSON形式で出力してくれました。
なお、JSONモードオフでは以下のような出力でした。
# API設計書
```json
{
"apis": [
{
"name": "タスクの追加",
"description": "新しいタスクを追加する",
"method": "POST",
"path": "/tasks",
"request": {
"title": "string",
"description": "string"
},
"response": {
"taskId": "string"
}
},
{
"name": "タスク一覧取得",
"description": "追加されたタスクを一覧で表示する",
"method": "GET",
"path": "/tasks",
"request": null,
"response": [
{
"taskId": "string",
"title": "string",
"description": "string",
"completed": "boolean",
"createdAt": "string",
"updatedAt": "string"
}
]
},
{
"name": "タスクの編集",
"description": "既存のタスクを編集する",
"method": "PUT",
"path": "/tasks/{taskId}",
"request": {
"title": "string",
"description": "string",
"completed": "boolean"
},
"response": {
"message": "string"
}
},
{
"name": "タスクの削除",
"description": "タスクを削除する",
"method": "DELETE",
"path": "/tasks/{taskId}",
"request": null,
"response": {
"message": "string"
}
}
]
}
上記のAPI設計書では、要件定義書に記載されている機能要件に基づいて、タスクの追加・一覧取得・編集・削除それぞれのAPIを定義しました。それぞれのAPIは、適切なメソッドとパスを持ち、リクエストとレスポンスのデータ構造も示しています。
DALLE-3 API
画像生成モデルであるDALLE-3もAPIで利用可能になったので、こちらも使用してみます。
## DALLE-3 API
画像生成モデル。
```bash
curl <https://api.openai.com/v1/images/generations> \\
-H "Content-Type: application/json" \\
-H "Authorization: Bearer $OPENAI_API_KEY" \\
-d '{
"model": "dall-e-3",
"prompt": "WEELというAIメディアを運営している会社の写真。",
"n": 1,
"size": "1024x1024"
}' | jq -r '.data[0].url' | xargs curl -o out.png
{
"created": 1699409960,
"data": [
{
"revised_prompt": "An image of an office environment where the AI media named 'WEEL' is being run. The workplace is modern and filled with high-tech gadgets. Employees are scattered across the space, engaged in their tasks - some are in conference rooms brainstorming, others are at their desks coding. Representation includes a variety of genders and descents such as Caucasian, Hispanic, Middle-Eastern, Black, and South Asian equally distributed.",
"url": "xxxxxx"
}
]
}
プロンプト
WEELというAIメディアを運営している会社の写真。
以下の画像と改訂されたプロンプトが出力されました。

An image of an office environment where the AI media named ‘WEEL’ is being run. The workplace is modern and filled with high-tech gadgets. Employees are scattered across the space, engaged in their tasks – some are in conference rooms brainstorming, others are at their desks coding. Representation includes a variety of genders and descents such as Caucasian, Hispanic, Middle-Eastern, Black, and South Asian equally distributed.
相変わらず超高精度な画像を生成してくれますね。
短いプロンプトからこれだけの情報を持つ正確なプロンプトを生成し、画像に反映してくれるのはすごいですよね!
TTS
音声合成機能「Text to speech(TTS)」がAPIで使えるようになっていたので、こちらも使用してみます。
curl https://api.openai.com/v1/audio/speech \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "tts-1",
"input": "ウィールはAIメディアを運営しています。",
"voice": "alloy"
}' \
--output out.mp3
こちらで音声が出力されました!
このように、単にLLMとしての性能が向上しただけでなく、新機能の追加やマルチモーダル機能との連携が強化されており、本当に唯一無二のマルチモーダルAIモデルに進化したな、という印象です。
なお、日本語特化の音声生成AIについて詳しく知りたい方は、下記の記事を合わせてご確認ください。

GPT-4 Turboの活用事例

GPT-4 Turboの活用事例を調査した結果、実際に以下のようなことに活用している方がいました。
- 【ライティングでの活用事例】GPT-4 Turboで研究論文や長い記事を簡潔に要約
- 【ビジネスでの活用事例】GPT-4 Turboを活用したチャットボットでIT専門家を育成
- 【イラスト制作での活用事例】OnsideAIでGPT-4 Turboを活用してアイデアを簡単に生成
- 【情報収集での活用事例】GPT-4 Turbowith Visionで画像から説明文を生成
今回は上記4つの事例について詳しく解説していきます。
【ライティングでの活用事例】GPT-4 Turboで研究論文や長い記事を簡潔に要約
GPT-4 Turboを活用することで、長い記事や研究論文などを簡潔に要約することが可能です。※5
このツールを使用することで、複雑で詳細な内容を簡潔にまとめ、読者が主要なポイントを素早く把握できます。そのため、ライティング業務をする際のリサーチが容易になり、時間の節約になります。
また、会議の議事録や報告書を要約し、重要な決定やアクションポイントを明確にすることも可能です。
難しい論文を簡潔でわかりやすくできるため、ぜひ活用してください!
【ビジネスでの活用事例】GPT-4 Turboを活用したチャットボットでIT専門家を育成
GPT-4 Turboはビジネスシーンでも利用可能です。
具体的な活用事例としては、GMOメディアが ITパスポート対策講座に、GPT-4 Turboを活用したチャットボット機能AI先生を搭載したことが挙げられます。
この講座を受ける人は、パソコンやスマートフォンを使って過去の試験問題を解きながら、わからないことがあればすぐに質問できます。そして、AIからの適切な回答を通じて、より深く学べるのが特徴です。
GMOメディアは、この講座を提供することで、多くの人々がITスキルを学びデジタル社会で活躍できるようなIT専門家を育てることを目指しています。また、「コエテコbyGMO」というプログラムを通じて、既存のスキルを更新したり新しいスキルを身につける支援も行っています。
みなさんも、GPT-4 Turboを活用したチャットボットを導入して社員のスキルを向上させてみませんか?
【イラスト制作での活用事例】OnsideAIでGPT-4 Turboを活用してアイデアを簡単に生成
OnsideAIでGPT-4 Turboを活用することで、画像と簡単なプロンプトを入力することでアイデアを生成可能です。
このツイートでは、「電卓を作成してください」というプロンプトと画像を入力するだけで、簡単に電卓を作成できています。これは、プログラミングなどの専門的な知識がなくてもアプリを開発できることを意味しています。
この技術の素晴らしい点は、誰でも「こんなアプリがあればいいな」というアイデアを簡単に実現できることです。GPT-4 Turboを使えば、アイデアを具体的なアプリケーションに変換するプロセスが大幅に簡素化されます。
この技術は、アプリ開発の敷居を大きく下げ、多くの人々に開発の機会を提供します。だからこそ、多くの人々にこのツールを試してほしいと思います。ぜひ、GPT-4 Turboを活用してみてください!
【情報収集での活用事例】GPT-4 Turbowith Visionで画像から説明文を生成
GPT-4 Turbo with Visionを活用することで、画像内の人物や物体、背景などの要素について、人間がみているかのような具体的で正確な説明が可能です。
例えば、ツイートで紹介されているように、画像に写っている人物が首からIDカードか社員証を下げている様子を特定し説明文に反映させられます。また、人物だけでなく背景の詳細についても同様に説明することが可能です。
この技術は、教育や日常生活など、さまざまな分野での応用が期待されています。画像に関する情報を知りたいときに、GPT-4 Turbo with Visionを活用してみるといいでしょう!
なお、ChatGPTでビジネスメールを作る方法が知りたい方は、以下の記事もご覧ください。

より汎用性に磨きがかかったGPT 4 Turbo
この記事では、GPT-4から進化を遂げたGPT 4 Turboを紹介しました。
もう一度GPT4 Turboのすごいところ4つを復習しておきましょう!
- 入力できる文字数の増加:GPT 4(32K版)の4倍、最大128kトークンまで入力可能に
- API上でのマルチモーダル対応:API経由でも画像の入力、ならびに画像&音声の出力が可能に
- 回答の最適化:同一内容の再生成やソースコードの表記統一が可能に
- 利用料金の軽減:8K版のGPT 4と比べても、半額以下で入力&出力が可能に
このように、GPT-4からスペックを大幅に向上させつつも、運用コストは半額以下に抑えてくれています。
そして、今回増えた機能は以下の7つです。
- ワンアクションでの複雑なアプリ操作
- より精密なコーディング
- 回答の再現性のコントロール
- API経由での画像入力
- API経由での画像生成
- API経由での音声出力
- API経由での音声認識
当メディアでは引き続き、GPTシリーズの動向を追って参ります!
企業から個人まですごい活用事例を紹介していく予定ですので、ぜひ引き続きチェックしてくださいね。
最後に
いかがだったでしょうか?
GPT-4 Turboの圧倒的なコストパフォーマンスを活かせば、Webサービスやアプリの開発コストを削減しながら、より高度な生成AIの活用が可能になります。具体的な導入方法や最適な運用戦略について、詳しく知りたい方はぜひご相談ください。
株式会社WEELは、自社・業務特化の効果が出るAIプロダクト開発が強みです!
開発実績として、
・新規事業室での「リサーチ」「分析」「事業計画検討」を70%自動化するAIエージェント
・社内お問い合わせの1次回答を自動化するRAG型のチャットボット
・過去事例や最新情報を加味して、10秒で記事のたたき台を作成できるAIプロダクト
・お客様からのメール対応の工数を80%削減したAIメール
・サーバーやAI PCを活用したオンプレでの生成AI活用
・生徒の感情や学習状況を踏まえ、勉強をアシストするAIアシスタント
などの開発実績がございます。
まずは、「無料相談」にてご相談を承っておりますので、ご興味がある方はぜひご連絡ください。

「生成AIを社内で活用したい」「生成AIの事業をやっていきたい」という方に向けて、通勤時間に読めるメルマガを配信しています。
最新のAI情報を日本最速で受け取りたい方は、以下からご登録ください。
また、弊社紹介資料もご用意しておりますので、併せてご確認ください。