【GPT 4 Turbo】128,000トークン入力対応のOpenAI最強モデルの使い方〜実践まで解説

GPT 4 Turbo OpenAI マルチモーダル

ChatGPT APIまで活用しているヘビーユーザーのみなさん、GPT 4がよりハイスペック&ローコストな「GPT 4 Turbo」になって帰ってきました!

生みの親・サムアルトマン氏によるGPT 4 Turboの投稿が以下のとおり、大バズりしています。

それもそのはずです。入力できる文字数が4倍になり、API経由でもマルチモーダルに対応……

にも関わらず、利用料金はGPT 4の半額以下に抑えられているんです!

この記事ではそんなOpenAIの新顔・GPT 4 Turboを詳しく紹介していきます。

最後まで読んでいただくとWebサイト&アプリ開発の幅が広がるはずです。ぜひ最後までお読みください!

なお、OpenAI DevDayで公開されたGPT 4 Turbo以外の最新ツールを知りたい方はこちらの記事をご覧ください。
OpenAI DevDay日本最速レポ!GPT-4 Turbo、GPTs、Assistant APIとは?ChatGPT最新情報徹底解説

なお弊社では、最新のOpenAIツールを使った開発について1時間無料相談を承っています。こちらからお気軽にご相談ください。
→無料相談で話を聞いてみる

目次

GPT 4の改良版!GPT 4 Turboの概要

日本時間で2023年11月7日に開催済みのOpenAI DevDayで、GPT 4の改良版「GPT 4 Turbo」が発表されました。以下、登場したばかりであるGPT 4 Turboのすごいところ&スペック上の変更点をお届けします!

GPT 4 Turboのすごいところ4点

GPT 4 Turboのすごいところは以下の4点です。GPT 4をAPI経由で使いこなしていた方なら、これまで以上にできることが増えるはずです!

入力できる文字数の増加128,000トークンの読み込みが可能です。つまり、GPT 4と比べて、入力できるトークン数が4倍になっています。本に換算すると300ページ分ものテキストが入力できるとのことです。

API上でのマルチモーダル対応API経由で画像入力ができるようになりました!さらにDALL E3による画像出力やTTSによる音声出力もAPI上で可能です。

回答の最適化:XMLやJSONなど特定のフォーマットについて、回答での表記が統一できるようになっています。さらに同じ内容の再生成機能も解放されています。

利用料金の軽減:GPT 4と比べて入力料金が1/3以下、出力料金が1/2以下とそれぞれ安くなっています。

以上の概要だけでも、GPT 4 Turboがただものではないということが伝わってきますよね。さらに次の見出しでは、他のモデルとスペックを比べながら、そのすごさを掘り下げていきます!

参考記事:New models and developer products announced at DevDay

GPT 4 Turboのスペックを他のモデルと比較

まずはGPT 4 TurboとOpenAIの他モデルとで、スペックを比較した下表をご覧ください。

GPT 4 TurboGPT 4GPT 3.5 TurboGPT 3.5
入力できる文章量128,000トークン最大32,768トークン最大16,385トークン4,096トークン
学習データの鮮度2023年4月まで2021年9月まで2021年9月まで2021年6月まで
API経由で入力できるデータテキスト
画像
テキストテキストテキスト
API経由で出力できるデータテキスト
画像&音声
テキストテキストテキスト

以上のとおり、GPT 4 Turboでは大幅に性能が向上しています。

とくに注目していただきたいのが「GPT 4とGPT 4 Turboの差」と「GPT 3.5 TurboとGPT 4の差」です。実はGPT 4 Turboになるにあたって、モデルチェンジ以上の改修を受けている部分もあるのです!

次はそんなGPT 4 Turboで実現した機能を紹介していきます。

参考記事:Models – OpenAI API

なお、同じOpenAI DevDayで発表されたGPTsについて知りたい方はこちらの記事をご覧ください。
【GPTs】ノーコードで自分専用のChatGPTを開発できる!使い方や活用事例を紹介

GPT 4 Turboでできるようになったこと7選

GPT 4 Turboから、できるようになったことは大きく7点です。まずはアップデートを受けたFunction Callingから、その機能をみていきましょう!

【Function Calling】ワンアクションで複雑なアプリ操作ができる!

以前から使えたアプリの関数呼び出し機能「Function Calling」が、GPT 4 Turboにて強化されています!具体的には1回の命令で、複数の関数がまとめて呼び出せるようになりました。さらに呼び出しの精度も向上しています。

たとえばAPI経由でExcelを操作する際、これまでは「一列の合計をSUM関数で出して」と「合計をROUND関数で四捨五入して」というふうに、合計2回の命令が必要でした。

ですがこれからは「一列の合計を出して四捨五入して」と、ワンアクションで命令するだけで済むんです!

【JSON modeなど】より精密なコーディングが可能!

GPT 4にソースコードを生成してもらう際、プログラミング言語の表記がブレることってありませんでしたか?GPT 4が使えるGitHub Copilot Xなどでも同様のトラブルは起こりますよね。

それがなんとGPT 4 Turboからは、表記のレギュレーションを守ってくれるようになるんです!たとえば常にXMLの文法で回答させたり、正しいJSONを記述させたり(JSON mode)といったことが可能です。

先ほどのFunction Callingとあわせて、アプリ開発がより一層ラクになりますね!

【Reproducible Outputs / Log Probabilities】回答の再現性がコントロール可能、生成確率までチェックできる!

GPT 4 Turboの思考過程が近日、公開予定です!具体的には以下の2機能が実装されます。

  • Reproducible Outputs(再現性のある出力):同じ回答が繰り返し生成できる機能
  • Log Probabilities:トークンの生成確率をさかのぼって確認できる機能

2機能の活用事例などは紹介されていませんが、どちらもOpenAI社内では好評だったとのこと。実装が楽しみです!

【GPT 4 Turbo with vision】API経由での画像入力もできる!

ついにAPI経由で、画像入力ができるようになりました!画像入力用のAPIはGPT 4Vではなく「GPT 4 Turbo with vision」という名前で追加されています。

このGPT 4 Turbo with visionを応用すれば、連携先のアプリ&Webサイトからの画像入力が実現します。その活用事例は以下のとおりです。

  • 通販サイトの商品画像から説明を生成させる
  • レジャー施設の館内マップを使って案内させる

ここに後述の音声合成機能「Text to speech」を合わせれば、目の不自由な方に向けた自動ガイダンスも可能。GPT 4 Turbo以降は福祉分野でも、生成AIの利用が進んでいきそうです。

【DALL E 3】API経由で画像生成まで可能!

GPT 4 TurboのAPIと並行して、ChatGPT外でDALL E3が使える「Images API」も解放されています。

これまでコカコーラなど一部の大企業は、DALL E3を使ったキャンペーンを行っていました。ですがImages APIの登場以降は、誰でも気軽にDALL E3を使ったイベントが開催できるようになるはずです。

ちなみに生成にかかる料金は画像1枚あたり0.04ドルから、とのことでした。

【Text to speech】人間に近いクオリティの音声がAPI経由で合成できる!

GPT 4 Turboのリリースに伴って、API経由での音声合成機能「Text to speech(TTS)」も解放されています。以降はChatGPT外のWebサイトやアプリでも、コンテンツの音声出力が実現します。

ちなみにこのTTSでは、6つのプリセット音声から好きな声色が設定可能。さらにベースグレードのtts-1のほか、高音質版のtts-1-hdも選べます。

入力は1,000文字あたり0.015ドルとのことでした。これならバリアフリーに配慮した、Webサイトが作れますね。

【Whisper v3】APIでも使える自動音声認識モデルが近日実装!

Open AIの音声認識機能「Whisper V3」が近々、API経由での利用にも対応するようです。

GPT 4 TurboのAPIと組み合わせれば、会話形式でWebサイトやアプリが操作できるようになるかもしれません!続報を待ちましょう。

GPT 4 Turboの料金体系

以上のとおり、スペック面でGPT 4から大幅な進化を遂げたGPT 4 Turbo。その分、利用料金が高くなっていそうですが……

GPT 4 TurboGPT 4(32K版)GPT 4(8K版)
入力にかかる料金0.01ドル / 1000トークン0.06ドル / 1000トークン0.03ドル / 1000トークン
出力にかかる料金0.03ドル / 1000トークン0.12ドル / 1000トークン0.06ドル / 1000トークン

なんとこのように、ベーシックな8K版のGPT 4と比べても利用料金が大幅に安くなっているんです!どれぐらい安くなっているかというと……

  • GPT 4(8K版)と比べて入力料金が1/3・出力料金が1/2
  • GPT 4(32K版)と比べて入力料金が1/6・出力料金が1/4

このようにGPT 4からGPT 4 Turboに乗り換えるだけで、入力&出力にかかる合計料金が半分以下に抑えられます。

なお、無料でGPT 4を使う方法について詳しく知りたい方は、下記の記事を合わせてご確認ください。
GPT4が無料で使える!?ChatGPTへ課金する前に検討してほしいAIサービス3選

GPT 4 Turboの使い方

現在は、APIから利用することができます。

使用できるモデルは、gpt-4-1106-previewとgpt-4-vision-previewの二種類です。

GPT-4 Turbo with Visionを使用する場合は後者を選択してください。

APIは以下の手順で利用できます。

1.OpenAIのアカウント取得
2.APIキーの取得
3.プログラミング言語でAPIを利用(Python)

1.OpenAIアカウントの開設

OpenAIアカウントを解説する為に以下のサイトにアクセスして下さい。

OpenAI API

真ん中の「Get started」をクリックして、BOTではないかの認証があるのでクリックして次に進んでください。 アカウント作成に必要なのフォームが表示されるので、必要情報を入力してアカウントを作成して下さい。 メールアドレスのサインアップの他、GoogleアカウントかMicrosoftアカウントの認証も利用することも出来ます。 パスワードや簡単な質問に回答する必要があるのでアナウンスに従って入力してください。 またサインアップには電話認証が必要になるので事前にSMSが利用可能な電話番号を用意して下さい。

2.APIキーの発行

アカウントを作成したら以下のサイトにアクセスしてAPIキーを取得する為に「+ Create new secret Key」をクリックして下さい。 OpenAPI-keys

APIキーが発行されます、あとで利用するので保存しておいて下さい。

3.プログラミング言語でAPIを利用(Python)

最後にプログラミング言語での実行します。 今回はPython で利用してみます。

Personal -> View API keys -> Create new secret key

openai のインストール

まずPythonで利用する為のライブラリをインストールします。

コマンドラインで

pip3 install openai

windowsの場合は

pip install openai

これでAPIを利用する準備ができました。

以下はサンプルコードです。

Pythonプログラム

import openai
openai.api_key = "YOUR_API_KEY" #前述で発行したAPIをKeyに置き換えてください
response = openai.ChatCompletion.create(
    model="gpt-4-1106-preview",
    messages=[
        {"role": "user", "content": "質問内容をここに書きます"}, 
    ]
)
print(response["choices"][0]["message"]["content"]) #返信のみを出力

なお、GPT-4 Turboを利用できるのは、ChatGPT plusなどのGPT-4にアクセスできる方のみですのでご注意ください。

GPT 4 Turboを実際に使ってみた

それでは早速GPT 4 Turboを使っていきます。

ここでは、新たに利用可能になったGPT-4 Turbo with Vision APIや、Parallel function callingJSON Modeなどを試します。

GPT-4 Turbo with Vision API

まずは、APIでの利用が可能になったGPT-4 Turbo with Visionから使っていきます。

以下のMandrill.pngを送信します。

b64=$(base64 Mandrill.png | tr -d '\\n')
payload='{
    "model": "gpt-4-vision-preview",
    "messages": [
      {
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": "この画像、どう思う?"
          },
          {
            "type": "image_url",
            "image_url": {
              "url": "data:image/png;base64,'"$b64"'"
            }
          }
        ]
      }
    ],
    "max_tokens": 300
  }'
echo $payload | curl <https://api.openai.com/v1/chat/completions> \\
  -H "Content-Type: application/json" \\
  -H "Authorization: Bearer $OPENAI_API_KEY" \\
  --data-binary @-
{
  "id": "chatcmpl-8ISJDxrAR1oCfS6O6WqmwCl6uq3Vr",
  "object": "chat.completion",
  "created": 1699409415,
  "model": "gpt-4-1106-vision-preview",
  "usage": {
    "prompt_tokens": 271,
    "completion_tokens": 186,
    "total_tokens": 457
  },
  "choices": [
    {
      "message": {
        "role": "assistant",
        "content": "この画像は、鮮やかな色彩のマンドリルの顔をクローズアップしたものです。マンドリルは、その特徴的な赤と青の顔色と、黄色がかった毛皮で知られる霊長類です。彼らは社会性が高く、アフリカの熱帯雨林に生息しています。画像は非常に鮮明で、マンドリルの顔の細部をはっきりと捉えています。自然の美しさと野生動物の多様性を感じさせるすばらしい写真ですね。"
      },
      "finish_details": {
        "type": "stop",
        "stop": "<|fim_suffix|>"
      },
      "index": 0
    }
  ]
}

モデルに入力して実行すると、以下のテキストを出力しました。

この画像は、鮮やかな色彩のマンドリルの顔をクローズアップしたものです。
マンドリルは、その特徴的な赤と青の顔色と、黄色がかった毛皮で知られる霊長類です。
彼らは社会性が高く、アフリカの熱帯雨林に生息しています。画像は非常に鮮明で、マンドリルの顔の細部をはっきりと捉えています。
自然の美しさと野生動物の多様性を感じさせるすばらしい写真ですね。

非常に詳細で綺麗な文章が返ってきました。

画像の説明だけでなく、それがマンドリルであることを認識して、その背景まで説明してくれています。

これだけでも高性能なのが伝わってきますね!

Parallel function calling

続いて、Parallel function callingを使用します。

詳細は以下のページを参照してみてください。

parallel-function-calling

function callingのスキーマは複雑になりがちなのでPythonを使用します。

既存のfunction callingとは違い、toolとして差別化されているようです。

import openai  # 1.1.1
import json
funcs = [
    {
        "type": "function", "function":  {
            "name": "buy_item",
            "description": "商品を買う",
            "parameters": {
                "type": "object",
                "properties": {
                    "item": {
                        "type": "string",
                        "description": "商品名",
                    },
                    "quantity": {
                        "type": "number",
                        "description": "購入する商品の数",
                    }
                },
                "required": ["item","quantity"],
            },
        }
    }
]

message = """牛乳を1つ買ってきてちょうだい。卵も6つお願い"""
client = openai.OpenAI()
response = client.chat.completions.create(
    messages=[
        {
            "role": "user",
            "content": message
        }
    ],
    model="gpt-4-1106-preview",
    tools=funcs
)
tool_calls = response.choices[0].message.tool_calls
for call in tool_calls:
    args = json.loads(call.function.arguments)
    print(args["item"], args["quantity"])

JSON Mode

次に、新たに追加されたJSON Modeを使用していきます。

json-mode

以下のように、要件定義書を与えてWeb API設計書をJSON形式で出力してもらいます。

import openai  # 1.1.1

system = """
# 命令書
あなたはウェブエンジニアです。要件定義書が与えられるので、下記の制約条件に従って必要なWeb APIの設計書を出力してください。

# 制約条件
- [要件定義書]に準拠すること
- [API設計書形式]に合わせたJSONで出力すること
- GET/POST/PUT/DELETE、それぞれ別のAPIとして扱うこと

# API設計書形式の例

```json
{
    apis: [
        {
            name: "ユーザー登録",
            description: "ユーザーを登録する",
            method: "POST",
            path: "/users",
            request: ユーザー情報,
            response: ユーザーID
        }
    ]    
}
```

"""
message = """
# 要件定義書

ToDoアプリの設計書(概略版)

1. 概要
この文書は、シンプルなToDoアプリの基本的な設計を記述します。アプリは、ユーザーがタスクを簡単に追加、管理、完了としてマークできる機能を提供することを目的とします。

2. 機能要件
- **タスクの追加**: ユーザーは新しいタスクを追加できる。
- **タスクの一覧表示**: 追加されたタスクが一覧で表示される。
- **タスクの編集**: ユーザーは既存のタスクを編集できる。
- **タスクの削除**: ユーザーはタスクを削除できる。
- **タスクの完了**: ユーザーはタスクを完了としてマークできる。
- **フィルタリング**: 完了したタスクと未完了のタスクを分けて表示できる。

3. 非機能要件
- **使いやすさ**: インターフェースは直感的で簡単に使えるものでなければならない。
- **パフォーマンス**: タスクの追加、編集、削除は迅速に行われる。
- **拡張性**: 将来的な機能追加に対応できる設計であること。

4. システムアーキテクチャ
- **クライアント**: スマートフォンやウェブブラウザで動作するフロントエンド。
- **サーバー**: タスクのデータを保持し、クライアントとのやり取りを行うバックエンドサーバー。

5. 技術スタック
- フロントエンド: ReactまたはVue.js
- バックエンド: Node.js + Express
- データベース: MongoDBまたはPostgreSQL

6. ユーザーインターフェース
- **タスク一覧画面**: タスクがリストアップされる。
- **タスク追加モーダル**: タスクを追加するためのポップアップモーダル。
- **タスク編集インターフェース**: 既存タスクを編集するためのインターフェース。
- **フィルタリングオプション**: 完了/未完了を切り替えるためのUIコンポーネント。

7. データモデル
- **タスク**: 
  - ID
  - タイトル
  - 説明
  - 完了状態
  - 作成日時
  - 更新日時

8. セキュリティ
- **認証**: ユーザーはアカウントを作成し、ログインすることでタスクを管理できる。
- **データ保護**: HTTPSを使用してデータを暗号化し、データベースは定期的にバックアップする。

9. 開発とデプロイ
- 開発にはGitを使用し、ソースコードはGitHubに保管する。
- デプロイにはHerokuまたはAWSを使用する。

10. テスト
- 単体テスト: 各機能に対して単体テストを行う。
- 統合テスト: 全体のワークフローが正常に機能するかのテストを行う。
- ユーザーアクセプタンステスト: 実際のユーザーがテストを行い、使用感を評価する

"""
client = openai.OpenAI()
response = client.chat.completions.create(
    messages=[
        {
            "role": "system",
            "content": system
        },
        {
            "role": "user",
            "content": message
        }
    ],
    model="gpt-3.5-turbo-1106",
)
print(response.choices[0].message.content)

出力されたものがこちらです。


```json
{
    "apis": [
        {
            "name": "タスクの追加",
            "description": "新しいタスクを追加する",
            "method": "POST",
            "path": "/tasks",
            "request": {
                "title": "string",
                "description": "string"
            },
            "response": {
                "taskId": "string"
            }
        },
        {
            "name": "タスクの一覧表示",
            "description": "追加されたタスクを一覧で表示する",
            "method": "GET",
            "path": "/tasks",
            "request": null,
            "response": [
                {
                    "taskId": "string",
                    "title": "string",
                    "description": "string",
                    "completed": "boolean",
                    "createdAt": "string",
                    "updatedAt": "string"
                }
            ]
        },
        {
            "name": "タスクの編集",
            "description": "既存のタスクを編集する",
            "method": "PUT",
            "path": "/tasks/{taskId}",
            "request": {
                "title": "string",
                "description": "string",
                "completed": "boolean"
            },
            "response": {
                "message": "string"
            }
        },
        {
            "name": "タスクの削除",
            "description": "タスクを削除する",
            "method": "DELETE",
            "path": "/tasks/{taskId}",
            "request": null,
            "response": {
                "message": "string"
            }
        },
        {
            "name": "タスクの完了",
            "description": "タスクを完了としてマークする",
            "method": "PUT",
            "path": "/tasks/{taskId}/complete",
            "request": null,
            "response": {
                "message": "string"
            }
        },
        {
            "name": "タスクの未完了へ変更",
            "description": "完了済みのタスクを未完了に変更する",
            "method": "PUT",
            "path": "/tasks/{taskId}/incomplete",
            "request": null,
            "response": {
                "message": "string"
            }
        }
    ]
}

しっかりとしたJSON形式で出力してくれました。

なお、JSONモードオフでは以下のような出力でした。

# API設計書

```json
{
    "apis": [
        {
            "name": "タスクの追加",
            "description": "新しいタスクを追加する",
            "method": "POST",
            "path": "/tasks",
            "request": {
                "title": "string",
                "description": "string"
            },
            "response": {
                "taskId": "string"
            }
        },
        {
            "name": "タスク一覧取得",
            "description": "追加されたタスクを一覧で表示する",
            "method": "GET",
            "path": "/tasks",
            "request": null,
            "response": [
                {
                    "taskId": "string",
                    "title": "string",
                    "description": "string",
                    "completed": "boolean",
                    "createdAt": "string",
                    "updatedAt": "string"
                }
            ]
        },
        {
            "name": "タスクの編集",
            "description": "既存のタスクを編集する",
            "method": "PUT",
            "path": "/tasks/{taskId}",
            "request": {
                "title": "string",
                "description": "string",
                "completed": "boolean"
            },
            "response": {
                "message": "string"
            }
        },
        {
            "name": "タスクの削除",
            "description": "タスクを削除する",
            "method": "DELETE",
            "path": "/tasks/{taskId}",
            "request": null,
            "response": {
                "message": "string"
            }
        }
    ]    
}

上記のAPI設計書では、要件定義書に記載されている機能要件に基づいて、タスクの追加、一覧取得、編集、削除それぞれのAPIを定義しました。それぞれのAPIは、適切なメソッドとパスを持ち、リクエストとレスポンスのデータ構造も示しています。

DALLE-3 API

画像生成モデルであるDALLE-3もAPIで利用可能になったので、こちらも使用してみます。


## DALLE-3 API

画像生成モデル。

```bash
curl <https://api.openai.com/v1/images/generations> \\
  -H "Content-Type: application/json" \\
  -H "Authorization: Bearer $OPENAI_API_KEY" \\
  -d '{
    "model": "dall-e-3",
    "prompt": "WEELというAIメディアを運営している会社の写真。",
    "n": 1,
    "size": "1024x1024"
  }' | jq -r '.data[0].url' | xargs curl -o out.png
{
  "created": 1699409960,
  "data": [
    {
      "revised_prompt": "An image of an office environment where the AI media named 'WEEL' is being run. The workplace is modern and filled with high-tech gadgets. Employees are scattered across the space, engaged in their tasks - some are in conference rooms brainstorming, others are at their desks coding. Representation includes a variety of genders and descents such as Caucasian, Hispanic, Middle-Eastern, Black, and South Asian equally distributed.",
      "url": "xxxxxx"
    }
  ]
}

プロンプト

WEELというAIメディアを運営している会社の写真。

以下の画像と改訂されたプロンプトが出力されました。

"An image of an office environment where the AI media named 'WEEL' is being run. The workplace is modern and filled with high-tech gadgets. Employees are scattered across the space, engaged in their tasks - some are in conference rooms brainstorming, others are at their desks coding. Representation includes a variety of genders and descents such as Caucasian, Hispanic, Middle-Eastern, Black, and South Asian equally distributed."

相変わらず超高精細な画像を生成してくれますね。

短いプロンプトからこれだけの情報を持つ正確なプロンプトを生成して画像に反映されているのもすごいですよね!

TTS

音声合成機能「Text to speech(TTS)」がAPIで使えるようになっていたので、こちらも使用してみます。

curl https://api.openai.com/v1/audio/speech \ 
-H "Authorization: Bearer $OPENAI_API_KEY" \ 
-H "Content-Type: application/json" \ 
-d '{ 
 "model": "tts-1", 
 "input": "ウィールはAIメディアを運営しています。", 
 "voice": "alloy"
}' \ 
--output out.mp3

以下の音声が出力されました!

音声ファイル:out.mp3(ここだけ挿入できないので追加してください!)

このように、単にLLMとしての性能が向上しただけでなく、新機能の追加やマルチモーダル機能との連携が教化されており、本当に唯一無二のマルチモーダルAIモデルに進化したなーという印象です。

なお、GPT 3.5 Turboを使った開発の過程について詳しく知りたい方は、下記の記事を合わせてご確認ください。
【やってみた】GPT3.5 Turboのファインチューニングで岸田総理ボット開発するまで

より汎用性に磨きがかかったGPT 4 Turbo

当記事ではさらなる進化を遂げたGPT 4 Turboを紹介してきました。もう一度そのすごいところを4点、以下で復習しておきましょう!

入力できる文字数の増加:GPT 4(32K版)の4倍、最大128kトークンまで入力可能に
API上でのマルチモーダル対応
:API経由でも画像の入力、ならびに画像&音声の出力が可能に
回答の最適化
:同一内容の再生成やソースコードの表記統一が可能に
利用料金の軽減
:8K版のGPT 4と比べても、半額以下で入力&出力が可能に

このようにスペックを大幅に向上させつつも、運用コストは半額以下に抑えてくれています。ちなみに今回増えた機能は、以下の7つでしたね。

GPT 4 Turboで追加された機能7つ
  • ワンアクションでの複雑なアプリ操作
  • より精密なコーディング
  • 回答の再現性のコントロール
  • API経由での画像入力
  • API経由での画像生成
  • API経由での音声出力
  • API経由での音声認識(近日実装)

よりハイスペックで万能、そしてお得になったGPT 4 Turbo。あなたならどう使いますか?

当メディアでは引き続き、GPT 4 Turboの動向を追って参ります!企業から個人まですごい活用事例を紹介していく予定ですので、ぜひ引き続きチェックしてくださいね。

最後に

いかがだったでしょうか?

弊社では

・マーケティングやエンジニアリングなどの専門知識を学習させたAI社員の開発
・要件定義・業務フロー作成を80%自動化できる自律型AIエージェントの開発
・生成AIとRPAを組み合わせた業務自動化ツールの開発
・社内人事業務を99%自動化できるAIツールの開発
ハルシネーション対策AIツールの開発
自社専用のAIチャットボットの開発

などの開発実績がございます。

まずは、「1時間の無料相談」にてご相談を承っておりますので、ご興味がある方はぜひご連絡ください。

➡︎生成AIを使った業務効率化、生成AIツールの開発について相談をしてみる。

生成AIを社内で活用していきたい方へ

「生成AIを社内で活用したい」「生成AIの事業をやっていきたい」という方に向けて、生成AI社内セミナー・勉強会をさせていただいております。

セミナー内容や料金については、ご相談ください。

また、弊社紹介資料もご用意しておりますので、併せてご確認ください。

投稿者

  • 2sc

    テクニカルライター 大学時代はアリの生態を研究。 ラボで唯一、Pythonを使ってデータ分析を効率化していた。 現在はライターとして、オウンドメディアや学術記事の執筆に当たっている。

  • URLをコピーしました!
  • URLをコピーしました!
目次