サイトのデザインが新しくなりました。

【GPT 4 Turbo】ChatGPT最強モデル!APIの使い方や料金、できることを解説

GPT 4 Turbo OpenAI マルチモーダル

ChatGPT APIまで活用しているヘビーユーザーのみなさん、よりハイスペック&ローコストな「GPT 4 Turbo」が登場しました!

生みの親・サムアルトマン氏によるGPT 4 Turboの投稿が以下のとおり、大バズりしています。

それもそのはず。入力できる文字数が4倍になり、API経由でもマルチモーダルに対応しているにも関わらず、利用料金はGPT 4の半額以下に抑えられているんです!

この記事ではそんなOpenAIの新顔・GPT 4 Turboを詳しく紹介していきます。

最後まで読んでいただくとWebサイト&アプリ開発の幅が広がるので、ぜひ最後までお読みください!

なお弊社では、生成AIツール開発についての無料相談を承っています。こちらからお気軽にご相談ください。

目次

GPT 4の改良版!GPT 4 Turboの概要

日本時間で2023年11月7日に開催されたOpenAI DevDayで、GPT 4の改良版「GPT 4 Turbo」が発表されました。以下、登場したばかりであるGPT 4 Turboのすごいところ&スペックの変更点を解説します。

GPT 4 Turboのすごいところ4つ

GPT 4 Turboのすごいところは以下の4つです。

  1. 入力できる文字数の増加
  2. API上でのマルチモーダル
  3. 回答の最適化
  4. 利用料金の軽減

GPT 4をAPI経由で使いこなしていた方なら、これまで以上にできることが増えるはずです!

1つずつ解説していきます。

1.入力できる文字数の増加

GPT 4と比べてトークン数は4倍の128,000トークンの読み込みが可能になりました。本に換算すると300ページ分ものテキストが入力できるとのことです。

2.API上でのマルチモーダル対応

API経由で画像入力ができるようになりました。さらにDALL E3による画像出力やTTSによる音声出力もAPI上で可能です。

3.回答の最適化

XMLやJSONなど特定のフォーマットについて、回答での表記が統一できるようになっています。さらに同じ内容の再生成機能も解放されています。

4.利用料金の軽減

GPT 4と比べて入力料金が1/3以下、出力料金が1/2以下とそれぞれ安くなっています。

以上の概要だけでも、「GPT 4 Turbo」がただものではないということがわかりますね。

さらに次の見出しでは、他のモデルとスペックを比べながら、そのすごさを掘り下げていきます!

参考記事:New models and developer products announced at DevDay

GPT 4 Turboのスペックを他のモデルと比較

まずはGPT 4 TurboとOpenAIの他モデルとで、スペックを比較した以下の表をご覧ください。

GPT 4 TurboGPT 4GPT 3.5 TurboGPT 3.5
入力できる文章量128,000トークン最大32,768トークン最大16,385トークン4,096トークン
学習データの鮮度2023年4月まで2021年9月まで2021年9月まで2021年6月まで
API経由で入力できるデータテキスト+画像テキストテキストテキスト
API経由で出力できるデータテキスト+画像&音声テキストテキストテキスト

以上のとおり、GPT 4 Turboでは大幅に性能が向上しています。

とくに注目していただきたいのが、「GPT 4とGPT 4 Turboの差」と「GPT 3.5 TurboとGPT 4の差」です。実はGPT 4 Turboになるにあたって、モデルチェンジ以上の改修を受けている部分もあるのです!

次はそんなGPT 4 Turboで実現した機能を紹介していきます。

参考記事:Models – OpenAI API

なお、同じOpenAI DevDayで発表されたGPTsについて知りたい方はこちらの記事をご覧ください。
【GPTs】ノーコードで自分専用のChatGPTを開発できる!使い方や活用事例を紹介

GPT 4 Turboでできるようになったこと7つ

GPT 4 Turboで大きくアップデートされたのは以下の7つの機能です。

  • Function Calling
  • JSON modeなど
  • Reproducible Outputs / Log Probabilities
  • GPT 4 Turbo with vision
  • DALL E 3
  • Text to speech
  • Whisper v3

まずはアップデートを受けたFunction Callingから、その機能をみていきましょう!

【Function Calling】ワンアクションで複雑なアプリ操作ができる!

以前から使えたアプリの関数呼び出し機能「Function Calling」が、GPT 4 Turboにて強化されています!具体的には1回の命令で、複数の関数がまとめて呼び出せるようになりました。さらに呼び出しの精度も向上しています。

たとえばAPI経由でExcelを操作する際、これまでは「一列の合計をSUM関数で出して」と「合計をROUND関数で四捨五入して」というふうに、合計2回の命令が必要でした。

それが今回のアップデートで、「一列の合計を出して四捨五入して」と、ワンアクションで命令するだけで済むようになりました!

【JSON modeなど】より精密なコーディングが可能!

GPT 4にソースコードを生成してもらう際、プログラミング言語の表記がブレることがよくありました。GPT 4が使えるGitHub Copilot Xなどでも同様のトラブルは起こりますよね。

しかしGPT 4 Turboからは、表記のレギュレーションを守ってくれるようになったのです!たとえば常にXMLの文法で回答させたり、正しいJSONを記述させたり(JSON mode)といったことが可能です。

先ほどのFunction Callingとあわせて、アプリ開発がより一層簡単になりますね!

【Reproducible Outputs / Log Probabilities】回答の再現性がコントロール可能、生成確率までチェックできる!

GPT 4 Turboの思考過程が近日、公開予定です!具体的には以下の2機能が実装されます。

  • Reproducible Outputs(再現性のある出力):同じ回答が繰り返し生成できる機能
  • Log Probabilities:トークンの生成確率をさかのぼって確認できる機能

2機能の活用事例などは紹介されていませんが、どちらもOpenAI社内では好評だったとのこと。実装が楽しみです!

【GPT 4 Turbo with vision】API経由での画像入力もできる!

ついにAPI経由で、画像入力ができるようになりました!画像入力用のAPIはGPT 4Vではなく「GPT 4 Turbo with vision」という名前で追加されています。

このGPT 4 Turbo with visionを応用すれば、連携先のアプリ&Webサイトからの画像入力が実現します。その活用事例は以下のとおりです。

  • 通販サイトの商品画像から説明を生成させる
  • レジャー施設の館内マップを使って案内させる

後述の音声合成機能「Text to speech」を合わせれば、目の不自由な方に向けた自動ガイダンスも可能。GPT 4 Turbo以降は福祉分野でも、生成AIの利用が進んでいきそうです。

【DALL E 3】API経由で画像生成まで可能!

GPT 4 TurboのAPIと並行して、ChatGPT外でDALL E3が使える「Images API」も解放されています。

これまでコカコーラなど一部の大企業は、DALL E3を使ったキャンペーンを行っていました。ですがImages APIの登場以降は、誰でも気軽にDALL E3を使ったイベントが開催できるようになるはずです。

ちなみに生成にかかる料金は画像1枚あたり0.04ドルから、とのことでした。

【Text to speech】人間に近いクオリティの音声がAPI経由で合成できる!

GPT 4 Turboのリリースに伴って、API経由での音声合成機能「Text to speech(TTS)」も解放されています。以降はChatGPT外のWebサイトやアプリでも、コンテンツの音声出力が実現します。

このTTSでは、6つのプリセット音声から好きな声色が設定可能。さらにベースグレードのtts-1のほか、高音質版のtts-1-hdも選べます。

入力は1,000文字あたり0.015ドルとのことでした。これならバリアフリーに配慮したWebサイトが作れますね。

【Whisper v3】APIでも使える自動音声認識モデルが近日実装!

Open AIの音声認識機能「Whisper V3」が近々、API経由での利用にも対応するようですが、2023年12月時点ではまだ対応していません。

GPT 4 TurboのAPIと組み合わせれば、会話形式でWebサイトやアプリが操作できるようになるかもしれません!続報を待ちましょう。

GPT 4 Turboの料金体系

以上のとおり、スペック面でGPT 4から大幅な進化を遂げたGPT 4 Turbo。その分、利用料金が高くなっていそうですが、実はそうでもありません。

GPT 4 TurboGPT 4(32K版)GPT 4(8K版)
入力にかかる料金0.01ドル / 1000トークン0.06ドル / 1000トークン0.03ドル / 1000トークン
出力にかかる料金0.03ドル / 1000トークン0.12ドル / 1000トークン0.06ドル / 1000トークン

このように、ベーシックな8K版のGPT 4と比べても利用料金が大幅に安くなっているんです!どれぐらい安くなっているのでしょうか?

  • GPT 4(8K版)と比べて入力料金が1/3・出力料金が1/2
  • GPT 4(32K版)と比べて入力料金が1/6・出力料金が1/4

このようにGPT 4からGPT 4 Turboに乗り換えるだけで、入力&出力にかかる合計料金が半分以下に抑えられます。

なお、OpenAI DevDayで公開されたGPT 4 Turbo以外の最新ツールを知りたい方はこちらの記事をご覧ください。
OpenAI DevDay日本最速レポ!GPT-4 Turbo、GPTs、Assistant APIとは?ChatGPT最新情報徹底解説

GPT 4 Turboの使い方

現在は、APIから利用することができます。

使用できるモデルは、gpt-4-1106-previewとgpt-4-vision-previewの二種類です。

GPT-4 Turbo with Visionを使用する場合は後者を選択してください。

APIは以下の手順で利用できます。

1.OpenAIのアカウント取得
2.APIキーの取得
3.プログラミング言語でAPIを利用(Python)

1.OpenAIアカウントの開設

OpenAIアカウントを解説する為に以下のサイトにアクセスして下さい。

OpenAI API

真ん中の「Get started」をクリックして、BOTではないかの認証があるのでクリックして次に進んでください。 

アカウント作成に必要なフォームが表示されるので、必要情報を入力してアカウントを作成します。 メールアドレスのサインアップの他、GoogleアカウントかMicrosoftアカウントの認証を利用することも可能です。 

パスワードや簡単な質問に回答する必要があるので、アナウンスに従って入力します。 サインアップには電話認証が必要になるので事前にSMSが利用可能な電話番号を用意して下さい。

2.APIキーの発行

アカウントを作成したら以下のサイトにアクセスしてAPIキーを取得する為に「+ Create new secret Key」をクリックして下さい。 OpenAPI-keys

発行されたAPIキーは、あとで利用するので保存しておいて下さい。

3.プログラミング言語でAPIを利用(Python)

最後にプログラミング言語でAPIを利用します。 今回はPythonを利用してみました。

Personal -> View API keys -> Create new secret key

openai のインストール

まずPythonで利用する為のライブラリをインストールします。

コマンドラインで、

pip3 install openai

windowsの場合は、

pip install openai

これでAPIを利用する準備ができました。

以下はサンプルコードです。

Pythonプログラム

import openai

openai.api_key = "YOUR_API_KEY" #前述で発行したAPIをKeyに置き換えてください

response = openai.ChatCompletion.create(

    model="gpt-4-1106-preview",

    messages=[

        {"role": "user", "content": "質問内容をここに書きます"}, 

    ]

)

print(response["choices"][0]["message"]["content"]) #返信のみを出力

なお、GPT-4 Turboを利用できるのは、ChatGPT plusなどのGPT-4にアクセスできる方のみですのでご注意ください。

GPT 4 Turboを実際に使ってみた

それでは早速GPT 4 Turboを使っていきます。

ここでは、新たに利用可能になったGPT-4 Turbo with Vision APIや、Parallel function callingJSON Modeなどを試します。

GPT-4 Turbo with Vision API

まずは、APIでの利用が可能になったGPT-4 Turbo with Visionから使っていきます。

以下のMandrill.pngを送信します。

b64=$(base64 Mandrill.png | tr -d '\\n')

payload='{

    "model": "gpt-4-vision-preview",

    "messages": [

      {

        "role": "user",

        "content": [

          {

            "type": "text",

            "text": "この画像、どう思う?"

          },

          {

            "type": "image_url",

            "image_url": {

              "url": "data:image/png;base64,'"$b64"'"

            }

          }

        ]

      }

    ],

    "max_tokens": 300

  }'

echo $payload | curl <https://api.openai.com/v1/chat/completions> \\

  -H "Content-Type: application/json" \\

  -H "Authorization: Bearer $OPENAI_API_KEY" \\

  --data-binary @-

{

  "id": "chatcmpl-8ISJDxrAR1oCfS6O6WqmwCl6uq3Vr",

  "object": "chat.completion",

  "created": 1699409415,

  "model": "gpt-4-1106-vision-preview",

  "usage": {

    "prompt_tokens": 271,

    "completion_tokens": 186,

    "total_tokens": 457

  },

  "choices": [

    {

      "message": {

        "role": "assistant",

        "content": "この画像は、鮮やかな色彩のマンドリルの顔をクローズアップしたものです。マンドリルは、その特徴的な赤と青の顔色と、黄色がかった毛皮で知られる霊長類です。彼らは社会性が高く、アフリカの熱帯雨林に生息しています。画像は非常に鮮明で、マンドリルの顔の細部をはっきりと捉えています。自然の美しさと野生動物の多様性を感じさせるすばらしい写真ですね。"

      },

      "finish_details": {

        "type": "stop",

        "stop": "<|fim_suffix|>"

      },

      "index": 0

    }

  ]

}

モデルに入力して実行すると、以下のテキストが出力されました。

この画像は、鮮やかな色彩のマンドリルの顔をクローズアップしたものです。

マンドリルは、その特徴的な赤と青の顔色と、黄色がかった毛皮で知られる霊長類です。

彼らは社会性が高く、アフリカの熱帯雨林に生息しています。画像は非常に鮮明で、マンドリルの顔の細部をはっきりと捉えています。

自然の美しさと野生動物の多様性を感じさせるすばらしい写真ですね。

非常に詳細で綺麗な文章が返ってきました。

画像の説明だけでなく、それがマンドリルであることを認識して、種の特徴まで説明してくれています。

これだけでも高性能なのが伝わってきますね!

Parallel function calling

続いて、Parallel function callingを使用します。

詳細は以下のページを参照してみてください。

parallel-function-calling

function callingのスキーマは複雑になりがちなので、Pythonを使用します。

既存のfunction callingとは違い、toolとして差別化されているようです。

import openai  # 1.1.1

import json

funcs = [

    {

        "type": "function", "function":  {

            "name": "buy_item",

            "description": "商品を買う",

            "parameters": {

                "type": "object",

                "properties": {

                    "item": {

                        "type": "string",

                        "description": "商品名",

                    },

                    "quantity": {

                        "type": "number",

                        "description": "購入する商品の数",

                    }

                },

                "required": ["item","quantity"],

            },

        }

    }

]

message = """牛乳を1つ買ってきてちょうだい。卵も6つお願い"""

client = openai.OpenAI()

response = client.chat.completions.create(

    messages=[

        {

            "role": "user",

            "content": message

        }

    ],

    model="gpt-4-1106-preview",

    tools=funcs

)

tool_calls = response.choices[0].message.tool_calls

for call in tool_calls:

    args = json.loads(call.function.arguments)

    print(args["item"], args["quantity"])

JSON Mode

次に、新たに追加されたJSON Modeを使用していきます。

json-mode

以下のように、要件定義書を与えてWeb API設計書をJSON形式で出力してもらいます。

import openai  # 1.1.1

system = """

# 命令書

あなたはウェブエンジニアです。要件定義書が与えられるので、下記の制約条件に従って必要なWeb APIの設計書を出力してください。

# 制約条件

- [要件定義書]に準拠すること

- [API設計書形式]に合わせたJSONで出力すること

- GET/POST/PUT/DELETE、それぞれ別のAPIとして扱うこと

# API設計書形式の例

```json

{

    apis: [

        {

            name: "ユーザー登録",

            description: "ユーザーを登録する",

            method: "POST",

            path: "/users",

            request: ユーザー情報,

            response: ユーザーID

        }

    ]    

}

```

"""

message = """

# 要件定義書

ToDoアプリの設計書(概略版)

1. 概要

この文書は、シンプルなToDoアプリの基本的な設計を記述します。アプリは、ユーザーがタスクを簡単に追加、管理、完了としてマークできる機能を提供することを目的とします。

2. 機能要件

- **タスクの追加**: ユーザーは新しいタスクを追加できる。

- **タスクの一覧表示**: 追加されたタスクが一覧で表示される。

- **タスクの編集**: ユーザーは既存のタスクを編集できる。

- **タスクの削除**: ユーザーはタスクを削除できる。

- **タスクの完了**: ユーザーはタスクを完了としてマークできる。

- **フィルタリング**: 完了したタスクと未完了のタスクを分けて表示できる。

3. 非機能要件

- **使いやすさ**: インターフェースは直感的で簡単に使えるものでなければならない。

- **パフォーマンス**: タスクの追加、編集、削除は迅速に行われる。

- **拡張性**: 将来的な機能追加に対応できる設計であること。

4. システムアーキテクチャ

- **クライアント**: スマートフォンやウェブブラウザで動作するフロントエンド。

- **サーバー**: タスクのデータを保持し、クライアントとのやり取りを行うバックエンドサーバー。

5. 技術スタック

- フロントエンド: ReactまたはVue.js

- バックエンド: Node.js + Express

- データベース: MongoDBまたはPostgreSQL

6. ユーザーインターフェース

- **タスク一覧画面**: タスクがリストアップされる。

- **タスク追加モーダル**: タスクを追加するためのポップアップモーダル。

- **タスク編集インターフェース**: 既存タスクを編集するためのインターフェース。

- **フィルタリングオプション**: 完了/未完了を切り替えるためのUIコンポーネント。

7. データモデル

- **タスク**: 

  - ID

  - タイトル

  - 説明

  - 完了状態

  - 作成日時

  - 更新日時

8. セキュリティ

- **認証**: ユーザーはアカウントを作成し、ログインすることでタスクを管理できる。

- **データ保護**: HTTPSを使用してデータを暗号化し、データベースは定期的にバックアップする。

9. 開発とデプロイ

- 開発にはGitを使用し、ソースコードはGitHubに保管する。

- デプロイにはHerokuまたはAWSを使用する。

10. テスト

- 単体テスト: 各機能に対して単体テストを行う。

- 統合テスト: 全体のワークフローが正常に機能するかのテストを行う。

- ユーザーアクセプタンステスト: 実際のユーザーがテストを行い、使用感を評価する

"""

client = openai.OpenAI()

response = client.chat.completions.create(

    messages=[

        {

            "role": "system",

            "content": system

        },

        {

            "role": "user",

            "content": message

        }

    ],

    model="gpt-3.5-turbo-1106",

)

print(response.choices[0].message.content)

出力されたものがこちらです。

```json

{

    "apis": [

        {

            "name": "タスクの追加",

            "description": "新しいタスクを追加する",

            "method": "POST",

            "path": "/tasks",

            "request": {

                "title": "string",

                "description": "string"

            },

            "response": {

                "taskId": "string"

            }

        },

        {

            "name": "タスクの一覧表示",

            "description": "追加されたタスクを一覧で表示する",

            "method": "GET",

            "path": "/tasks",

            "request": null,

            "response": [

                {

                    "taskId": "string",

                    "title": "string",

                    "description": "string",

                    "completed": "boolean",

                    "createdAt": "string",

                    "updatedAt": "string"

                }

            ]

        },

        {

            "name": "タスクの編集",

            "description": "既存のタスクを編集する",

            "method": "PUT",

            "path": "/tasks/{taskId}",

            "request": {

                "title": "string",

                "description": "string",

                "completed": "boolean"

            },

            "response": {

                "message": "string"

            }

        },

        {

            "name": "タスクの削除",

            "description": "タスクを削除する",

            "method": "DELETE",

            "path": "/tasks/{taskId}",

            "request": null,

            "response": {

                "message": "string"

            }

        },

        {

            "name": "タスクの完了",

            "description": "タスクを完了としてマークする",

            "method": "PUT",

            "path": "/tasks/{taskId}/complete",

            "request": null,

            "response": {

                "message": "string"

            }

        },

        {

            "name": "タスクの未完了へ変更",

            "description": "完了済みのタスクを未完了に変更する",

            "method": "PUT",

            "path": "/tasks/{taskId}/incomplete",

            "request": null,

            "response": {

                "message": "string"

            }

        }

    ]

}

しっかりとしたJSON形式で出力してくれました。

なお、JSONモードオフでは以下のような出力でした。

# API設計書

```json

{

    "apis": [

        {

            "name": "タスクの追加",

            "description": "新しいタスクを追加する",

            "method": "POST",

            "path": "/tasks",

            "request": {

                "title": "string",

                "description": "string"

            },

            "response": {

                "taskId": "string"

            }

        },

        {

            "name": "タスク一覧取得",

            "description": "追加されたタスクを一覧で表示する",

            "method": "GET",

            "path": "/tasks",

            "request": null,

            "response": [

                {

                    "taskId": "string",

                    "title": "string",

                    "description": "string",

                    "completed": "boolean",

                    "createdAt": "string",

                    "updatedAt": "string"

                }

            ]

        },

        {

            "name": "タスクの編集",

            "description": "既存のタスクを編集する",

            "method": "PUT",

            "path": "/tasks/{taskId}",

            "request": {

                "title": "string",

                "description": "string",

                "completed": "boolean"

            },

            "response": {

                "message": "string"

            }

        },

        {

            "name": "タスクの削除",

            "description": "タスクを削除する",

            "method": "DELETE",

            "path": "/tasks/{taskId}",

            "request": null,

            "response": {

                "message": "string"

            }

        }

    ]    

}

上記のAPI設計書では、要件定義書に記載されている機能要件に基づいて、タスクの追加・一覧取得・編集・削除それぞれのAPIを定義しました。それぞれのAPIは、適切なメソッドとパスを持ち、リクエストとレスポンスのデータ構造も示しています。

DALLE-3 API

画像生成モデルであるDALLE-3もAPIで利用可能になったので、こちらも使用してみます。

## DALLE-3 API

画像生成モデル。

```bash

curl <https://api.openai.com/v1/images/generations> \\

  -H "Content-Type: application/json" \\

  -H "Authorization: Bearer $OPENAI_API_KEY" \\

  -d '{

    "model": "dall-e-3",

    "prompt": "WEELというAIメディアを運営している会社の写真。",

    "n": 1,

    "size": "1024x1024"

  }' | jq -r '.data[0].url' | xargs curl -o out.png

{

  "created": 1699409960,

  "data": [

    {

      "revised_prompt": "An image of an office environment where the AI media named 'WEEL' is being run. The workplace is modern and filled with high-tech gadgets. Employees are scattered across the space, engaged in their tasks - some are in conference rooms brainstorming, others are at their desks coding. Representation includes a variety of genders and descents such as Caucasian, Hispanic, Middle-Eastern, Black, and South Asian equally distributed.",

      "url": "xxxxxx"

    }

  ]

}

プロンプト

WEELというAIメディアを運営している会社の写真。

以下の画像と改訂されたプロンプトが出力されました。

An image of an office environment where the AI media named 'WEEL' is being run. The workplace is modern and filled with high-tech gadgets. Employees are scattered across the space, engaged in their tasks - some are in conference rooms brainstorming, others are at their desks coding. Representation includes a variety of genders and descents such as Caucasian, Hispanic, Middle-Eastern, Black, and South Asian equally distributed.

相変わらず超高精度な画像を生成してくれますね。

短いプロンプトからこれだけの情報を持つ正確なプロンプトを生成し、画像に反映してくれるのはすごいですよね!

TTS

音声合成機能「Text to speech(TTS)」がAPIで使えるようになっていたので、こちらも使用してみます。

curl https://api.openai.com/v1/audio/speech \ 

-H "Authorization: Bearer $OPENAI_API_KEY" \ 

-H "Content-Type: application/json" \ 

-d '{ 

 "model": "tts-1", 

 "input": "ウィールはAIメディアを運営しています。", 

 "voice": "alloy"

}' \ 

--output out.mp3

以下の音声が出力されました!

音声ファイル:out.mp3(ここだけ挿入できないので追加してください!)

このように、単にLLMとしての性能が向上しただけでなく、新機能の追加やマルチモーダル機能との連携が教化されており、本当に唯一無二のマルチモーダルAIモデルに進化したな、という印象です。

なお、音声生成AIについて詳しく知りたい方は、下記の記事を合わせてご確認ください。
【AudioBox】オーダーメイドで好きな音を作れる、Metaの音声生成AIを使ってみた

より汎用性に磨きがかかったGPT 4 Turbo

この記事では、さらなる進化を遂げたGPT 4 Turboを紹介しました。

もう一度GPT4 Turboのすごいところ4つを復習しておきましょう!

  • 入力できる文字数の増加:GPT 4(32K版)の4倍、最大128kトークンまで入力可能に
  • API上でのマルチモーダル対応:API経由でも画像の入力、ならびに画像&音声の出力が可能に
  • 回答の最適化:同一内容の再生成やソースコードの表記統一が可能に
  • 利用料金の軽減:8K版のGPT 4と比べても、半額以下で入力&出力が可能に

このように、スペックを大幅に向上させつつも、運用コストは半額以下に抑えてくれています。

そして、今回増えた機能は以下の7つです。

  • ワンアクションでの複雑なアプリ操作
  • より精密なコーディング
  • 回答の再現性のコントロール
  • API経由での画像入力
  • API経由での画像生成
  • API経由での音声出力
  • API経由での音声認識(近日実装)

当メディアでは引き続き、よりハイスペックで高性能になったGPT 4 Turboの動向を追って参ります!

企業から個人まですごい活用事例を紹介していく予定ですので、ぜひ引き続きチェックしてくださいね。

サービス紹介資料

生成系AIの業務活用なら!

・生成系AIを活用したPoC開発

・生成系AIのコンサルティング

・システム間API連携

最後に

いかがだったでしょうか?

弊社では

・マーケティングやエンジニアリングなどの専門知識を学習させたAI社員の開発
・要件定義・業務フロー作成を80%自動化できる自律型AIエージェントの開発
・生成AIとRPAを組み合わせた業務自動化ツールの開発
・社内人事業務を99%自動化できるAIツールの開発
ハルシネーション対策AIツールの開発
自社専用のAIチャットボットの開発

などの開発実績がございます。

まずは、「無料相談」にてご相談を承っておりますので、ご興味がある方はぜひご連絡ください。

➡︎生成AIを使った業務効率化、生成AIツールの開発について相談をしてみる。

生成AIを社内で活用していきたい方へ

「生成AIを社内で活用したい」「生成AIの事業をやっていきたい」という方に向けて、生成AI社内セミナー・勉強会をさせていただいております。

セミナー内容や料金については、ご相談ください。

また、弊社紹介資料もご用意しておりますので、併せてご確認ください。

投稿者

  • 2sc

    テクニカルライター 大学時代はアリの生態を研究。 ラボで唯一、Pythonを使ってデータ分析を効率化していた。 現在はライターとして、オウンドメディアや学術記事の執筆に当たっている。

  • URLをコピーしました!
  • URLをコピーしました!
目次