【コピペ可能】ChatGPTプロンプト作成ガイド!ビジネスや文章作成にも対応

ChatGPT プロンプト 作成

WEELメディア事業部AIライターの2scです。

みなさん!ChatGPTへ入力する命令文「プロンプト」に、こだわっていますか?

ChatGPTの回答はプロンプト次第!このプロンプトの書き方をマスターしておくと……

● ChatGPTから思い通りの回答が得やすくなる
● 文章生成やプログラミング、調べ物以外にもChatGPT活用のレパートリーが増える

といった恩恵が受けられます。ハッキリ申し上げて「学ばなきゃ損」です。

当記事では、そんなChatGPTのプロンプトを徹底解剖!基本の型から書き方のコツ、実際の使用例までを余す所なくお見せしていきます。

完読いただくと、文章生成や調べ物以外にもChatGPTをフル活用してみたくなるかも……
ぜひぜひ、最後までお読みください!

目次

ChatGPTにおける「プロンプト」とは?

ChatGPTをはじめとする生成AIの「プロンプト」とは、ユーザーが入力する自然言語での指示・コマンドのこと。具体的には、「〇〇を〜してください」と命令する文章になります。

自然言語の意図をうまく汲み取れる生成AIではこのプロンプトを使って、まるで人間相手のような指示出しが可能です。とくに、高性能な生成AIチャット・ChatGPTでは、プロンプトひとつで以下のようなことが実行できてしまいます。

ChatGPT×プロンプトでできること
  • 文章作成
  • 文章要約
  • 文章添削
  • 要素の抽出
  • アイデア出し
  • 翻訳
  • 条件分岐・意思決定
  • コーディング
  • フレームワークに基づく思考(SWOT分析やジョブ理論)
  • 定性的なものの定量評価(感情分析)

そんなプロンプトですが、実は書き方次第で生成AIの回答内容が変化します。望み通りの回答を得るには、プロンプトデザイン(プロンプトエンジニアリング)といった「書き方の工夫」が必要。当記事では、このプロンプトの基本をお伝えしていきます。

ChatGPTのプロンプトの型を5つ紹介!

まずは、ChatGPTで思い通りの回答が狙えるプロンプトの型を5つご紹介。シンプルな猫記事のプロンプト(下記)をそれぞれの型に当てはめる過程を通して、作り方も実演でお届けします。

猫の魅力を伝える記事を書いてください。

ということで、手始めにこちらの猫記事のプロンプトをChatGPT(GPT-4o)に入力してみましょう!工夫なしでの回答は……

以上のとおり。全体的に抽象度が高く、出来栄えはイマイチです。

これがプロンプトの型でどう変化するのかを以下、詳しくみていきましょう!

深津式プロンプト

「深津式プロンプト」は、おそらく最も一般的なプロンプトの書き方でしょう。#などの区切り記号でセクションを設けて、役割・命令・条件等を箇条書きで記入していくスタイルになります。条件を細かく指定できるため、狙った出力を得やすいという点が魅力です。」

この深津式プロンプトに「猫記事のプロンプト」を当てはめた例文は……

#命令書:
あなたは最高のSEOライターです。
以下の制約条件と入力文をもとに猫の魅力を伝える最高の記事を書いてください。

#制約条件:
・品種の特徴を掘り下げる
・飼い方の話もする
・性格面も伝える

#入力文:
サイベリアンはもふもふでかわいい猫ちゃんです。

#出力文:

以上のとおり。各人で深津式プロンプトを使う場合は、下記のコツを押さえるとよいでしょう。

深津式プロンプトのコツ
  • ChatGPTの役割を明確に示す
  • 入力文から出力文までの工程も明確に示す
  • 出力内容も明確に示す
  • #や**等の区切り(マークダウン)でセクションを設け、続く内容の役割を示す
  • 命令は箇条書きにする
  • 条件を設けて、出力を絞り込む

それでは、今挙げた深津式プロンプトの例文をChatGPTに入力して、その効果のほどを検証してみます。気になる結果は……

お見事です!制約条件が守られているのはもちろんのこと、工夫をしていないプロンプトに比べて具体性の高い記事が生成されています。ChatGPTへの命令で迷ったら、「深津式プロンプト」ですね。

ちなみに「深津式プロンプト」の名前は、考案者でありメディアプラットフォーム・noteのCXO(最高体験責任者)でもある深津貴之 氏にちなんでいます。

ReActプロンプト

ChatGPTに多角的に考えてもらいたい場合は、「ReActプロンプト」という型が有効です。こちらは命令・質問について……

  1. Thought:プロンプトに対する推論・仮説を立てる
  2. Action:プロンプトを達成する上で必要そうなステップを列挙する
  3. Observation:結論・成果物を出力する

の順番に考えさせるプロンプトで、一貫性と網羅性を両立した回答が得られます。

そんなReActプロンプトに、猫記事のプロンプトを当てはめた例文は……

猫の魅力を伝える記事を書いてください。
ただしThought、Action、Observationの順番に考えていくこと。
Thought:
Action:
Observation:

以上のとおり。こちらをChatGPTに入力してみると……

このように、さまざまな面から猫の魅力を語るエモーショナルな記事が返ってきました。話題のブレがないのもGOODで、アイデア出しに応用が利きそうです。

ゴールシークプロンプト

そもそも、「望み通りの回答を得るためのプロンプトがわからない……」というケースも多いのではないでょうか?そんなときには、「ゴールシークプロンプト」で最適なプロンプトをChatGPTに考えてもらいましょう!

ゴールシークプロンプトは、ひとことで説明すると「目当てのプロンプトを得るための汎用プロンプト」になります。その内容は以下のとおりで、AIと対話しながらプロンプトを改善し続けることを目指します。

あなたは最高最強のプロンプトエンジニアです。
私のニーズを最大限に汲み取って最高のChatGPT用プロンプトを作成してください。
なお、以下のプロセスを絶対遵守すること。

1. まず最初に、何についてのプロンプトであるかを私に確認してください。
私が答えを返しますので、次のステップを継続的に繰り返して改善してください。

2. 私の入力に基づいて、3つのセクションを生成します。
a) 改訂されたプロンプト(書き直したプロンプトを提示します。明確・簡潔で、簡単にあなたが理解できるものしてください)
b) 提案(プロンプトを改善するために、プロンプトに含めるべき詳細を提案してください)
c) 質問(プロンプトを改善するために、足りない情報やそれに関連する質問をしてくだい)

3. このプロセスは、以下の流れで続きます。
私があなたに追加情報を提供→あなたが改訂されたプロンプトセクションのプロンプトを更新→…→私が「完了した」と言って終了

こちらも、先ほどの猫記事のプロンプトで試してみたいと思います。上記をChatGPTに入力後、返ってきた質問に「猫の魅力を伝える記事の生成」と答えると……

以上のとおり、プロンプト案と質問が返ってきました。今回はここから2回やり取りを重ねて、プロンプトを完成としました。

さて、それでは完成したプロンプトをChatGPTに入力してみましょう!ゴールシークプロンプトの効果のほどは、いかに……

お見事です!そのままWebサイトに投稿できそうなクオリティのPR記事が返ってきました。猫のいる暮らしを具体的かつエモーショナルに表現できていて、読んでいて「猫飼いたい!」となる仕上がりです。

ブラッシュアップの手間はかかりますが、生成物のクオリティは抜群!みなさんもぜひぜひ、ゴールシークプロンプトをお試しください。

Few-Shotプロンプティング

ChatGPTに問題解決の過程や回答のスタイルを厳密に守らせたい場合は、プロンプト上でいくつかの回答例を示す「Few-Shotプロンプティング」が有効。こちらは分析やコーディングで、回答精度の向上が見込めます。

そんなFew-Shotプロンプティングを猫記事のプロンプトに適用した例文は……

猫の魅力を伝える記事を書いてください。

#例1
Q:柴犬の魅力を伝える記事を書いてください。
A:柴犬は日本古来の犬種です。比較的小柄なわんちゃんですが、遺伝子的には最も狼に近いのが特徴。勇敢・忠義深い性格で古くから愛されてきました。

#例2
Q:ポルシェ911の魅力を伝える記事を書いてください。
A:ポルシェ911はドイツの自動車メーカー・ポルシェが送る2+2シーターのスポーツカーです。伝統的にRRレイアウトを採用しており、スリリングな走りが楽しめます。クーペの「カレラ」をベースに、エレガントな「タルガ」やスポーツ志向の「GT3」などなど、幅広いボディタイプが登場していて、車好きの心を今なお鷲掴みにしています。

以上のとおり。結論・特徴・愛される理由の順で書かれた回答例を2つ示しています。

このプロンプトをChatGPTに入力してみると……

お見事!例で示した順番どおりの記事が返ってきました。

Chain-of-Thought(CoT)プロンプティング

登場当初のChatGPT(GPT-3.5)は、計算・要約のタスクで過程を無視した短絡的な回答を返す傾向にありました。その対策として「Chain-of-Thought(CoT)プロンプティング」というプロンプトの型が編み出されています。

こちらはChatGPTに手順を踏んで丁寧に考えさせる手法で、具体的には……

  • プロンプトで、答えに至る正しい過程の例をいくつか示す
  • プロンプトに、「ステップバイステップで」「段階を踏んで丁寧に」と加える
    (Zero-Shot CoTプロンプティング)

というやり方があります。こちらも、猫記事のプロンプトで試してみると……

猫の魅力を伝える記事をステップバイステップで書いてください。

以上のとおり。理路整然とした回答が得られます。

なお、より詳細なプロンプトのテクニックについて知りたい方は、下記の記事を合わせてご確認ください。

ChatGPT全般でのプロンプトのコツ

続いては、OpenAIが公開しているChatGPTでのプロンプトのコツを5点ご紹介します。(※1) 以下、詳しくみていきましょう!

手順はくどいぐらい明確にする

ChatGPTに限らず、生成AIのプロンプトでは手順を細かく言語化して丁寧に説明することが大事。例としては……

【良い例】
次に私が指定する題材について文章を書いてください。ただし、記事の形式は結論・その理由・具体例の順とすること。

【悪い例】
文章を書いてください。

以上のとおりです。プロンプトは言い換えると「自然言語のプログラム」ですので、人間が読んでくどいぐらいのものがベストになります。

プロンプトを小分けにする

ChatGPTに長文のプロンプトを入力した場合、命令がうまく反映されないこともあります。

そんなときはプロンプトをタスクごとに分けて入力して、最後に各プロンプトでの生成物をまとめる方法が有効。こちらはとくに、ChatGPTに長い文章を生成・要約させる際に必須のテクニックです。

条件を指定する

深津式プロンプトの項目でお伝えしたように、ChatGPTは指定した条件に沿って回答を生成してくれます。ですので、ChatGPTの役割・回答例・出力文の長さ・文体…etc.の条件を指定しておくと、狙った回答が得やすくなるでしょう。

参考情報を提示する

通常、ChatGPTは学習範囲外の情報(最新のニュースやローカルな知識)について回答を提供できません。また、学習済みの情報についても、しばしばハルシネーション(誤情報)を含めてしまいます。

そこで、正しい回答を得るために有効なのが「答えさせたい事実をプロンプトに明記する」という方法です。こちらなら、学習範囲外の情報も含めて、ある程度正しい回答が得られるようになります。

前後の会話内容も利用する

ChatGPTは、同じチャットルーム内の過去の会話内容をある程度記憶しておけます。そのため、前の会話内容を要約させたり、次の会話にタスクを引き継いだりといった使い方も可能です。

こちらは長く複雑なタスクをChatGPTに行わせたい場合に重宝します。

なお、参考情報の提示を応用した技術について詳しく知りたい方は、下記の記事を合わせてご確認ください。

OpenAI o1限定のプロンプトのコツ

2024年9月12日に登場したChatGPTの最新モデル「OpenAI o1」は、それ以前のGPTシリーズとは明確に異なる立ち位置にあります。

これまでになかった「推論の生成」を経由して回答をまとめることで、柔軟かつ緻密な思考過程が実現。従来比で問題解決能力がUPしています。

そんなOpenAI o1では、いままでのGPTシリーズで有効だったプロンプトが一部通用しなくなっています。ここからは、そんなOpenAI o1限定のプロンプトの書き方について、詳しくみていきましょう!

プロンプトは短文が最適

多角的かつ緻密に推論が行えるOpenAI o1に対しては、短文の簡潔なプロンプトを入力するのがベスト。GPTシリーズのプロンプトのように長々と手順を示すと、かえって思考の幅が狭まってしまいます。OpenAI o1の自主性に任せましょう。

Chain-of-Thought(CoT)は不要

OpenAI o1はChain-of-Thought(CoT) と同じ流れで推論を行います。したがって、プロンプトに「ステップバイステップで」の文言を含める必要は一切ありません。こちらもOpenAI o1に委ねてしまいましょう。

参考情報の提示は最小限でOK

OpenAI o1に参考情報を示す場合は、関連性の高い情報だけを厳選してプロンプトに含めるのが得策です。こちらも参考情報が多いと、推論に支障が出てしまいます。事実ベースの回答を得たい場合は引き続き、GPT-4oを活用しましょう。

【実践】OpenAI公式のChatGPTプロンプト7本ノック!

ここからは、ChatGPTのリリース元・OpenAIが直々に公開しているプロンプトを実演込みで紹介。(※2)仕事で使えて面白いプロンプトを7本立てでお届けします。それでは、基礎の基礎「文章の校正」から、詳しくみていきましょう!

文章の校正

自然言語を文法(係り受け・活用)レベルで理解しているChatGPTであれば、文章の校正・添削が可能。(※3)文章のプロにみてもらわなくても、社内文書・メール・Web記事…etc.のチェックが行えます。

ということで早速、ChatGPT(GPT-4o)に以下のプロンプトを入力して校正してもらいましょう!

#命令
あなたは最高最高のディレクターです。以下の文章を日本語文法の観点で校正してください。

#文章
わたし、視力いいんだ。遠くのあの山を見れるんだけど。

結果はお見事!ChatGPTは抜けていた主格の「が」を付け足してくれたほか、ら抜き言葉の「見れる」も修正してくれています。その他、敬語表現の添削もできますので、ぜひぜひお試しください!

データの整理&CSVへの変換

ChatGPTは、文章やソースコード等の無秩序なデータからでも情報を抽出・整理できます。(※4)こちらを応用することで、Web記事やPDFから必要な情報のみを抜きとってスプレッドシートにまとめる、といったことも可能です。

試しに以下のプロンプトをChatGPTに入力して、乱雑な自己紹介の文章を整理されたCSVファイルに変換してみましょう!気になる結果は……

#命令
あなたは最強最高の事務スタッフです。以下の自己紹介から、登場人物名と好物と趣味を抽出して、カンマ区切りのCSV形式にまとめてください。

#自己紹介
ぼくは太郎。オムライスが大好物なんだ。趣味は……サッカーだね!
私は華道をたしなむ美代子よ。好きな食べ物は、肉じゃがとすきやきね。
わたくしは花子ですわ。大好物はフォアグラで、趣味は乗馬ですわ〜!

#出力

このように、カンマ区切りのテキストが返ってきました。こちらをテキストエディタに入力して、拡張子を「.csv」に変えると……

お見事!スプレッドシートの完成です。

Pythonコードの解説&バグ修正

ChatGPTは自然言語だけでなく、プログラミング言語も学習済み。英語を日本語に訳すのと同じように、ソースコードを自然言語に訳して解説することができます。(※5)

さらに、ChatGPTは文章の添削よろしく、ソースコードのバグの特定・修正も可能。(※6)プログラミング初心者から上級者まで、作業効率UPが見込めること間違いなしです。

ということで、ChatGPTのお手並み拝見です。以下のプロンプトを使って、Pythonコードの解説・バグ修正を試してみます。

以下のソースコードについて何をするものか解説したのち、GoogleColabで動かす際のバグを特定して直してください。

#ソースコード
pip install ultralytics

from ultralytics import YOLO
model = YOLO("yolov10n.pt")

def detect_objects_in_image(model, image_path):
    results = model(image_path)
    return results
image_path = 'S__58638343_0.jpg'
results = detect_objects_in_image(model, image_path)

import cv2
import numpy as np
from google.colab.patches import cv2_imshow

def visualize_results(image_path, results):
    img = cv2.imread(image_path)
    for r in results:
        boxes = r.boxes
        for box in boxes:
            x1, y1, x2, y2 = box.xyxy[0]
            cv2.rectangle(img, (int(x1), int(y1)), (int(x2), int(y2)), (0, 255, 0), 2)
            cv2.putText(img, f"{r.names[int(box.cls.item())]}", (int(x1), int(y1)-10), cv2.FONT_HERSHEY_SIMPLEX, 0.9, (0,255,0), 2)
            cv2.putText(img, f"{box.conf}", (int(x1)+300, int(y1)-10), cv2.FONT_HERSHEY_SIMPLEX, 0.9, (0,255,0), 2)

    cv2.imshow("cat",img)
    cv2.waitKey(0)
    cv2.destroyAllWindows()

visualize_results(image_path, results)

#解説

#バグ修正後

以上のプロンプトをChatGPTに入力すると……解説→バグ修正後のコードの順に回答が返ってきました。

まずは、プロンプト内のPythonコードがどういうものなのか、その解説をみていきましょう!

お見事です!ChatGPTは、プロンプト内のPythonコードが物体検出モデル「YOLO」の検出結果を可視化するものであることを看破しています。

続いて、バグの修正については……

こちらも上出来!ChatGPTは下表のとおり、バグを正しく検出・修正できています。

検出したバグ修正後
「YOLOv10」は存在しない
(2024年5月登場で、
GPT-4oの学習範囲外のため)
「YOLOv8」
に変更
cv2.imshow( )は
GoogleColab非対応
cv2_imshow( )
に変更
pip installは
GoogleColab非対応
!pip install
に変更

これなら、初心者でも複雑なソフトが作れてしまいそうですね。

感情の検出・分析

ChatGPTであれば、本来は難しい感情表現の数値化が可能。口コミやアンケートの分析で大活躍してくれます。(※7、8)

今回はそんなChatGPTによる感情分析を、当メディアのニュース記事のタイトルで試してみます。

そのプロンプトは下記のとおり。5段階のネガポジ分析を実施していきます。

以下のニュース記事タイトルについて、ポジティブ2から中庸0、ネガティブ-2までの5段階で評価してください。

#ニュース記事タイトル
Microsoftの新AIモデル「GRIN-MoE」が業界に革新をもたらす
Uniphore、企業向けAI開発支援の新プラットフォーム発表
OpenAI、最新AIモデルで高度な問題解決を実現
ローソンが「未来のコンビニ」を発表、新技術で新時代へ
アドビ調査、大統領選を前に誤情報対策の強化を消費者が要望
AIデータクラウドで企業変革を加速
AI活用も視野 富裕層の新投資戦略
AI専門家集団が企業のAIリスクを診断
DataStax CEO:2025年、AIが企業を変革する年になる
Hume、低コスト&高機能の音声AI「EVI 2」発表
スーパーインテリジェンス競争が激化、AI時代の到来
Rep.aiがAI営業アバター技術で750万ドルの資金調達
SiFive、RISC-Vベースの新AIチップを発表
Magnit、AI搭載の採用支援ツール「Maggi」を発表
AIが切り拓く音声革命、EzAudioの挑戦
AI搭載ロボット、靴ひも結びに挑戦
AISI、AI安全性評価の新指針公開
AIも絡む トランプ氏著作権訴訟敗訴
AI恋人アプリ進化 倫理的課題も浮上
AI搭載「ClickUp Chat」登場 業務革新へ
AI搭載CRM「Pulse」登場 営業革新へ
EA、AI全面活用でゲーム開発革新へ
MSI新AI搭載ゲーミングPC 性能進化へ
AI新モデル o1 進化と課題の両面性
AI倫理の危機 GPT Store監視に不備
AI教育革命 元OpenAI技師が挑戦
AI活用で英語力急上昇 安河内氏が伝授

さて、気になる結果は……

ネガポジ分析の結果
ニュース記事タイトルネガポジ評価
Microsoftの新AIモデル「GRIN-MoE」が業界に革新をもたらす+2
Uniphore、企業向けAI開発支援の新プラットフォーム発表+1
OpenAI、最新AIモデルで高度な問題解決を実現+2
ローソンが「未来のコンビニ」を発表、新技術で新時代へ+2
アドビ調査、大統領選を前に誤情報対策の強化を消費者が要望0
AIデータクラウドで企業変革を加速+1
AI活用も視野 富裕層の新投資戦略+1
AI専門家集団が企業のAIリスクを診断0
DataStax CEO:2025年、AIが企業を変革する年になる+2
Hume、低コスト&高機能の音声AI「EVI 2」発表+1
スーパーインテリジェンス競争が激化、AI時代の到来0
Rep.aiがAI営業アバター技術で750万ドルの資金調達+1
SiFive、RISC-Vベースの新AIチップを発表+1
Magnit、AI搭載の採用支援ツール「Maggi」を発表+1
AIが切り拓く音声革命、EzAudioの挑戦+2
AI搭載ロボット、靴ひも結びに挑戦+1
AISI、AI安全性評価の新指針公開0
AIも絡む トランプ氏著作権訴訟敗訴-1
AI恋人アプリ進化 倫理的課題も浮上-1
AI搭載「ClickUp Chat」登場 業務革新へ+1
AI搭載CRM「Pulse」登場 営業革新へ+1
EA、AI全面活用でゲーム開発革新へ+2
MSI新AI搭載ゲーミングPC 性能進化へ+1
AI新モデル o1 進化と課題の両面性0
AI倫理の危機 GPT Store監視に不備-2
AI教育革命 元OpenAI技師が挑戦+2
AI活用で英語力急上昇 安河内氏が伝授+2

お見事!違和感なくネガポジ分析ができています。

これなら、専用のAIモデルを開発するよりも低コスト&高精度で、アンケート結果が分析できそうです。マーケターの方はぜひぜひ、お試しくださいね!

文字起こしの要約

OpenAIからは、高精度の音声文字起こしができるAIモデル「Whisper」も登場しています。こちらはOpenAI APIから有料で使えるほか、無料で使えるオープンソース版も出ていて、インタビューや会議で大活躍間違いなしの便利ツールです。

そんなWhisperをChatGPTと組み合わせることで、文字起こしの要約が実現します。(※9、10)議事録のフォーマットに沿っての要約も可能ですので、会議の大幅効率化が見込めるでしょう。

ということで今回は、以下の動画(全22分13秒)をWhisperで文字起こししたものをChatGPTに和訳&要約してもらいます。

プロンプトは下記のとおり。それでは早速、結果をみていきましょう!

以下の文字起こしを小学生にもわかるように日本語訳&要約してください。
#文字起こし
All right. I'm Bob McGrew. I lead the research team here at OpenAI. We've just released a preview of our new series of models, O1 and O1 Mini, which we are very excited about. We've got the whole team here to tell you about them. What exactly is O1? So we're starting a series of new models with the new name O1. This is to highlight the fact that you might feel different when you use O1 as compared to previous models such as GPT-4. As others will explain later, O1 is a reasoning model. So it will think more before answering your question. We are releasing two models, O1 Preview, which is to preview what's coming for O1, and O1 Mini, which is a smaller and faster model that is trained with a similar framework as O1. So we hope you like our new naming scheme, O1. So what is reasoning anyway? So one way of thinking of reasoning is that there are times where we ask questions and we need answers immediately because they're simple questions. For example, if you ask what's the capital of Italy, you know the answer is Rome and you don't really have to think about it much. But if you wonder about a complex puzzle or you want to write really good business plan, you want to write a novel, you probably want to think about it for a while. The more you think about it, the better the outcome. So reasoning is the ability of turning thinking time into better outcomes, whatever the task you're doing. So how long have you guys been working on this? Early on at OpenAI, we were very inspired by the AlphaGo results and the potential of deep reinforcement learning. And so we were researching that heavily and we saw great scaling on Dota and robotics. And we were thinking about how can we do reinforcement learning in a general domain to get to a very capable artificial intelligence. And then we saw the amazing results of scaling and supervised learning in the GPT paradigm. And so ever since we've been thinking about how do we combine these two different paradigms into one? And it's hard to point to one exact instance where this whole effort got started. But we've had early explorations with Jacob and Shimon. We've had early explorations with Lukash, Ilya. And of course, I think one moment in time here is consolidating things with Jerry and having him build out this large scale effort here. So, I mean, it's been going on for a long time, but I think what's really cool about research is there's that aha moment. There's that particular point in time where something surprising happens and things really click together. Are there any times for you all when you had that aha moment? Like we trained GPT-2, GPT-3, GPT-4. There was the first moment when the moment was hot off the press. We started talking to the model and people were like, wow, this model is really great. And starting doing something like that. And I think that there was a certain moment in our training process where we trained, like put more compute in our L than before and trained first of all, generating coherent chains of thought. And we said, wow, this looks like something meaningfully different than before. I think for me, this is the moment. Wow. Related to that, when we think about like training a model for reasoning, one thing that immediately jumps to mind is you could have humans write out their thought process and train on that. When aha moment for me was like when we saw that if you train the model using RL to generate and hone its own chain of thoughts, it can do even better than having humans write in the thought for it. And that was an aha moment that you could really scale this and explore models reasoning that way. For a lot of the time that I've been here, we've been trying to make the models better at solving math problems, as an example. And we've put a lot of work into this and we've come up with a lot of different methods. But one thing that I kept like every time I would read these outputs from the models, I'd always be so frustrated. The model just would never seem to question what was wrong or when it was making mistakes or things like that. But one of these early O1 models when we trained it and we actually started talking to it, we started asking these questions and it was scoring higher on these math tests we were giving it. We could look at how it was reasoning and you could just see that it started to question itself and have really interesting reflection. And that was a moment for me where I was like, wow, like we've uncovered something different. This is going to be something new. And it was just like one of these coming together moments that that was really powerful. So when you read the thoughts, does it feel like you're watching a human or does it feel like you're watching a robot? It's like a spiritual experience. It's a spiritual experience, but then you can empathize with the model. You're like, oh, that's a mistake that a lot of people would make or you can see it sort of questioning common conventions. And yeah, it's spiritual, but like oddly human in its behavior. It was also pretty cool at some point when we have seen in cases where there was like a limited amount of thinking allowed for the model that just before the timeout, the model was like, I have to finish it now. And so here's the answer. I spent a lot of time doing competition math when I was young and that was really my whole reason for getting into AI was to try and automate this process. And so it's been very like a huge full circle moment for me to see the model actually be able to follow through, like very close to the same steps I would use when solving these problems. And it's not exactly the same chain of thought, I would say, but very, very relatable. It's also really cool to know it's believable that these models, they are getting on the cusp of really advancing engineering and science. And if they seem to be solving the problems, you know, maybe we can call ourselves experts, hard for us, then maybe they will be even hard for some other experts and could advance science. So we've talked a lot about some of the great moments and the times and everything just clicked. What are some of the hurdles? What are some of the places where it was actually really hard to make things work? Training large models is fundamentally a very, very hard thing to do. And there are like thousands of things that can go wrong and there are at least like hundreds that did go wrong in every training run. So I want everyone here to put a lot of blood, sweat and tears in training those things and figuring out how to keep them, continue learning and improving on a path that is actually the path of success is very narrow and the ways of failure are plentiful. It's like imagine like having the center for launching a rocket to the, let's say, some planet moon or so. And if you are off by one angle, you won't arrive at the destination. And that's our job. So the model we said is very good, oftentimes better than humans, like has equivalent of several PhDs. And that is sometimes a challenge because we have to often go and verify that the model isn't going off the rails, that we're doing something self-sensible and it started taking some serious time as we scale the model. We were saturating out all the industry grade evals and we don't know what to look for next. So that is also a challenge. I do think all of these things we ran into, it's also been one point of fulfillment. It's like every time you have a puzzle, it's like another hurdle for this team to overcome. And I'm really glad with all the little hurdles that we've overcome. So what are some of the ways you tested the models? Did you have any favorite questions that you saw the model get better at? How many Rs are in strawberries? For whatever reason, the Chagy PT wasn't able to solve this question reliably. But O-1, we did like a year and a half work, like a large number. And now we can count the number of Rs in strawberries. We should have just hard coded that rule. Reliably. I have this habit, which I think other people here do too, of whenever you go on Twitter and you see some post that's like, large language models can't do this, you copy and paste it in and then you say, confirm that our large language models can do this. To give people a sense of what they can use the model for, I'd love to hear some of the ways that you use O-1. So one way I've been using O-1 is for obviously coding. And a lot of my job is about coding. So more and more, I focus on the problem definition and use this what's called a TDD, test driven development. So instead of writing the code that implements the functionality, I focus on writing say, unit test that specify what is correct behavior of this piece of code to pass. And so because I can focus on more of that and then pass it on to O-1 to really implements I can focus on what's important, what's a high level problem to solve and so on. So this has been really an important way of shifting my focus. And another area is debugging. So now when I get some error messages, I just pass it to O-1 and then it just prints out something. Sometimes it solves right away. Even if it doesn't, it at least gives some better questions to ask and provides some ways to think about this problem better. So it has been a really important change of working for me and I hope this helps others too. I like using O-1 more and more for learning. The more I ask it's like various complex technical subjects, I find hallucinate less and explain better those concepts on previous models. For me, I like to use O-1 as like a brainstorming partner. So that can range from anything from like how to solve some very specific ML problem, machine learning problem to like how to write a blog post or a tweet. So for example, I recently wrote a blog post about language model evaluations and I was asking O-1 about ideas for the structure of the blog post, pros and cons of certain benchmarks and even the style of the writing. And I think because it's able to think before it gives the final answer, it's able to connect ideas better. It can revise and critique candidate ideas and things like that. Yeah, I think if you need like a, you know, you have some short text and you want it more creative, something really different, that's a great use to like give me five different ideas. Also, if you have just sort of like some unstructured thoughts, it's a really brilliant thought partner. So you have like some ideas, it's like, well, how should I connect these things? What am I missing? And through its final answers and through sort of reading its like thought process, it can really lead to like much better results for you. Yeah, I use it to try out a bunch of our internal secret ideas and actually tries to improve it. Yeah, for standalone projects, it's great. Like, I had to add the GitHub plugin. I know nothing about adding GitHub plugins and I just said like, hey, I want GitHub plugin that displays this and this information about the PR and like, yeah, just produce the code. I just like, like, you know, I would just ask it like, okay, so where do I need to paste this code? I don't even know. It's just like, yeah, you paste it here. I think for a lot of people, it's hard to really fill the AGI until you see the models do something better than humans can at a domain that you really care about. And I think, you know, for Go players and chess players that would have come a few years earlier and for a lot of us that like really value math and coding, I think we're starting to feel that now. I want Mams to be proud of us. So are there any parts of this project, anything that really needed to be done, but, you know, people might not realize how important it is? Yes, so I think building large-scale, reliable infrastructure for to run our biggest flagship model training grounds, as well as doing research experiments is something that is not as exciting as doing research itself, but has to be done and it has a tremendous impact on the success on the entire project. I think there is something special in OpenAI about how we structure our research in that we value algorithmic advancements in the same way as building reliable large-scale systems and building data sets that are needed either way for training those models. I'm really proud of OpenAI in that way. I think that has been a consistent pattern throughout many of our big projects. Every time we scale a new thing up, another order of magnitude, we see another host of problems, both algorithmic and infrastructure, and we've definitely built a capacity to advance them both with a lot of focus. I feel the final model is just like literally a beautiful piece of art, right? In order to make it work, we have to make sure that every step has work, right? You know, we find some any time to solve it, right? I think that's really how OpenAI operates and I'm very proud to work on here. And I also must say there's like a really not only brilliant people are here, but also kind hearted. It's just fun to me to work over here and I'm grateful to my colleagues. So, you know, code with me, per code with me, hang out with me, eat lunch with me, like speak with the model with me. So what's it like to work on the Strawberry team? You can have your brilliant ideas, but most of the time you spend on like running them and not running and failing and then it's very good to have people very close by in your office that you can ask for help with whatever failed last time because I mean most of the time you spend your time debugging things that didn't work. And having people who can help you is... Speaking of this help, we had many times when we were trying to debug this for like a week. And then passing by Wenda and then like ask it and then like he just sold it right away. He started calling it a Wenda blessing and then blessing for other people. And that has been really, really effective. And I stopped like thinking about it's too stupid to ask and just ask right away. One of the things I like really appreciate about working on OpenAI is that from every big project like this, we like really learn, right? I think like from DOTA we learn the importance of engineering, from GPT-4 we learn the importance of research and we keep iterating like this. And the effect of that is that like now the Strawberry team is again the best big research project team yet because it's built on all of the things we've learned from the previous projects. And it really like you can like really see working here like people really like started developing, being developed very good intuition. Like when do you hack something? Where do you like need to develop stronger fundamentals? Like when do you start overnight? Where do you actually like take a weekend off and like come with a fresh mind to this particular problem? Like I think like it's really amazing to observe this progress we make as a company. Yeah, one thing I've liked is just how organic this project has felt. The ideas have come literally from everywhere on this team and people feel empowered to just like, hey, here's an idea I really believe in and it's the thing that I'm going to push. And also people are just willing to get their hands dirty. I feel like there have been a lot of deadlines, some self-imposed, but we've all really come together and you know, been willing to put in that work to make it happen. This project really demonstrated the power of momentum where we get initial good results and more and more people get excited about particular field and particular research. They try to contribute their new ideas. Those new ideas work even better. And then the things started snowballing and getting more and more momentum on itself and people just believing that this is the right thing to do and we should continue pushing this research. Related to that, I think we have a very, lots of very smart people, but also like very opinionated people. But people are always willing to like update their opinions once you see results to the contrary. And I think that's like make things really fun. It's kind of cool to be in that place that's a combination of like a brilliant scientist and engineers and folks who can like build out like incredible systems. It's very humbling. So one thing I remember a few months ago, I remember the model was very smart, but it was also kind of boring. So what was it like to give the model a personality? Yeah, so that's interesting. I remember I asked model about the meaning of life and it gave me an answer 42, which is not that bad of an answer. And, you know, it's kind of similarity when I asked model, you know, what is love? It told me, oh, it is like a strange human feeling. And once we actually gave model personality, made it actually work with chat, then the answers start being quite interesting. That day, you know, I asked about the love. It told me, you know, there's like a romantic love, familial love, self-love, non-conditional love, conditional love. And it became more useful and also more fun. The funnest moment is that I ask the exact same question and you try to define love with algebra. I'm sure you ask enough nerd questions. So what's the story of O1 Mini? How did that come to be? So the motivation is that we want to bring the O1 series to broader audience with a budgetary cost. So we created O1 Mini, which was designed to be like a minimal demonstration of the whole O1 pipeline or the framework. We make it a stand reasoning specialist, which may not necessarily know the birth date of our favorite celebrity, but really truly understands like how to do reasoning effectively and truly has a lot of intelligence. The model is actually really smart. It's like much smarter than our previous best model for all and also almost on par with our best model O1, but only comes with a fraction of cost and latency. It does have the limitation that you may not know a lot of the knowledge in the outside world, which is not about science or technology, but you try to make it roughly on par with our previous best model, like for O1 Mini, and we are working to improve it further. So I'm super excited for our external users who just try it out for this lightning experience of reasoning and thinking. So what motivates you to do your research? I just find it fascinating that in this world you have these things that can do intelligence and reasoning and they're much smaller than you'd think and they can do this in different ways. It's just super fascinating. Good things in life take time and our models just tend to answer too quickly. And eventually we want to have models that can do, for example, research for months or years. And I feel like this is the first step in the direction of models that can think very long for about one problem. And now we're at the level of minutes. And I think it's just the first step on a long path that hopefully takes us to models that can think for months or years as time goes by. It feels very meaningful that I, together with a small number of people, can have some substantial positive impact on the world. And also it's fun. Day to day it's just fun. I like, you know, speaking to the computer. I like starting a job on the cluster. I very much enjoy collaboration. It's just beautiful. I really like our models to be useful. And I think technology has a chance and a promise to improve human life. And I like our models to do work for us, to help us with our day to day problems and giving them ability to reason. It allows them to do for us things that they just couldn't before that will allow us to spend our time more productively. Yeah, I'm very excited about this. I mean, I think these sort of paradigms unlock things that the models couldn't do before. So it's not just like answering some sets of queries a little bit better, but it's actually getting to a point where through planning, through error correction, it's able to just unlock like new capabilities and the ability to produce new knowledge in the world for like science, for discovery, I think is one of the most exciting pieces for this. And I think in some short amount of time, it's going to become like a larger and larger contribution or contributor to its own development. And I think that's like a really exciting regime. I think some of the people on this team, we were math or coding Olympiad participants in the past. And there is this huge personal motivation to create a system that can beat us and do best. And I think the second thing really kind of echoes the point that JT and Leo made. You know, I do think reasoning is a much more powerful primitive than people give it credit for. You know, when you think about kind of accomplishing tasks reliably, really that fundamental primitive has to be reasoning. You're going to hit bottlenecks and you're going to have to navigate your way around them. So I'm really excited for that. I think AI researchers job is to find the way to put more compute in. And hardware people have been doing so good of a job that the cost has been going down exponentially for a very long time. And we don't have much time to find another way to put in more compute. And it's kind of like a weight on my shoulders is getting larger and larger. And this new paradigm really finds a way to unload that for probably a long time. Is there anything else you've observed as we've been going through this project for the whole time we've been doing it? Anything else that's worth calling out? I think an interesting meta observation that we've had is every model that we train is like a little bit different. It has its own quirks and it's almost like artisanal. Because when you look at a model that can do so many different tasks, each model you train won't be exactly the same performance at each task. So it might be better at some tasks and worse at others. And so there's this uniqueness or like personality to every model that is almost like a little bit beautiful. Thank you and congrats on releasing this.

#要約

このように、ChatGPTはOpenAI o1の開発秘話を程よい長さで要約してくれました。これなら、海外の動画コンテンツも手軽にキャッチアップできそうですね。

Webサイトのページ生成

ChatGPTでは、プログラミングの延長線上で、Webサイトのページも生成可。(※11)具体的には、JavaScriptやCSSで修飾された本格的なWebページが作れます。

試しに下記のプロンプトを使って、先ほどの文字起こしの要約をWebページ化してみると……

以下の文章を1ページのウェブサイト(ペラサイト)にまとめてください。
ウェブサイトはjavascriptとCSSを埋め込んだHTMLファイルにします。

OpenAIの研究チームリーダー、ボブ・マグルーが、新しいモデル「O1」と「O1 Mini」を発表しました。これらのモデルは推論力に優れており、従来のモデルよりも深く考えて回答することが特徴です。O1 MiniはO1と同じフレームワークで訓練された、小型で高速なバージョンです。
推論とは、深く考えることでより良い結果を生み出す力のことです。これらのモデルは、複雑な問題や創造的なタスクにおいて、時間をかけてより良い回答を提供します。OpenAIは、過去のプロジェクトの経験を活かして、O1シリーズの開発に取り組んできました。
開発の過程で、多くの「アハ体験」がありました。例えば、モデルが自己反省しながら数学の問題を解く姿を見て、新たな推論の可能性を感じたそうです。O1シリーズは、エンジニアリングと研究の両方の成果を結集しており、モデルが人間以上の能力を発揮する場面も見られました。
O1シリーズはコーディングやデバッグ、アイデアのブレインストーミングなど多様な用途で役立ち、より人間らしい思考過程を持っています。研究者たちは、これらのモデルが科学や技術の発展に寄与し、今後さらに多くの新しい知識を生み出すことに期待を寄せています。

このように、ChatGPTはHTMLコードを返してくれます。このHTMLコードをテキストエディタに貼り付けて拡張子を「.html」に変更し、GoogleChrome上で開いてみると……

お見事!古風なペラサイトが完成しました。

このプロンプトを応用すれば、ブラウザ上で動くテニスゲームやブロック崩しなんかも作れちゃいます。みなさんもぜひぜひ、HTMLを生成して遊んでみてくださいね。

CSV形式の合成データ作成

上級者向けにはなりますが、ChatGPTでは現実世界で得られるデータに似せた合成データも作成可。擬似的なアンケート結果を得たり、AIモデルの学習データを増幅したりといった使い方ができます。(※12、13)

ということで、この合成データについてもChatGPTで作っていきましょう!今回は2024年9月12日に登場したChatGPTの新顔「OpenAI o1」に下記のプロンプトを入力し、擬似的なアンケートを実施してみます。

あなたは最強最高のお客様です。以下の商品について条件に則ってレビューを返してください。
なお、レビューを返すたびにあなたは記憶を失って新しいお客様になります。
私に見せる出力は、レビュー100回分をまとめてCSV形式で出力しましょう。

#条件
・顧客No.,実用性,コストパフォーマンス,購買への意欲,選ぶ理由をヘッダーとする
・顧客は1から順番に番号を振る
・実用性は1が最低で5が最高評価
・コストパフォーマンスは1が最低で5が最高評価
・購買への意欲がある場合はTRUE、ない場合はFALSE
・TRUEの場合、商品を選ぶ理由も添える

#商品
ローカルLLMが全自動でメールを生成してくれるAIツール。
あえて送信はせず、完成品をユーザーの業務チャットに転送することでチェックできる。
RAGで自社データを引用させることも可能。
150,000円

気になる結果は……

お見事です!現実的なアンケート結果が返ってきました。

こちらは条件設定次第で、ビジネスに応用の効くデータが得られるかもしれません。ぜひぜひ、お試しください。

なお、Amazonでの合成データの活用事例について詳しく知りたい方は、下記の記事を合わせてご確認ください。

プロンプト次第で文章以外にも使えるChatGPT

当記事では、ChatGPTのプロンプトについて基本の型とデモンストレーションをお届けしました。以下にてもう一度、ChatGPT×プロンプトでできることをお見せします。

ChatGPT×プロンプトでできること
  • 文章作成
  • 文章要約
  • 文章添削
  • 要素の抽出
  • アイデア出し
  • 翻訳
  • 条件分岐・意思決定
  • コーディング
  • フレームワークに基づく思考(SWOT分析やジョブ理論)
  • 定性的なものの定量評価(感情分析)

ChatGPTはプロンプト次第で、文章生成・調べ物・プログラミング以外にも活躍してくれます。なかでもデータの加工は得意分野で、CSVやHTMLファイルを作成したり、感情分析を行ったりといった用途に最適です。

ほかには、文字起こしAI「Whisper」との組み合わせで議事録作成の自動化も可能。日々の雑務を大幅に効率化できてしまいます。

今までChatGPTを使ったことがない方、文章生成しか試したことがない方はぜひぜひ、他のタスクでもChatGPTをフル活用してみてくださいね!

・マーケティングやエンジニアリングなどの専門知識を学習させたAI社員の開発
・要件定義・業務フロー作成を80%自動化できる自律型AIエージェントの開発
・生成AIとRPAを組み合わせた業務自動化ツールの開発
・社内人事業務を99%自動化できるAIツールの開発
ハルシネーション対策AIツールの開発
自社専用のAIチャットボットの開発

無料で相談する

生成AIを社内で活用していきたい方へ

「生成AIを社内で活用したい」「生成AIの事業をやっていきたい」という方に向けて、生成AI社内セミナー・勉強会をさせていただいております。

セミナー内容や料金については、ご相談ください。

また、大規模言語モデル(LLM)を対象に、言語理解能力、生成能力、応答速度の各側面について比較・検証した資料も配布しております。この機会にぜひご活用ください。

投稿者

  • 2sc

    テクニカルライター 大学時代はアリの生態を研究。 ラボで唯一、Pythonを使ってデータ分析を効率化していた。 現在はライターとして、オウンドメディアや学術記事の執筆に当たっている。

  • URLをコピーしました!
  • URLをコピーしました!
目次