【タイムライン】AGI終末時計

AGI終末時計

タイムライン

Doomsday Clock – Timeline

#2 (2025/01/01 – )

現在のAIビックテックのAGI到達レベル

AGIパラメータ

– 2025年8月25日更新 –

AIビックテックのAGI到達レベルの変遷

AGI変遷

更新情報

※当初は2027年1月1日にAGI到達を想定しておりましたが、最新の動向を踏まえ到達時期を見直すこととなりました。
そのため、本更新より基準を修正しております。

2025年8月14日、Googleは新たなオープンモデル「Gemma 3 270M」を発表。
Gemma 3ファミリーの一員であるこのモデルは、その名の通り、約2億7千万パラメーターという極めて小型な規模ながら、高い性能と柔軟性を備えているのが特長である。44→45に変更。

現在のAIビックテックのAGI到達レベル

AGIパラメータ

– 2025年8月18日更新 –

AIビックテックのAGI到達レベルの変遷

AGI変遷

更新情報

2025年8月5日、Google DeepMindからAIモデル「Genie 3」が発表された。
テキストでの指示だけで、リアルタイムに操作可能な仮想世界を自動生成できるこのツールは、まるでゲームのようなインタラクティブな体験を可能にし、教育・研究・シミュレーションなど幅広い分野での活用が期待されている。 87→89に変更。

Alibabaから新たな画像生成AIが登場。
今回リリースされた「Qwen Image」は特に文字描画に長けており、ただ単純に画像に文字が入っているレベルではなく、「人がデザインしたかのように整って見えるテキスト・構成・スタイル」の画像を生成可能。47→48

2025年8月6日、AnthropicはClaude Opus 4.1をリリースした。
前バージョンClaude Opus 4からさらなる性能向上を果たし、特に複雑な推論・マルチファイルのコードリファクタリング・実用的なエージェントタスクへの対応力が向上。63→65に変更。

OpenAIは、1,170億(実稼働51億)パラメータの「gpt-oss-120b」と、より軽量な200億パラメータの「gpt-oss-20b」の2本立てでリリースされており、従来はクローズド環境に置かれがちだった高性能なLLMを、誰でもダウンロードして検証・改変・再配布できるようになっている。

2025年8月8日、OpenAIが「GPT-5」を正式発表!
前世代のGPT-4oやo3の良さを引き継ぎながら、「いつ素早く答え、いつ深く考えるか」を自動で切り替える統合設計が最大の特徴。92→94に変更。

– 2025年8月4日更新 –

AIビックテックのAGI到達レベルの変遷

AGI変遷

更新情報

2025年7月30日、ChatGPTに新しく「Study Mode(学習モード)」が追加された。
この機能は、ただ正解を提示するのではなく、ヒントや対話を通じて「考える力」を育てる学習支援ツール。対話を通じて学べる家庭教師のように、学生一人ひとりの理解に寄り添うことが可能に。変更なし。

2025年7月29日、MicrosoftがWebブラウザ「Edge」に新機能「Copilot Mode(コパイロットモード)」を導入!
AIがユーザーのニーズを先読みしてサポートする能動的なブラウジング体験へと進化させる試み。28→29に変更。

– 2025年7月29日更新 –

AIビックテックのAGI到達レベルの変遷

AGI変遷

更新情報

2025年7月10日にxAI社が、Grokの最新モデルであるGrok4を発表。
先代のGrok3から大幅に進化を遂げ、ベンチマークの結果を見る限りChatGPTやGemeni、Claudeなどといった主要の生成AIツールよりもハイスコアを記録。29→32に変更。

2025年7月14日、AWSからAIエージェント搭載のIDEが公開。
新たに公開された「Kiro」はコード補完に留まらず、要件定義から設計・実装・テスト・デプロイまでをAIエージェントと共に進めることが可能。12→15に変更。

アリババ CloudのQwenチームは、コード生成特化型の巨大言語モデル 「Qwen3‑Coder」 をリリース。
Qwen3ファミリーの中でもエンジニアリングに特化したオープンエージェントコーディングモデル。

さらに、2025年7月25日、アリババ・クラウドは多言語翻訳に特化した最新モデル「Qwen3‑MT」をリリース。
wen3ファミリーの技術をそのまま受け継ぎつつ、翻訳タスク専用に数兆規模の多言語・対訳トークンで追加学習が行われたモデル。45→47に変更。

– 2025年6月23日更新 –

(前回と変更なし)

AIビックテックのAGI到達レベルの変遷

AGI変遷

更新情報

2025年6月18日、「Gemini 2.5 Flash-Lite」が登場。
Gemini 2.5モデルの中で最も高速に動作し、最もコストに優れたモデル。
最大100万トークンの長文入力に対応し、テキスト・画像・音声・動画といったマルチモーダルにも対応。

– 2025年6月16日更新 –

AIビックテックのAGI到達レベルの変遷

AGI変遷

更新情報

2025年6月6日、Alibabaから新たなAIモデル「Qwen3-Embedding」が登場!
テキスト埋め込みモデルで、多言語対応。従来のLLMと異なり、明示的なタスク記述に対応したLLM。44→45に変更。

2025年6月11日、OpenAIは推論特化型モデル「o3」の最上位版となる 「o3‑pro」 をリリース!
GPT‑4oで確立したマルチモーダル技術と、o3系列で磨き上げた段階的思考アルゴリズムを統合し、200 kトークンという巨大なコンテキストを保持しながら、数理・科学・コーディング領域で従来モデルを上回る精度を実現。
OpenAIは「最も信頼できる汎用AI」と位置付けており、教育・研究・ビジネスの現場で“考える作業”そのものを肩代わりする存在として注目を集めている。91→92に変更。

– 2025年6月9日更新 –

AIビックテックのAGI到達レベルの変遷

AGI変遷

更新情報

2025年6月3日、Googleから「Gemini Fullstack LangGraph」が公開!
Geminiモデルの高精度な推論力とLangGraphの柔軟なエージェント制御が可能で検索クエリの自動生成からウェブ調査、ギャップ分析、回答生成までを一気通貫で実装しているのが特徴。 
公開からわずか数日でGitHub 2,000star超えを記録しており、LLMエンジニアの間で話題を呼んでいる。85→87に変更。

– 2025年5月26日更新 –

AIビックテックのAGI到達レベルの変遷

AGI変遷

更新情報

2025年5月21日 Google

Google I/O 2025でAI技術を中心に多数の新機能が発表された。
Gemini 2.5 Proの強化や、対話型検索が可能な「Google検索のAIモード」などが注目を集めたほか、新たなLLMやAIアシスタント機能の進化も披露された。78→85に変更。

Gemma 3n」が登場。
軽量・高性能なオープンソースAIモデルであり、スマートフォンやタブレットなどのオンデバイス実行に最適化。
Gemini Nanoと同じ基盤技術を使用し、「日常のデバイス上で動作するリアルタイムAI体験の実現」を目指して設計されたAIモデル。

Gemini Diffusionという「テキスト用拡散モデル」という新機軸を採用した研究モデルが公開。
従来の大規模言語モデル(LLM)がトークンを一語ずつ逐次的に出力するのに対し、Gemini Diffusionは、“ノイズを洗練させる”拡散過程を経て、複数トークンをブロック単位で同時に生成する。

動画生成AIのVeo3が公開。音声付きの動画がプロンプト1つで生成できるように進化していて、編集・リップシンク不要で会話調のショート動画などが作成可能に。

コーディング用AIエージェント「Jules
ソースコードの生成からデバッグ、プルリクエストまでの高度な自動化が可能。OpenAIが繰り出す「Codex」の直接的なライバル。

2025年5月23日

Anthropicから「Claude Opus 4」が登場!
コーディング性能が高いLLMであり、さらに複雑な問題解決に優れており、複数のエージェントに採用されている。
Cursor社や楽天が高い評価をしている。

同日、「Claude Sonnet 4」も公開。
「高速性」と「深い推論力」のバランスを兼ね備えたモデル。前世代のSonnet 3.7の「ハイブリッド推論」をさらに発展させ、用途に応じて即座に高速レスポンスを返したり、じっくりと思考を深めたりと自在に調整可能。59→63に変更。

– 2025年5月19日更新 –

AIビックテックのAGI到達レベルの変遷

AGI変遷

更新情報

2025年5月17日、OpenAIから「Codex」が登場!
ChatGPTのサイドバーやターミナル、API経由で動作し、コード生成からテスト、自動リファクタリングまでを一気通貫でサポート。
従来のコード補完ツールと異なり、仮想マシン内でコマンドを実行しながら結果を説明してくれるため、開発プロセスの透明性と安全性が大幅に向上。

– 2025年5月7日更新 –

AIビックテックのAGI到達レベルの変遷

AGI変遷

更新情報

2025年4月30日、Alibaba Cloudから最新大規模言語モデルファミリー「Qwen 3」がリリース!
前世代のQwen 2.5の推論・多言語性能に加え、思考プロセスを“見せる/隠す”モードを自在に切り替えられるハイブリッド設計を採用し、パフォーマンスとコスト効率を大幅に向上。

同日、Microsoftから新たなSLM「Phi-4-reasoning」が登場。
推論に特化したSLM (Small Language Model) であり、特に数学、科学推論、アルゴリズムの問題解決、コーディングといった分野で高い性能を発揮。大規模言語モデルに匹敵する性能を軽量な構成で実現することを目的にしている。

2025年5月2日、Claudeに新機能「Integrations」を実装。
Web版&デスクトップ版Claudeと外部ツールを「MCPサーバーのインストールなし」で実現してくれるように。
Claudeと外部ツールをシームレスに連携することが可能。

– 2025年4月21日更新 –

AIビックテックのAGI到達レベルの変遷

変更なし。

更新情報

2025年4月17日、OpenAIから「o3」が登場。
GPT-4までの従来モデルと比べ、「より長く考えてから回答する」ことを特徴とする「oシリーズ」の第3世代モデル。
ChatGPT環境において、ツールのフル活用が可能で、ウェブ検索・コード実行(Python)・ファイルや画像の解析・画像生成といったあらゆるツールを自律的に組み合わせて問題解決ができるように。

同日、推論能力やコスト効率にも優れたハイバランスモデル「o4-mini」が公開。
軽量でありながらも、推論能力が向上しているモデル。軽量ながらもマルチモーダル対応であり、手書きの文字や画像内の情報も理解可能。

さらに、ターミナル上からコマンドラインで操作することができる、コーディングエージェント「Codex CLI」も公開。
マルチモーダル対応であり、スクリーンショットや手書きのUIスケッチからコードが生成でき、すべての処理はユーザーのローカル環境内で行われる。

2025年4月18日、Googleから新たな大規模言語モデル「Gemini 2.5 Flash」がリリース。
速応答とコスト効率を維持しつつ高度な推論能力を備えた「ハイブリッド推論モデル」で、
従来モデル(Gemini 2.0 Flash)の優れた基盤の上に構築されており、初めて「思考(thinking)」モードをオン/オフできる設計が採用。

– 2025年4月14日更新 –

AIビックテックのAGI到達レベルの変遷

AGI変遷

変更理由

Googleが、2025年4月9日にAgent2Agentというオープンプロトコルを発表。
異なるベンダーやフレームワークで構成されたAIエージェント同士をシームレスに連携し、一括で作業を行えるようにするプロトコル。
IntuitやPayPal、Salesforceといった50社以上のテクノロジーパートナーとAccentureやBCG、Capgeminiなどの主要なサービスプロバイダーが参加しており、今後更なる機能の拡大が期待されている。77→78に。

– 2025年3月31日更新 –

AIビックテックのAGI到達レベルの変遷

AGI変遷

変更理由

2025年3月24日、Microsoftから「Playwright MCP」が登場。
LLMがWebブラウザを操作できるようにするためのツール。高速かつ軽量で従来のスクリーンショットに頼らない新たな手法を用いているとのこと。22→26に変更。

2025年3月26日、Googleから試験版の「Gemini 2.5 Pro」が公開。
これまでで最も知的と位置づけられた次世代モデルであり、回答生成前に内部で「思考」する能力を備えた大規模言語モデル。前モデルのGemini 1.5やGemini 2.0 Proから大幅に進化しており、数学・科学・コードの各種ベンチマークで競合を凌駕する結果に。75→77に。

– 2025年3月24日更新 –

AIビックテックのAGI到達レベルの変遷

AGI変遷

変更理由

2025年3月21日、OpenAIが、次世代音声認識モデル「GPT-4o Transcribe」「GPT-4o Mini Transcribe」を公開。
「GPT-4o Transcribe」は、従来のWhisperモデルを上回る性能を持ち、
人間に近いレベルの聞き取り精度と堅牢性で、テキストベースのAIエージェントを音声対話へと拡張するような仕組み。
「GPT-4o Mini Transcribe」はGPT-4o Transcribeの軽量高速版であり、モデルサイズを小型化し、推論速度を向上させている。

同日、さらに新たな音声合成モデル「GPT-4o Mini TTS」が公開。
従来の音声合成モデルに比べ、テキストをより自然な音声に変換するための軽量かつ高性能モデル。
話し方を指示できるのが大きな特徴で、音声出力の対応言語は多言語対応になっており、英語はもちろん、スペイン語や日本語、フランス語、中国語などに対応している。88→91に。

– 2025年3月17日更新 –

AIビックテックのAGI到達レベルの変遷

AGI変遷

変更理由

2025年3月12日、OpenAIから新たなマルチエージェントワークフロー「Agents SDK」と従来の「Chat Completions API」と「Assistants API」の統合「Responses API」が登場。
Agents SDKは、「swarm」をベースに改良されたAIエージェント開発フレームワークで、高度なAIエージェント構築の支援、複雑なタスクの自動化を容易にすることを目的としている。
Webサーチやファイルサーチ、コンピューター操作といったツールも組み込まれ、誰でも標準利用可能に。85→88に。

同日、Googleから「Gemma 3」が公開された。
リリースされたモデルは1B、4B、12B、27Bの4モデルで、1B以外はマルチモーダル対応(画像)。
Gemma 2と比べると、全てのベンチマークでスコアが向上しているが、Gemini 2.0 FlashProで比較してみると、性能がやや劣るよう。72→75に。

– 2025年3月3日更新 –

AIビックテックのAGI到達レベルの変遷

AGI変遷

変更理由

2025年2月20日、「PaliGemma 2」をベースとした「PaliGemma 2 mix」を公開。
追加の学習なしで汎用的な画像と言語の処理能力を発揮する実用的なモデルであり、マルチモーダル入力も可能。
物体検出やOCRに活用できる。70→72に。

2025年2月25日、AnthropicからClaudeの新たなモデル「Claude 3.7 Sonnet」が公開。
安全性と性能を兼ね備えたハイブリッド型の推論モデル。
従来のモデルにはない新たな「拡張思考モード」を搭載し、複雑な問題に対しても回答できるように。54→58に。

2025年2月27日、OpenAIはGPT-4oの後継にあたる「GPT-4.5」を公開。
思考力と会話の自然さが向上したGPT-4.5では、従来モデルよりもわかりやすく、適切な回答が行えるようになった。83→85に。

同日、Microsoftから新しい言語モデル「Phi-4-multimodal」と「Phi-4-mini」が公開。、
Phi-4-multimodalはテキストのみならず画像や音声などの入力が可能なマルチモーダルモデル。
テキストだけではなく、画像や音声などの組み合わせによる推論が可能になっていて、音声+テキストや画像+音声などといった推論が可能に。

Phi-4-miniは3.8億パラメータを持つコンパクトなモデル。
従来の大型モデルに匹敵する性能を発揮。
小型かつ高速なモデル設計のため、エッジデバイスやオンデバイス実行での利用が可能に。18→22に変更。

– 2025年2月25日更新 –

AIビックテックのAGI到達レベルの変遷

AGI変遷

変更理由

2025年2月18日、Grok-3が公開。
前世代の「Grok2」と比較するとおよそ10倍ものトレーニングが行われている。
ベンチマークの結果から、複数項目でGemini 2 Pro、Deepseek V3、Claude 3.5 Sonnet、GPT-4oといった最新のAIモデルよりもGrok3の性能が優れていることが明らかに。24→29に変更。

– 2025年2月10日更新 –

AIビックテックのAGI到達レベルの変遷

AGI変遷

変更理由

2025年2月2日、ChatGPTの新機能であるdeep researchを公開。
検索、分析し、高精度なレポートを自動生成するエージェント機能を搭載。81→83に変更。

2025年2月6日、Googleは「Gemini 2.0シリーズ」を拡張。
Gemini 2.0に「Pro」モデルと「Flash-Lite」モデルが追加された。
Gemini 2.0 Proは、これまでのモデルに比べコーディング性能が向上。200万トークンのコンテキストウィンドウをもち、大量の情報を一度に処理することも可能に。
Gemini 2.0 Flash-Liteは低コスト版として開発され、処理コストは100万トークンあたり約0.019ドル。64→70に変更。

– 2025年2月3日更新 –

AIビックテックのAGI到達レベルの変遷

AGI変遷

変更理由

2025年1月28日、QwenグループからVLM「Qwen2.5-VL」が公開された。
画像とテキストだけではなく1時間を超える動画を解析し、特定のイベントを識別することが可能。
エージェント機能が搭載され、AndroidのUI操作やタスク実行ができるようになった。

2025年1月29日、QwenグループからVLM「Qwen2.5-Max」が登場。3日連続のリリースとなった。
事前トレーニングは20兆トークンで、DeepSeek V3、GPT-4o、Claude-3.5-SonnetなどのLLMと比較し、DeepSeek V3を上回る性能を発揮。39→43に変更した。

2025年1月31日OpenAIから「o3-mini」が登場。
従来の「o1-mini」と比較して応答速度が24%向上し、より正確な回答を提供。
推論モデルと検索機能が統合された初期のモデルとなった。79→81に変更した。

– 2025年1月27日更新 –

AIビックテックのAGI到達レベルの変遷

変更理由

OpenAIは、2025年1月14日に、リマインダー機能である「タスク」を有料プラン加入ユーザー向けにベータ版として提供開始。
指定した時間に指定したタスクをこなすことができるので、ChatGPTを使って毎日繰り返し行う作業や、時間になったら最新のニュースを通知してくれる様に。

2025年1月21日、ソフトバンク・OpenAI・オラクル・MGX・Arm・Microsoft・NVIDIAなど大手企業を中心に全世界に莫大な経済的利益をもたらす取り組み
AI技術の安全性と倫理的側面への配慮は不可欠であり、これらの企業は透明性のある運用で、新しい時代を築いていくことが期待されている。

2025年1月23日、OpenAIからWebブラウザを直接操作してタスクをこなすことができるAIエージェントが公開。
画面に表示されるボタンやメニュー、テキストなどのGUIで操作できるように。よって72→79に変更。

2025年1月27日、Qwenグループから100 万トークンのコンテキストを処理する「Qwen2.5-1M」が登場。
他の大規模言語モデルと比較して、同等またはそれ以上の性能を持ちながら、計算コストが低く、効率的に動作するように。37→39に変更。

AGI終末時計について

終末時計が、世界の平和を祈る注意喚起であるように、
AGI終末時計も、AIによる支配を目指すものではありません。

むしろ日本らしいロボットアニメやドラえもんのような、
AIとの共創カルチャーを目指し、
子どもたちがAI-Nativeな時代で楽しく過ごせるように。

私たち大人が「未来に追いつく指標作り」をヴィジョンとして運営していきます。

このAGI終末時計は、皆様からのご意見を元に客観的な視点をもって随時更新されていくことを前提としています。
AGI度数やAGIレベル、そしてそれぞれの数値について皆さんのご意見や批判を受け付けております。
ご意見がある際はX(Twitter)にて #AGI終末時計 とつけてポストしてください。
弊社で確認させていただきます。

【運営元のWEELについて】

運営元のWEELについて

WEELはただの情報発信ではなく、未来予測をする拠点としてメディアを位置付けてきました。

活動は多岐にわたり、

  • OpenAIやGAFAMの生成AI競争の記事化
  • 次のトレンドを予測して、GitHubで生成AIのOSSをレビュー
  • HuggingFaceから面白いLLMを記事化
  • お客様のPC操作を模倣する自律型AIの開発

etc…

これまでの活動で得たノウハウ、最新情報、

そして皆様からのフォードバックとお便りをもって

AGI終末時計を更新し続け、現在のAIの進歩を可視化することで

AGIの到来にどこまで近づいているかお伝えします。