AIニュース AIプロダクト

GPT-5.4 mini / nano発表|料金3倍でも「サブエージェント時代の本命」とRedditが反応

OpenAIが2026年3月17日、GPT-5.4 miniとGPT-5.4 nanoを同時リリースしました。小型モデルながらSWE-bench Proで54.4%(miniがフルサイズGPT-5.4の57.7%に迫る)、nanoはわずか$0.20/1Mトークンという価格設定で、r/OpenAIで183+120アップボート、r/singularityで132アップボートと複数スレッドで大きな反響を呼んでいます。

GPT-5 miniから入力価格が3倍になった点には批判もありますが、「サブエージェント時代の本命」として開発者コミュニティでは好意的な声が多数。この記事では公式スペック・料金・ベンチマークを整理し、競合比較とRedditの生の反応を翻訳付きで紹介します。

この記事でわかること

  • GPT-5.4 mini / nanoの公式スペックとベンチマークスコア
  • GPT-5 mini/nanoからの価格変動と競合モデルとの料金比較
  • Claude Haiku 4.5・Gemini 3.1 Flash-Liteとの性能ポジショニング
  • r/OpenAI・r/singularityの反応(翻訳付き・投票数明記)

GPT-5.4 mini / nanoの全体像

GPT-5.4 miniはChatGPT・Codex・APIで利用可能な高性能小型モデル、GPT-5.4 nanoはAPI限定の超低コストモデルです。OpenAIは両モデルを「史上最も能力の高い小型モデル」と位置づけ、コーディング・推論・マルチモーダル理解・ツール使用のすべてでGPT-5 miniから大幅に向上したと発表しています。

GPT-5.4 miniはFreeプラン・Goプランのユーザーにも「Thinking」機能経由で提供され、ChatGPTの無料ユーザーが使えるモデルとしては最も高性能なものになります。一方nanoはAPIのみの提供で、分類・データ抽出・ランキングなど大量処理タスクを低コストでこなす開発者向けモデルです。

スレッド プラットフォーム スコア トピック
Introducing GPT-5.4 mini and nano r/OpenAI 183+ 公式発表の共有・スペック議論
BREAKING: OpenAI just dropped GPT-5.4 mini and nano r/OpenAI 120+ ベンチマーク詳細と価格への反応
OpenAI releases mini and nano variants of GPT 5.4 r/singularity 132+ オープンモデルとの比較議論

スペックとベンチマーク

GPT-5.4 mini:フルサイズに迫るコーディング性能

GPT-5.4 miniはSWE-bench Proで54.4%を記録し、フルサイズGPT-5.4の57.7%にわずか3.3ポイント差まで迫りました。前世代GPT-5 miniの45.7%から約9ポイントの向上です。OSWorld-Verified(コンピュータ操作ベンチマーク)では72.1%と、GPT-5.4の75.0%にほぼ並ぶスコアを出しています。

コンテキストウィンドウは400Kトークン。テキストと画像のマルチモーダル入力、ツール使用、関数呼び出し、Web検索、ファイル検索、コンピュータ操作に対応しています。GPT-5 miniから2倍以上高速化されたことも大きなポイントです。

ベンチマーク GPT-5.4 GPT-5.4 mini GPT-5 mini
SWE-bench Pro 57.7% 54.4% 45.7%
OSWorld-Verified 75.0% 72.1% 42.0%
GPQA Diamond - 88.0% -
Terminal-Bench 2.0 - 60.0% -
Toolathlon - 42.9% -
Tau2-Bench (telecom) - 93.4% -

出典:OpenAI公式ブログAdam Holter

GPT-5.4 nano:$0.20で「GPT-5 mini超え」の衝撃

GPT-5.4 nanoは入力$0.20/1Mトークンという超低価格ながら、前世代GPT-5 miniを上回る性能を発揮します。SWE-bench Proで52.39%、Terminal-Bench 2.0で46.30%を記録。r/OpenAIでも「nanoがxhighでGPQA 82%は、分類・抽出ワークフローには十分すぎる」(2 upvotes)という声がありました。

Simon Willisonのブログでは、写真1枚の説明に約0.069セントしかかからず、「76,000枚の写真コレクション全体を説明しても約52ドル」と試算されています。APIのみの提供ですが、分類・データ抽出・ランキング・サブエージェントなど大量処理タスクでの利用を想定した設計です。

料金比較:GPT-5世代から3倍の値上げ

GPT-5.4 miniの入力価格は$0.75/1Mトークンで、GPT-5 mini($0.25)の3倍です。nanoも$0.20で前世代の$0.05から4倍に跳ね上がりました。Redditでは「入力価格が3倍になった。ドロップインリプレースにはならない」(r/OpenAI、2箇所で指摘)という懸念が複数のスレッドで共有されています。

モデル 入力 / 1Mトークン キャッシュ入力 出力 / 1Mトークン
GPT-5.4 $2.50 $0.25 $15.00
GPT-5.4 mini $0.75 $0.075 $4.50
GPT-5.4 nano $0.20 $0.02 $1.25
GPT-5 mini(前世代) $0.25 - $2.00
GPT-5 nano(前世代) $0.05 - $0.40

出典:Simon Willison's WeblogTHE DECODER

ただしキャッシュ入力を活用すれば、miniは$0.075、nanoは$0.02と大幅に抑えられます。サブエージェント構成で同一コンテキストを繰り返し参照するユースケースでは、実質コストは表示価格よりかなり低くなる設計です。

競合モデルとのポジショニング

API料金で見る小型モデル市場

GPT-5.4 nanoは$0.20/$1.25(入力/出力)で、GoogleのGemini 3.1 Flash-Lite($0.25/$1.50)を下回る価格設定です。r/singularityでは「オープンモデルがベンチマークで上回っている」(30 upvotes)という指摘もありますが、APIの安定性・ツール連携・エコシステムの成熟度ではOpenAIに優位性があります。

モデル 入力 / 1M 出力 / 1M ポジション
GPT-5.4 mini $0.75 $4.50 高性能小型モデル
Claude Haiku 4.5 $1.00 $5.00 Anthropicの小型モデル
GPT-5.4 nano $0.20 $1.25 超低コスト・大量処理向け
Gemini 3.1 Flash-Lite $0.25 $1.50 Googleの超低コストモデル

GPT-5.4 miniはClaude Haiku 4.5より25%安い入力価格で、コーディングベンチマークではminiが優位です。r/OpenAIでは「Haikuは最悪中の最悪。ようやくSamがClaudeの弱点を突いた」(5 upvotes)という辛辣なコメントもありました。一方、r/accelerateでは「5.4-miniはSonnet 4.6と同等の知性で70%安く3倍速い」(7 upvotes)という評価も出ています。

Reddit・海外コミュニティの反応

r/OpenAIとr/singularityの生の声を翻訳付きで紹介します。反応は「小型モデル歓迎」と「値上げ批判」に二分されています。

72 upvotes r/OpenAI - Introducing GPT-5.4 mini and nanoスレッド

"Small fast models like this are actually fantastic for a lot of work and I'm glad they're finally bringing out next gen versions of these models."

「こういう小型高速モデルは実際の業務で本当に使える。次世代版をようやく出してくれて嬉しい。」 ── スレッド最多の支持を集めたコメント。実務でmini/nanoクラスを使っている開発者からの声です。

54 upvotes r/OpenAI - Introducing GPT-5.4 mini and nanoスレッド

"I need a graph comparing it with Gemini Flash 3 on price and coding ability."

「Gemini Flash 3との価格とコーディング能力の比較グラフが欲しい。」 ── 開発者が最も気にしているのは対Google比較。小型モデル市場ではGemini Flash系が最大の競合です。

21 upvotes r/OpenAI - BREAKINGスレッド

"Wish 5.4 mini was open model like oss models"

「5.4 miniがオープンソースモデルだったらよかったのに。」 ── GPT-OSSの公開以降、OpenAIのクローズドモデルに対するオープン化要望が増加しています。

12 upvotes r/OpenAI - BREAKINGスレッド

"I ran some benchmark on them and, yeah, for some real world tasks, they are cheaper, faster, and better. Ever since gpt 4.1-mini beat gpt 4o on some agentic steps of a RAG pipeline I was building about a year ago, I'm more enthusiastic about mini/nano models."

「実際にベンチマークを走らせてみたが、実務タスクではたしかにコスパがいい。1年前にGPT-4.1 miniがRAGパイプラインの一部でGPT-4oを上回って以来、mini/nanoモデルに期待している。」 ── 実務検証に基づく好意的な評価。

価格への懸念

43 upvotes r/OpenAI

"warning: price increased from $0.05 to $0.20 for nano, from $0.25 to $0.75 for mini (for input tokens). So don't replace it in your configs."

「注意:nanoの入力価格が$0.05→$0.20、miniが$0.25→$0.75に値上がりした。設定ファイルで安易に置き換えるな。」 ── 43アップボートを獲得した実用的な警告。既存のGPT-5 miniユーザーへの注意喚起としてコミュニティで広く支持されました。

30 upvotes r/singularity

"both are vastly overpriced - open model beat it on benchmarks for less. I believe you can run GLM 5 for the same cost as mini"

「どちらも高すぎる。オープンモデルのほうがベンチマークで上回っていて安い。GLM 5をminiと同じコストで動かせるはず。」 ── r/singularityで最多支持を集めた批判的意見。オープンソースモデルの台頭により、クローズドAPIの価格正当性が問われています。

開発者にとっての意味

サブエージェント時代の「実行役」モデル

OpenAIが今回のリリースで最も強調しているのは「サブエージェント」としての活用です。大型モデル(GPT-5.4)が計画・判断を担当し、miniやnanoが並列で個別タスクを実行するアーキテクチャが想定されています。OpenAIの発表によると、この構成でGPT-5.4の直接利用を約30%削減できるとされています。

GitHub CopilotもGPT-5.4 miniを即日採用し、コーディング支援のサブエージェントとして利用開始しました。r/GithubCopilotでは「学生向けにmini版を出してくれてありがたい」(2 upvotes)という声もあります。

コスト最適化のポイント

前世代からの値上げは事実ですが、性能あたりのコスト効率は向上しています。SWE-bench Proのスコアで比較すると、GPT-5 miniは$0.25で45.7%、GPT-5.4 miniは$0.75で54.4%。入力価格は3倍ですが、コーディング性能は19%向上しています。

キャッシュ入力の活用が鍵です。miniのキャッシュ入力は$0.075で前世代の通常価格$0.25よりも安く、サブエージェント構成で同一プロンプトを繰り返す場合は実質的にコスト削減になります。nanoのキャッシュ入力$0.02は現在の主要APIモデルの中で最安値クラスです。

Aitly編集部の見解

EDITORIAL

GPT-5.4 mini/nanoの本質は「小型モデルの再定義」です。従来の小型モデルはフルサイズの廉価版という位置づけでしたが、OpenAIは今回「サブエージェントのための専用モデル」として明確にポジショニングしました。OSWorld-Verified 72.1%という驚異的なスコアは、コンピュータ操作を伴うエージェントタスクでの実用性を強く示唆しています。

値上げへの批判は理解できますが、キャッシュ入力の価格設計を見ると、OpenAIの狙いが明確です。単発のAPI呼び出しではなく、サブエージェント構成で繰り返し利用するユーザーに最適化された料金体系です。GPT-5 miniをそのまま置き換えるのではなく、アーキテクチャごと見直すことを前提とした設計と見るべきでしょう。

r/singularityの「オープンモデルのほうが安くて強い」という指摘は一定の正当性があります。GLM 5やオープンソースの120Bクラスモデルがベンチマークで競り合う中、OpenAIの優位性は「モデル単体の性能」ではなく「ChatGPT・Codex・APIのエコシステム統合」にあります。GitHub Copilotが即日採用した事実が、そのエコシステムの力を端的に示しています。

よくある質問

ChatGPTのFreeプラン・Goプランで「Thinking」機能経由で利用可能です。APIを利用する場合は入力$0.75/1Mトークン、出力$4.50/1Mトークンの従量課金になります。

入力価格が3倍($0.25→$0.75)に上がっているため、コスト管理に注意が必要です。Redditでも「設定ファイルで安易に置き換えるな」(43 upvotes)と警告されています。性能は大幅に向上していますが、予算への影響を確認してから移行してください。

OpenAI公式は分類、データ抽出、ランキング、コーディングサブエージェントを推奨しています。入力$0.20/1Mトークンという価格は大量処理に適しており、Simon Willisonの試算では76,000枚の写真の説明生成でも約52ドルで済みます。

コーディングタスクではGPT-5.4 miniが優位です(SWE-bench Pro 54.4%)。最安値を求めるならGPT-5.4 nanoがGemini 3.1 Flash-Liteより安価です。Claude Haiku 4.5は入力$1.00で最も高額ですが、Anthropicのエコシステム内で利用する場合は統合のメリットがあります。用途とエコシステムで選ぶのが現実的です。

※ この記事の情報は2026年3月18日時点のものです。Redditのアップボート数・コメント数は変動する場合があります。
※ 記事内のRedditコメントの翻訳はAitly編集部によるものです。

  • この記事を書いた人

Aitly編集部

AIツール比較メディア「Aitly」の編集部。ChatGPT・Claude・Geminiをはじめ、主要AIツールを実際に使い込んだうえで比較検証しています。スペック表だけではわからない「実際どうなの?」を、独自テストと料金分析でお届けします。

-AIニュース, AIプロダクト
-, , , ,