クイック比較
Giselle で利用可能な OpenAI モデルの主な機能を以下の表にまとめました。| Models | Generate Text | Input Image | Web Search | Reasoning | Context Window | Max Output Tokens | Pricing (Input/Output per 1M tokens) | Availability |
|---|---|---|---|---|---|---|---|---|
| gpt-5.2 | ✅ | ✅ | ✅ | ✅ (Highest) | 400k tokens | 128k tokens | 14.00 | Pro |
| gpt-5.2-codex | ✅ | ✅ | ✅ | ✅ (Highest) | 400k tokens | 128k tokens | 14.00 | Pro |
| gpt-5.1-thinking | ✅ | ✅ | ✅ | ✅ (Highest) | 400k tokens | 128k tokens | 10.00 | Pro |
| gpt-5.1-codex | ✅ | ✅ | ✅ | ✅ (Highest) | 400k tokens | 128k tokens | 10.00 | Pro |
| gpt-5 | ✅ | ✅ | ✅ | ✅ (Highest) | 400k tokens | 128k tokens | 10.00 | Pro |
| gpt-5-mini | ✅ | ✅ | ✅ | ✅ (High) | 400k tokens | 128k tokens | 2.00 | Pro |
| gpt-5-nano | ✅ | ✅ | ❌ | ✅ (Medium) | 400k tokens | 128k tokens | 0.40 | Free |
| gpt-image-1 | ❌ | ✅ | ❌ | ❌ | Unknown | N/A | 40.00 | Open Source |
GPT-5.2 シリーズモデル
GPT-5.2 は OpenAI の最高の汎用モデルであり、GPT-5 フラッグシップモデルファミリーの一部です。汎用タスクとエージェンティックタスクの両方において最も知的なモデルであり、従来の GPT-5.1 と比較して、一般的な知性、指示追従、精度とトークン効率、マルチモダリティ(特にビジョン)、コード生成(特にフロントエンド UI 作成)、ツール呼び出しとコンテキスト管理、スプレッドシートの理解と作成において大幅な改善を示しています。gpt-5.2
GPT-5.2 は、あらゆる業界のコーディングとエージェンティックタスクのための OpenAI のフラッグシップモデルです。以前の GPT-5.1 モデルを置き換え、複雑な推論、広範な世界知識、コード重視または多段階のエージェンティックタスクにおいて最先端のパフォーマンスを提供します。このモデルは、低遅延の対話のためにデフォルトでnone に設定される設定可能な推論努力レベル(none、low、medium、high、xhigh)と、デフォルトで medium に設定されるテキスト冗長性制御(low、medium、high)をサポートしています。
- 主な特徴: 強化された一般的な知性、優れた指示追従、改善されたビジョン機能、高度なコード生成、設定可能な推論努力(最も深い推論のための
xhighを含む) - Context Window: 400,000 tokens
- Max Output Tokens: 128,000 tokens
- Knowledge Cutoff: August 31, 2025
- Inputs: Text, Image
- Reasoning Effort:
none(デフォルト)、low、medium、high、xhigh - Text Verbosity:
low、medium(デフォルト)、high - Availability: Pro Plan
gpt-5.2-codex
GPT-5.2-Codex は、長期的でエージェンティックなコーディングタスクに最適化された GPT-5.2 のアップグレード版です。OpenAI の最も知的なコーディングモデルであり、Codex や類似のコーディング環境での使用を目的として設計されています。GPT-5.2-Codex は推論の深さを制御するための推論努力レベル(low、medium、high、xhigh)をサポートし、最適なコード出力品質を確保するためにテキスト冗長性は medium のみに制限されています。
- 主な特徴: エージェンティックコーディングに最適化、長期的タスク、強化されたコード生成、推論トークンサポート
- Context Window: 400,000 tokens
- Max Output Tokens: 128,000 tokens
- Knowledge Cutoff: August 31, 2025
- Inputs: Text, Image
- Reasoning Effort:
low、medium、high、xhigh - Text Verbosity:
medium(固定) - Availability: Pro Plan
GPT-5.1 シリーズモデル
GPT-5.1 シリーズは、OpenAI の GPT-5 モデルの最新進化版であり、知性とコミュニケーションスタイルの両方で有意義な改善を実現しています。これらのモデルはよりスマートで自然なトーンを持ち、指示追従能力が強化されています。gpt-5.1-thinking
GPT-5.1 Thinking は、複雑な問題解決タスクに設計された OpenAI の高度な推論モデルです。適応的思考時間を特徴とし、複雑な問題にはより多くの時間をかけ、シンプルな問題にはより迅速に応答します。これにより、難しいリクエストにはより徹底的な回答を、シンプルなものには待ち時間を短縮します。モデルの応答はより明確で、専門用語や未定義の用語が少なく、仕事での複雑なタスクや技術的概念の説明においてよりわかりやすくなっています。- 主な特徴: 適応的推論、より明確な説明、数学とコーディングのパフォーマンス向上
- Context Window: 400,000 tokens
- Max Output Tokens: 128,000 tokens
- Inputs: Text, Image
- Availability: Pro Plan
gpt-5.1-codex
GPT-5.1 Codex は、コーディングとソフトウェア開発タスクに特化しています。GPT-5.1 の知性と指示追従の改善を基に、強化されたコード生成、デバッグ、リファクタリング、技術ドキュメント作成機能を提供します。正確で信頼性の高いコード出力を必要とする開発者やエンジニアリングワークフローに最適な選択肢です。- 主な特徴: 強化されたコード生成、改善されたデバッグ、より良い指示追従
- Context Window: 400,000 tokens
- Max Output Tokens: 128,000 tokens
- Inputs: Text, Image
- Availability: Pro Plan
GPT-5 シリーズモデル
GPT-5 シリーズは、様々なユースケースに対応するパフォーマンス、速度、コスト効率のバランスを取ったモデル群を提供しています。gpt-5
GPT-5 は OpenAI のフラッグシップモデルで、様々な領域におけるコーディング、複雑な推論、エージェンティックなタスクの新たな基準を設定しています。専門家レベルの知能と深い推論エンジンを内蔵し、多段階問題、技術文書作成、テキスト・コード・画像の分析において例外的な能力を発揮します。ウェブ検索機能もサポートしています。- Context Window: 400,000 tokens
- Max Output Tokens: 128,000 tokens
- Knowledge Cutoff: October 1, 2024
- Inputs: Text, Image
- Availability: Pro Plan
gpt-5-mini
GPT-5 mini は、明確に定義されたタスクに最適化された、より高速でコスト効率に優れた GPT-5 のバージョンです。強力な推論能力を維持しながら、知能、速度、手頃な価格のバランスを取っています。画像入力とウェブ検索をサポートし、多くの一般的な用途において汎用的な選択肢となっています。- Context Window: 400,000 tokens
- Max Output Tokens: 128,000 tokens
- Knowledge Cutoff: May 31, 2024
- Inputs: Text, Image
- Availability: Pro Plan
gpt-5-nano
GPT-5 nano は GPT-5 シリーズで最も高速で費用対効果に優れたモデルです。要約や分類などの高スループットタスク用に設計され、迅速かつ効率的なパフォーマンスを提供します。テキストと画像の入力をサポートしていますが、ウェブ検索機能は含まれていません。- Context Window: 400,000 tokens
- Max Output Tokens: 128,000 tokens
- Knowledge Cutoff: May 31, 2024
- Inputs: Text, Image
- Availability: Free Plan
画像生成モデル
これらのモデルは、テキストや画像入力から高品質な画像を生成することに特化しています。gpt-image-1
OpenAIの最先端画像生成モデルです。テキストと画像の両方の入力を受け入れ、画像出力を生成するネイティブマルチモーダル言語モデルです。このモデルは異なる品質レベル(Low、Medium、High)を提供し、様々な画像サイズをサポートしており、使用例の要件に基づいた柔軟な生成が可能です。注記: このモデルは現在、Open Source プランでのみ利用可能です。
- Pricing: Input text: 10.00 per 1M tokens, Output images: $40.00 per 1M tokens
- Quality Options: Low, Medium, High
- Supported Dimensions: 1024x1024, 1024x1536, 1536x1024
- Knowledge Cutoff: April 2025 (estimate based on release date)
- Inputs: Text, Image
- Outputs: Image
- Availability: Open Source
モデル選択ガイド
Giselle 内で最適な OpenAI モデルを選択するためのガイドライン:- 最高の総合パフォーマンス、コーディング、エージェンティックなタスク、最高の推論性能には:
gpt-5.2(Pro) - OpenAI の最も高性能なモデル - 長期的なエージェンティックコーディングタスクには:
gpt-5.2-codex(Pro) - OpenAI の最も知的なコーディングモデル - 深い推論と複雑な問題解決には:
gpt-5.1-thinking(Pro) - コーディングとソフトウェア開発には:
gpt-5.1-codex(Pro) - 信頼性の高い汎用タスクには:
gpt-5(Pro) - 明確に定義されたタスク向けの高速でコスト効率的なGPT-5バージョンには:
gpt-5-mini(Pro) - 要約や分類用の最高速で最もコスト効率的なGPT-5バージョンには:
gpt-5-nano(Free) - テキストまたは画像入力からの高品質画像生成には:
gpt-image-1(Pro)
Giselle でのプラクティス
Pro ユーザーには gpt-5.2 を Giselle における汎用性の高い主力モデルとして推奨いたします。OpenAI の最も高性能なモデルであり、一般的な知性、指示追従、精度、マルチモダリティ(特にビジョン)、コード生成、ツール呼び出し、スプレッドシートの理解において最先端のパフォーマンスを提供します。GPT-5.2 は高い信頼性と精度を持つよう設計されており、GPT-5.1 Thinking と比較してエラーが 30% 削減されています。 GPT-5.2 の設定:- Reasoning Effort: GPT-5.2 は 5 つの推論努力レベルをサポートしています:
none(デフォルト)、low、medium、high、xhigh。低遅延の対話にはnoneを使用し、より深い推論が必要なタスクにはmedium以上に増やしてください。新しいxhighレベルは複雑な問題に対して最も深い推論を提供します。 - Text Verbosity: 出力の長さを
low、medium(デフォルト)、またはhighで制御します。簡潔な回答やシンプルなコード生成(SQL クエリなど)にはlowを、詳細な説明や大規模なコードリファクタリングにはhighを使用してください。
gpt-5(Pro) にマッピングされるモデル:gpt-4o,o3,gpt-4.1,o1,gpt-4-turbo,gpt-4,gpt-3.5-turbogpt-5-mini(Pro) にマッピングされるモデル:o4-mini,gpt-4.1-mini,o3-mini,o1-mini,gpt-4o-minigpt-5-nano(Free) にマッピングされるモデル:gpt-4.1-nano
medium に固定されている点にご注意ください。
ワークフローでこれらのモデルを組み合わせることで、それぞれの特定の強みを活用できます。例えば、最先端の推論と汎用機能には gpt-5.2 を使用し、エージェンティックコーディングタスクには gpt-5.2-codex を使用し、コスト効率的なタスクには gpt-5-mini を使用し、高速で大量処理が必要な操作には gpt-5-nano を使用します。
詳細な仕様と OpenAI が直接提供するモデルの全範囲については、公式 OpenAI ドキュメントをご確認ください。