最終更新日: 2025/03/01
OpenAI が提供する各種モデルの一覧とその特徴をまとめています。
可能なときに更新していきます。最終更新日が古い場合は公式にあたってください。
- フラッグシップモデル
- モデル概要
- コンテキストウィンドウ
- モデル ID のエイリアスとスナップショット
- 現在のモデルエイリアス
- GPT-4o
- GPT-4o mini
- o1 と o1-mini
- o3-mini
- GPT-4o と GPT-4o-mini Realtime
- GPT-4o と GPT-4o-mini Audio
- GPT-4 Turbo と GPT-4
- GPT-3.5 Turbo
- DALL·E
- TTS
- Whisper
- Embeddings
- Moderation
- GPT base
- データの使用ポリシー
GPT モデルは高速で汎用性が高くコスト効率がよくカスタマイズ可能です。
Reasoning モデルは Chain-of-Thought 推論を使用して複雑なタスクで優れた性能を発揮します。
OpenAI API は異なる機能と価格帯を持つ多様なモデルで構成されています。 また、ファインチューニングを使用して特定のユースケースに合わせてモデルをカスタマイズすることもできます。
カテゴリ | 説明 |
---|---|
GPT モデル | 高速で汎用性が高い、高知能なフラッグシップモデル |
Reasoning モデル | 複雑な多段階タスクに優れた o シリーズの推論モデル |
GPT-4o Realtime | リアルタイムのテキストと音声の入出力が可能な GPT-4o モデル |
GPT-4o Audio | REST API を介して音声の入出力が可能な GPT-4o モデル |
DALL·E | 自然言語プロンプトから画像を生成・編集できるモデル |
TTS | テキストを自然な音声に変換できるモデル群 |
Whisper | 音声をテキストに変換できるモデル |
Embeddings | テキストを数値形式に変換できるモデル群 |
Moderation | テキストの機微性や安全性を検出できるファインチューニング済みモデル |
Deprecated | 非推奨となったモデルの一覧と推奨される代替モデル |
以下を含むオープンソースも公開されています。
このページに記載されているモデルには コンテキストウィンドウ が設定されています。これは入力トークン、出力トークン、推論トークンを含む単一のリクエストで使用できる最大トークン数を指します。例えば、 o1 モデルで chat completinons の API リクエストを行う場合、以下のトークン数がコンテキストウィンドウの合計に適用されます:
- 入力トークン( chat completions の
messages
配列に含まれる入力) - 出力トークン(プロンプトに応答して生成されたトークン)
- 推論トークン(モデルが応答を計画するために使用するトークン)
コンテキストウィンドウの制限を超えて生成されたトークンは API レスポンスで切り捨てられる可能性があります。
メッセージが使用するトークン数はトークナイザーツールで見積もることができます。
以下の表では chat completions などの REST API で出力を生成するために使用できる モデル ID が記載されています。これらのモデル ID の一部は、特定の 日付付きスナップショット を指す エイリアス です。
例えば、 gpt-4o
モデル ID は GPT-4o の特定の日付付きスナップショットを指すエイリアスです。これらのエイリアスが指す日付付きスナップショットは、新しいスナップショットが利用可能になってから数ヶ月後に定期的に更新されます。エイリアスであるモデル ID は、以下の表で現在指しているモデル ID が記載されています。
本番環境のアプリケーションでは、定期的に変更される可能性のあるエイリアスではなく、 日付付きモデルスナップショット ID を使用することがベストプラクティス です。
以下に現在のモデルエイリアスと、(利用可能な場合は)新しいバージョンへの更新時期に関するガイダンスを示します。
エイリアス | ポイント先 |
---|---|
gpt-4.5-preview |
gpt-4.5-preview-2025-02-27 |
gpt-4o |
gpt-4o-2024-08-06 |
chatgpt-4o-latest |
ChatGPT で使われる最新版 |
gpt-4o-mini |
gpt-4o-mini-2024-07-18 |
o1 |
o1-2024-12-17 |
o1-mini |
o1-mini-2024-09-12 |
o3-mini |
o3-mini-2025-01-31 |
o1-preview |
o1-preview-2024-09-12 |
gpt-4o-realtime-preview |
gpt-4o-realtime-preview-2024-12-17 |
gpt-4o-mini-realtime-preview |
gpt-4o-mini-realtime-preview-2024-12-17 |
gpt-4o-audio-preview |
gpt-4o-audio-preview-2024-12-17 |
これは GPT-4.5 のリサーチプレビュー版で、 OpenAI のモデルの中で最も大きく性能の高い GPT モデルです。ナレッジカットオフは 2023 年 10 月 で、創造的なタスクやエージェント的な計画で優れた能力を発揮します。テキストと画像入力を受け付け、テキスト出力( Structued Outputs を含む)を生成します。また、 function calling や Batch API 、ストリーミングなどの主要な開発者機能をサポートしています。
GPT-4.5 は文章執筆や学習、新しいアイデアの模索など、よりクリエイティブでオープンエンドな思考が必要なタスクに特に強みを発揮します。
モデル | コンテキストウィンドウ | 最大出力トークン |
---|---|---|
gpt-4.5-preview ↳ gpt-4.5-preview-2025-02-27 |
- | - |
gpt-4.5-preview-2025-02-27 |
128,000 トークン | 16,384 トークン |
GPT-4o("o" は "omni" の略)は汎用性の高い、高知能なフラッグシップモデルです。テキストと画像入力の両方を受け付け、テキスト出力(構造化出力を含む)を生成します。 GPT-4o の使用方法についてはテキスト生成ガイドをご覧ください。
以下の chatgpt-4o-latest
モデル ID は ChatGPT で使われている GPT-4o のバージョンを継続的に指します。 ChatGPT の GPT-4o モデルに大きな変更がある場合、頻繁に更新されます。
GPT-4o モデルのナレッジカットオフは 2023年10月 です。
モデル | コンテキストウィンドウ | 最大出力トークン |
---|---|---|
gpt-4o ↳ gpt-4o-2024-08-06 |
- | - |
gpt-4o-2024-11-20 |
128,000 トークン | 16,384 トークン |
gpt-4o-2024-08-06 |
128,000 トークン | 16,384 トークン |
gpt-4o-2024-05-13 |
128,000 トークン | 4,096 トークン |
gpt-4o-2024-05-13 |
128,000 トークン | 4,096 トークン |
chatgpt-4o-latest ↳ ChatGPT で使われる GPT-4o |
128,000 トークン | 16,384 トークン |
料金:
モデル | 入力 1M トークンあたり | 出力 1M トークンあたり |
---|---|---|
gpt-4o-2024-11-20 |
$2.5 (キャッシュ $1.25 ) | $10 |
gpt-4o-2024-08-06 |
$2.5 (キャッシュ $1.25 ) | $10 |
gpt-4o-2024-05-13 |
$5 | $15 |
chatgpt-4o-latest |
$5 | $15 |
GPT-4o mini("o" は "omni" の略)は、焦点を絞ったタスクのための高速で手頃な価格の小型モデルです。テキストと画像入力の両方を受け付け、テキスト出力(構造化出力を含む)を生成します。ファインチューニングに適しており GPT-4o のような大きなモデルからの出力を蒸留して GPT-4o-mini で同様の結果を低コストと低レイテンシーで生成することができます。
GPT-4o-mini モデルのナレッジカットオフは 2023年10月 です。
モデル | コンテキストウィンドウ | 最大出力トークン |
---|---|---|
gpt-4o-mini ↳ gpt-4o-mini-2024-07-18 |
- | - |
gpt-4o-mini-2024-07-18 |
128,000 トークン | 16,384 トークン |
料金:
モデル | 入力 1M トークンあたり | 出力 1M トークンあたり |
---|---|---|
gpt-4o-mini-2024-07-18 |
$0.15 (キャッシュ $0.075 ) | $0.6 |
o1 シリーズ のモデルは複雑な推論を実行するために強化学習でトレーニングされています。 o1 モデルは回答する前に考え、ユーザーに応答する前に長い内部的な思考の連鎖を生成します。 o1 モデルの機能については推論ガイドをご覧ください。 o1 推論モデルはさまざまな領域の難しい問題を解決するように設計されています。 o1-mini はより高速で手頃な価格の推論モデルですが、同じレイテンシーと価格で高い知能を備えた新しい o3-mini モデルの使用を推奨します。
最新の o1 モデルはテキストと画像入力の両方をサポートし、テキスト出力(構造化出力を含む)を生成します。 o1-mini は現在テキストの入出力のみをサポートしています。
o1 と o1-mini モデルのナレッジカットオフは 2023年10月 です。
モデル | コンテキストウィンドウ | 最大出力トークン |
---|---|---|
o1 ↳ o1-2024-12-17 |
- | - |
o1-2024-12-17 |
200,000 トークン | 100,000 トークン |
o1-mini ↳ o1-mini-2024-09-12 |
- | - |
o1-mini-2024-09-12 |
128,000 トークン | 65,536 トークン |
o1-preview ↳ o1-preview-2024-09-12 |
- | - |
o1-preview-2024-09-12 |
128,000 トークン | 32,768 トークン |
料金:
モデル | 入力 1M トークンあたり | 出力 1M トークンあたり |
---|---|---|
o1-2024-12-17 |
$15 (キャッシュ $7.5 ) | $60 |
o1-mini-2024-09-12 |
$1.1 (キャッシュ $0.55 ) | $4.4 |
o1-preview-2024-09-12 |
$15 (キャッシュ $7.5 ) | $60 |
o3-mini は最新の小型推論モデルで、 o1-mini と同じコストとレイテンシーで高い知能を提供します。 o3-mini は構造化出力、関数呼び出し、 Batch API などの主要な開発者機能もサポートしています。 o シリーズの他のモデルと同様に、科学、数学、コーディングタスクで優れた性能を発揮するように設計されています。
o3-mini モデルのナレッジカットオフは 2023年10月 です。
モデル | コンテキストウィンドウ | 最大出力トークン |
---|---|---|
o3-mini ↳ o3-mini-2025-01-31 |
- | - |
o3-mini-2025-01-31 |
200,000 トークン | 100,000 トークン |
料金:
モデル | 入力 1M トークンあたり | 出力 1M トークンあたり |
---|---|---|
o3-mini-2025-01-31 |
$1.1 (キャッシュ $0.55 ) | $4.4 |
これは GPT-4o と GPT-4o-mini Realtime モデルのプレビューリリースです。これらのモデルは WebRTC または WebSocket インターフェースを介してリアルタイムで音声とテキストの入力に応答できます。詳しくは Realtime API ガイドをご覧ください。
GPT-4o Realtime モデルのナレッジカットオフは 2023年10月 です。
モデル | コンテキストウィンドウ | 最大出力トークン |
---|---|---|
gpt-4o-realtime-preview ↳ gpt-4o-realtime-preview-2024-12-17 |
- | - |
gpt-4o-realtime-preview-2024-12-17 |
128,000 トークン | 4,096 トークン |
gpt-4o-realtime-preview-2024-10-01 |
128,000 トークン | 4,096 トークン |
gpt-4o-mini-realtime-preview ↳ gpt-4o-mini-realtime-preview-2024-12-17 |
- | - |
gpt-4o-mini-realtime-preview-2024-12-17 |
128,000 トークン | 4,096 トークン |
料金(テキスト):
モデル | 入力 1M トークンあたり | 出力 1M トークンあたり |
---|---|---|
gpt-4o-realtime-preview-2024-12-17 |
$5 (キャッシュ $2.5 ) | $20 |
gpt-4o-realtime-preview-2024-10-01 |
$5 (キャッシュ $2.5 ) | $20 |
gpt-4o-mini-realtime-preview-2024-12-17 |
$0.6 (キャッシュ $0.3 ) | $2.4 |
これは GPT-4o Audio モデルのプレビューリリースです。これらのモデルは音声の入出力を受け付け、 Chat Completions REST API で使用できます。詳細はこちらをご覧ください。
GPT-4o Audio モデルのナレッジカットオフは 2023年10月 です。
モデル | コンテキストウィンドウ | 最大出力トークン |
---|---|---|
gpt-4o-audio-preview ↳ gpt-4o-audio-preview-2024-12-17 |
- | - |
gpt-4o-audio-preview-2024-12-17 |
128,000 トークン | 16,384 トークン |
gpt-4o-audio-preview-2024-10-01 |
128,000 トークン | 16,384 トークン |
gpt-4o-mini-audio-preview ↳ gpt-4o-mini-audio-preview-2024-12-17 |
- | - |
gpt-4o-mini-audio-preview-2024-12-17 |
128,000 トークン | 16,384 トークン |
料金(テキスト):
モデル | 入力 1M トークンあたり | 出力 1M トークンあたり |
---|---|---|
gpt-4o-audio-preview-2024-12-17 |
$2.5 | $10 |
gpt-4o-audio-preview-2024-10-01 |
$2.5 | $10 |
gpt-4o-mini-audio-preview-2024-12-17 |
$0.15 | $0.6 |
GPT-4 は Chat Completions で使用できる高知能 GPT モデルの旧バージョンです。詳しくはテキスト生成ガイドをご覧ください。最新の GPT-4 Turbo バージョンのナレッジカットオフは 2023年12月 です。
(詳細は割愛します)
GPT-3.5 Turbo モデルは自然言語やコードを理解・生成でき、Chat Completions API用に最適化されていますが、チャット以外のタスクでも良好に動作します。
2024年7月現在、gpt-4o-mini
は gpt-3.5-turbo
よりも安価で高性能、マルチモーダルで同等の速度を持つため、 gpt-3.5-turbo
の代わりに使用することを推奨します。 gpt-3.5-turbo
は API での使用は引き続き可能です。
(詳細は割愛します)
DALL·E は自然言語の説明から現実的な画像やアートを作成できる AI システムです。DALL·E 3 は現在、プロンプトを与えて特定のサイズの新しい画像を作成する機能をサポートしています。DALL·E 2 は既存の画像の編集や、ユーザーが提供した画像のバリエーション作成もサポートしています。
DALL·E 3 は DALL·E 2 とともに Images API で利用可能です。 DALL·E 3 は ChatGPT Plus で試すことができます。
モデル | 説明 |
---|---|
dall-e-3 |
2023年11月にリリースされた最新の DALL·E モデル。 詳細はこちら |
dall-e-2 |
2022年11月にリリースされた前世代の DALL·E モデル。オリジナルモデルよりも 4 倍高い解像度で、より現実的で正確な画像を生成できる DALL·E の第 2 世代モデル |
TTS は、テキストを自然な音声に変換する AI モデルです。リアルタイムのテキスト読み上げユースケース向けに最適化された tts-1
と、品質を重視した tts-1-hd
の 2 つのモデルバリエーションを提供しています。これらのモデルは Audio API の Speech エンドポイントで使用できます。
モデル | 説明 |
---|---|
tts-1 |
速度を重視した最新のテキスト読み上げモデル |
tts-1-hd |
品質を重視した最新のテキスト読み上げモデル |
Whisper は汎用的な音声認識モデルです。多様な音声データセットでトレーニングされており、多言語音声認識、音声翻訳、言語識別を実行できるマルチタスクモデルでもあります。Whisper v2-large モデルは現在、whisper-1
モデル名で API を通じて利用可能です。
現在 オープンソース版の Whisper と API で利用可能なバージョンに違いはありません。ただし、API を通じて、最適化された推論プロセスを提供しており、これにより API を通じて Whisper を実行する方が他の方法よりもはるかに高速です。 Whisper の技術的な詳細については、論文をご覧ください。
Embeddings は、2 つのテキスト間の関連性を測定するために使用できるテキストの数値表現です。 Embeddings は検索、クラスタリング、推奨、異常検出、分類タスクに有用です。最新の embedding モデルについては 発表ブログ記事 をご覧ください。
モデル | 出力次元 |
---|---|
text-embedding-3-large (英語と非英語タスクの両方で最も高性能な embedding モデル) |
3,072 |
text-embedding-3-small (第 2 世代 ada embedding モデルからパフォーマンスが向上) |
1,536 |
text-embedding-ada-002 (最も高性能な第 2 世代 embedding モデル、16 の第 1 世代モデルを置き換え) |
1,536 |
Moderation モデルは、コンテンツが OpenAI の 利用規約 に準拠しているかどうかを確認するように設計されています。これらのモデルは、ヘイト、自傷、性的コンテンツ、暴力などのカテゴリーでコンテンツを分類する機能を提供します。テキストと画像のモデレーションについては、モデレーションガイドをご覧ください。
モデル | 最大トークン |
---|---|
omni-moderation-latest ↳ omni-moderation-2024-09-26 |
- |
omni-moderation-2024-09-26 (テキストと画像の両方を分析できる新しいマルチモーダルモデレーションモデルの最新バージョン) |
32,768 |
text-moderation-latest ↳ text-moderation-007 |
32,768 |
text-moderation-stable ↳ text-moderation-007 |
32,768 |
text-moderation-007 (以前の世代のテキストのみのモデレーション。今後は omni-moderation-* モデルがベストな選択肢になると予想されます) |
32,768 |
GPT base モデルは自然言語やコードを理解・生成できますが、インストラクション遵守のトレーニングは受けていません。これらのモデルは元の GPT-3 base モデルの置き換えとして作られ、レガシーな Completions API を使用します。ほとんどのユーザーは GPT-3.5 または GPT-4 を使用することを推奨します。
(詳細は割愛します)
あなたのデータはあなたのものです。
2023年3月1日以降 OpenAI API に送信されたデータは OpenAI のモデルのトレーニングや改善には使われません(明示的にデータ共有にオプトインしないかぎり)。
不正使用を特定するため、API データは最大30日間保持される場合があり、その後削除されます(法律で別途要求される場合を除く)。機密性の高いアプリケーションを持つ信頼できるお客様には、ゼロデータ保持が利用可能な場合があります。ゼロデータ保持では、リクエストとレスポンスの本文はログ機構に永続化されず、リクエストに応答するためにメモリ内にのみ存在します。
このデータポリシーは ChatGPT や DALL·E Labs などの OpenAI の非 API 消費者向けサービスには適用されません。