記事公開日
【2026年最新】Claude API料金完全ガイド:無駄なコストを賢く削減する4つの方法

この記事のポイント
Claude APIの料金体系を徹底解説し、実務で無駄なコストを削減するための具体的な方法をまとめます。
- 料金体系の全体像:
Input / Output / Cache の3種類のトークン料金と、モデルごとの価格差を整理します。 - コストが膨らむ主な原因:
不要なコンテキストの送り続け、モデルの使い分け不足など、よくある「もったいない」使い方を解説します。 - コスト削減の具体的な手法:
プロンプトキャッシュ・モデル選択・バッチAPI・トークン最適化の4つのアプローチで、コストを大幅に削減できます。
はじめに:Claude APIを使うなら料金体系を正しく理解しよう
こんにちは。DXソリューション営業本部の松浦です。
Claude APIを使ったシステム開発や業務自動化に取り組む企業が増えています。しかし「思ったよりAPIコストが高い」「どこでコストが発生しているか分からない」という声もよく耳にします。
Claude APIの料金体系は、OpenAIなどと同様にトークン(文字の単位)ベースですが、キャッシュ機能やモデルのバリエーションなど、うまく活用すればコストを大幅に削減できる仕組みが備わっています。
この記事では、Claude APIの料金体系を整理した上で、無駄なコストを生む原因と具体的な削減手法を解説します。
※本記事の情報は2026年4月14日時点のものです。料金・モデルのラインナップは変更される場合がありますので、最新情報はAnthropic公式サイトをご確認ください。
出典・参考情報
本記事は、以下のAnthropic公式情報を基に作成しています。
- Anthropic API Pricing(公式)
- Anthropic公式ドキュメント - Models overview
- Anthropic公式ドキュメント - Prompt caching
- Anthropic公式ドキュメント - Message Batches API
1. Claude APIの料金体系:3種類のトークン料金
Claude APIの料金は大きく 3種類のトークン で構成されています。
flowchart LR
Request["📤 APIリクエスト"] --> InputTokens["📥 Input Tokens\n(入力:プロンプト全体)"]
Request --> CacheTokens["💾 Cache Tokens\n(キャッシュ済みの入力)"]
InputTokens --> Model["🤖 Claude モデル"]
CacheTokens --> Model
Model --> OutputTokens["📤 Output Tokens\n(出力:生成テキスト)"]
classDef input fill:#e3f2fd,stroke:#1565c0,stroke-width:2px
classDef cache fill:#e8f5e9,stroke:#2e7d32,stroke-width:2px
classDef output fill:#fff3e0,stroke:#ef6c00,stroke-width:2px
class InputTokens input
class CacheTokens cache
class OutputTokens output
| トークン種別 | 説明 | 課金タイミング |
|---|---|---|
| Input Tokens | APIに送るプロンプト(システムプロンプト+ユーザーメッセージ+会話履歴) | リクエストごと |
| Cache Write Tokens | プロンプトキャッシュへの書き込み(5分キャッシュ:通常 Input の1.25倍、1時間キャッシュ:通常 Input の2倍) | キャッシュ作成時のみ |
| Cache Read Tokens | キャッシュから読み込んだトークン(通常の Input より大幅に安い) | キャッシュ利用時 |
| Output Tokens | Claudeが生成したテキスト(回答・コードなど) | レスポンスごと |
料金の基本的な考え方
Claude APIの料金は 100万トークン(1M tokens)あたりの米ドル で表示されます。日本語は英語に比べてトークン数が増えやすい(おおよそ1〜1.5倍)ため、日本語コンテンツを多く扱う場合はこの点を考慮する必要があります。
2. モデル別料金比較:用途に合わせた選択が鍵
Anthropicは用途・コスト・性能の異なる複数のモデルを提供しています。2026年4月時点の主なモデルと料金は以下の通りです。
| モデル | Input ($/1M tokens) |
Output ($/1M tokens) |
Cache Write ($/1M tokens) ※5分キャッシュ |
Cache Read ($/1M tokens) |
特徴・用途 |
|---|---|---|---|---|---|
| Claude Opus 4.6 最新 | $5.00 | $25.00 | $6.25 | $0.50 | 現時点の最新・最高性能モデル。Opus 4の1/3の価格で複雑な推論・高度な分析が可能 |
| Claude Opus 4 旧世代 | $15.00 | $75.00 | $18.75 | $1.50 | 旧世代Opusモデル(参考掲載) |
| Claude Sonnet 4.6 最新 | $3.00 | $15.00 | $3.75 | $0.30 | 最新バランスモデル。業務自動化・コーディング支援・文書作成 |
| Claude Haiku 4.5 | $1.00 | $5.00 | $1.25 | $0.10 | 最軽量・最安価。分類・要約・チャットボット向け |
※料金はAnthropic公式サイトを参照。Cache Writeは5分キャッシュ(Input×1.25倍)の価格を掲載しています。1時間キャッシュの場合はInput×2倍になります。為替レートにより円換算は変動します。最新情報は公式料金ページでご確認ください。
graph LR
subgraph Opus ["🟣 Claude Opus 4.6(最新)"]
O1["複雑な推論・分析"]
O2["研究・戦略立案"]
O3["高度なコーディング"]
end
subgraph Sonnet ["🔵 Claude Sonnet 4.6(最新)"]
S1["業務自動化"]
S2["コード生成・レビュー"]
S3["文書作成・翻訳"]
end
subgraph Haiku ["🟢 Claude Haiku 4.5"]
H1["テキスト分類・タグ付け"]
H2["チャットボット応答"]
H3["大量データの要約"]
end
classDef opusStyle fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
classDef sonnetStyle fill:#e3f2fd,stroke:#1565c0,stroke-width:2px
classDef haikuStyle fill:#e8f5e9,stroke:#2e7d32,stroke-width:2px
class O1,O2,O3 opusStyle
class S1,S2,S3 sonnetStyle
class H1,H2,H3 haikuStyle
モデル選択のポイント
最新のOpus 4.6($5)は旧世代Opus 4($15)の1/3の価格で、性能・コストの両面で大きく改善されました。それでもHaiku 4.5($1)と比べるとInput で約5倍($5 ÷ $1 = 5倍)の差があります。「とりあえずOpusを使う」ではなく、タスクの複雑さに応じて最適なモデルを選ぶことが、コスト削減の第一歩です。
3. コストが膨らむ主な原因
Claude APIのコストが想定以上に膨らむ場合、多くは以下の4つのパターンに分類できます。
flowchart TD
Problem["💸 コストが膨らむ原因"] --> C1["① モデルの使い分けをしていない\n(高性能モデルを全用途に使用)"]
Problem --> C2["② コンテキストが肥大化している\n(会話履歴を全件送信し続ける)"]
Problem --> C3["③ キャッシュを活用していない\n(同じシステムプロンプトを毎回送信)"]
Problem --> C4["④ 出力トークンが過剰\n(不要に長い回答を生成させている)"]
classDef causeStyle fill:#ffebee,stroke:#c62828,stroke-width:1px
class C1,C2,C3,C4 causeStyle
① モデルの使い分けをしていない
もっとも多いのが「すべての処理に高性能モデルを使っている」パターンです。例えば、大量のログを分類するような単純な繰り返しタスクにOpusを使い続けると、Haikuを使った場合と比較してコストが大きく膨らみます。
② コンテキストが肥大化している
マルチターン会話やチャットアプリでは、会話履歴をすべてリクエストに含めるのが一般的ですが、会話が長くなるにつれてInput Tokensが増加し続けます。50ターン以上の会話では、1リクエストあたりのトークン数が膨大になることがあります。
③ キャッシュを活用していない
システムプロンプトや参照ドキュメントのような「毎回同じ内容」をキャッシュなしで送り続けると、それだけで大量のInput Tokensを消費します。
④ 出力トークンが過剰
Output Tokensはどのモデルでも Input の約5倍の料金です。「できるだけ詳しく」「網羅的に」といった指示は出力が長くなりやすく、コスト増の原因になります。
4. コストを減らす4つの具体的手法
手法①:プロンプトキャッシュを活用する
プロンプトキャッシュは、繰り返し送信する長いプロンプト(システムプロンプト・参照文書など)をAnthropicのサーバー側でキャッシュし、次のリクエストから安価なCache Read料金で利用できる機能です。
sequenceDiagram
participant App as アプリケーション
participant Claude as Claude API
Note over App,Claude: 1回目のリクエスト(Cache Write)
App->>Claude: システムプロンプト(2000トークン)\n+ ユーザーメッセージ
Claude-->>App: 回答\n※システムプロンプトをキャッシュに保存
Note over App,Claude: 2回目以降(Cache Read:約90%割引)
App->>Claude: [キャッシュ参照]\n+ ユーザーメッセージ
Claude-->>App: 回答\n※キャッシュからシステムプロンプトを読込
例えば、2,000トークンのシステムプロンプトを毎回送信している場合、Claude Sonnet 4.6では:
| 方式 | 1,000リクエスト時のコスト(2,000トークン/回) |
|---|---|
| キャッシュなし(通常Input) | $3.00 / 1M × 2M = $6.00 |
| キャッシュあり(Cache Read) | $0.30 / 1M × 2M = $0.60 |
→ 同じ処理でコストが約1/10に削減できます。システムプロンプトが長いほど、キャッシュの効果は大きくなります。
キャッシュを使うには、APIリクエストの該当ブロックに "cache_control": {"type": "ephemeral"} を追加するだけで設定できます。キャッシュの有効期限は5分間(Cache Write 1.25倍)と1時間(Cache Write 2倍)の2種類があり、利用頻度やコストに応じて選択できます。頻繁にリクエストがある用途には5分間、長時間にわたって参照する大きなドキュメントには1時間が適しています。
手法②:タスクに応じたモデルを選択する
「すべてにSonnet」ではなく、タスクの性質に応じてモデルを使い分けることで、コストを大幅に削減できます。
| タスク例 | 推奨モデル | 理由 |
|---|---|---|
| 複雑な要件定義・アーキテクチャ設計 | Opus 4.6 | 高度な推論・構造化が必要 |
| コード生成・文書作成・翻訳 | Sonnet 4.6 | 性能・コストのバランスが最適 |
| テキスト分類・感情分析・タグ付け | Haiku 4.5 | シンプルなタスクは軽量モデルで十分 |
| FAQ応答・チャットボット | Haiku 4.5 | レイテンシとコストの両方を削減 |
| 大量ドキュメントの要約 | Haiku 4.5 | スループット重視・大量処理向け |
手法③:Message Batches APIを使う(非同期処理)
即時応答が不要な処理(夜間バッチ・大量データ処理など)には、Message Batches APIを活用することで 通常料金の50%オフ で処理できます。
flowchart LR
subgraph Standard ["通常API(同期)"]
A1["リクエスト1"] --> R1["即時応答"]
A2["リクエスト2"] --> R2["即時応答"]
A3["リクエスト3"] --> R3["即時応答"]
end
subgraph Batch ["Batch API(非同期)"]
B1["リクエスト1〜N\n(まとめて送信)"] --> B2["通常1時間以内\n(最大24時間)\n(50%割引)"]
end
classDef standardStyle fill:#ffebee,stroke:#c62828,stroke-width:1px
classDef batchStyle fill:#e8f5e9,stroke:#2e7d32,stroke-width:2px
class A1,A2,A3,R1,R2,R3 standardStyle
class B1,B2 batchStyle
Batch APIは1回のリクエストに最大100,000件(または256MB)のメッセージをまとめて送信できます。ほとんどのバッチは1時間以内に完了し、最大24時間で処理されます(24時間を超えると期限切れ)。レポート生成・データ変換・ドキュメント分類など、リアルタイム性が不要な処理に最適です。
手法④:トークン数を最適化する
コードや設定で制御できるトークン最適化の主な方法をまとめます。
| 対策 | 具体的な方法 | 削減効果 |
|---|---|---|
| 会話履歴の要約・打ち切り | N件以上の履歴は要約して圧縮する、またはスライディングウィンドウで最新N件のみ保持 | Input Tokens ★★★ |
| max_tokensの設定 | APIパラメータ max_tokens で出力上限を必要最小限に設定する |
Output Tokens ★★ |
| プロンプトの簡潔化 | システムプロンプトから冗長な説明を削除し、指示を簡潔にまとめる | Input Tokens ★★ |
| 出力フォーマットの指定 | 「箇条書き3点で回答してください」など、出力形式を制限する | Output Tokens ★★ |
| 不要なコンテキストの除外 | タスクに無関係な情報をシステムプロンプトや会話履歴から除外する | Input Tokens ★★★ |
4つの手法を組み合わせると?
上記の手法は組み合わせることでさらに大きな効果が得られます。例えば「Haikuモデル+プロンプトキャッシュ+Batch API」を組み合わせた場合、理論上は通常のOpus 4.6利用と比較して コストを90%以上削減 できるケースもあります。
graph LR
Before["❌ 最適化前\nOpus 4.6 × 通常API\n× キャッシュなし"] -->|コスト削減の手法を適用| After["✅ 最適化後\nHaiku 4.5 × Batch API\n× プロンプトキャッシュ"]
classDef beforeStyle fill:#ffebee,stroke:#c62828,stroke-width:2px
classDef afterStyle fill:#e8f5e9,stroke:#2e7d32,stroke-width:2px
class Before beforeStyle
class After afterStyle
まとめ:料金を理解して賢くClaude APIを活用しよう
Claude APIのコスト最適化のポイントをおさらいします。
- 料金体系を把握する:Input / Cache / Output の3種類のトークン料金と、モデルごとの価格差を正しく理解する。
- モデルを使い分ける:タスクの複雑さに応じてOpus / Sonnet / Haikuを使い分け、過剰スペックを避ける。
- プロンプトキャッシュを使う:同じシステムプロンプトを繰り返す処理にはキャッシュを設定し、Input料金を最大90%削減する。
- Batch APIを活用する:リアルタイム性が不要な処理はBatch APIにまとめ、通常料金の50%オフで処理する。
- トークン数を最適化する:会話履歴の圧縮、max_tokensの設定、プロンプトの簡潔化で無駄なトークンを削減する。
Claude APIは、料金の仕組みを理解して適切に使えば、費用対効果の非常に高いAI活用ができます。まずは自社のユースケースでどの手法が適用できるかを確認し、段階的に最適化を進めてみてください。
もし「このサービスについて知りたい」「AI・AWS活用のご相談」などのリクエストがございましたら、弊社お問合せフォームまでお気軽にご連絡ください。複雑な内容に関するお問い合わせの場合には直接営業からご連絡を差し上げます。
※Claude、Claude Codeは、Anthropic, PBCの商標または登録商標です。


