本文へスキップ
Claude Media
Claude Opus / Sonnet / Haiku完全比較 — 2026年版の使い分け早見表

Claude Opus / Sonnet / Haiku完全比較 — 2026年版の使い分け早見表

ClaudeにはOpus 4.7 / Sonnet 4.6 / Haiku 4.5の3系統のモデルがあります。スペック・料金・推論深度・速度・主用途・Extended Thinking対応・コスト最適化まで、用途別に使い分ける判断軸を完全網羅します。

読了目安 約8

ClaudeにはOpus 4.7 / Sonnet 4.6 / Haiku 4.5の3系統のモデルがあります。本記事ではスペック・料金・推論深度・速度・主用途・Extended Thinking対応・コスト最適化まで、用途別に使い分ける判断軸を完全網羅します。

3系統の位置付け

Claudeモデルは「知能の深さ」「速度」「コスト」のトレードオフが異なる3系統で提供されています。Anthropicは新世代ごとに3系統を更新する方針で、本記事では2026年5月時点の最新版(Opus 4.7 / Sonnet 4.6 / Haiku 4.5)を比較します。

モデル強み主用途推論深度速度
Claude Opus 4.7最高水準の推論、Extended Thinking対応重い思考 / 戦略立案 / コードレビュー / 研究最高中程度
Claude Sonnet 4.6速度と品質のバランス、汎用最強標準的な執筆 / 調査 / 製品統合 / コーディング
Claude Haiku 4.5高速 + 安価、構造的タスクで精度を保つ抽出 / 採点 / 速報処理 / 軽量バッチ最高

「最初に試すならSonnet」「重い思考はOpus」「コスト最適化はHaiku」が原則です。

スペック比較表

各モデルの公式スペック(2026年5月時点)を以下にまとめます。最新値はAnthropic公式model overviewpricing で確認してください。

項目Opus 4.7Sonnet 4.6Haiku 4.5
コンテキスト長(入力)200,000 tokens(エンタープライズで1M tokens拡張あり)200,000 tokens(同上)200,000 tokens
出力上限32,000 tokens(xhighで更に拡張)16,000 tokens8,000 tokens
Extended Thinking✓(thinking budget設定可能、xhighモード対応)限定対応
Vision(画像理解)
Tool use(Function calling)
Prompt caching
Batch API
Files API

「Extended Thinking」と「出力上限」が最も大きな差別ポイントです。Opusは思考に多めのトークンを使って推論深度を上げられ、Sonnetは汎用バランス、Haikuは速度と単価が強みです。

料金比較(参考、2026年5月時点)

料金は時期と契約形態で変動します。本記事は構造を伝える目的で、執筆時点の参考値を示します。正確な値はanthropic.com/pricing を参照してください。

モデルinput(per 1M tokens)output(per 1M tokens)cache writecache read(90% off)
Opus 4.7$15$75$18.75$1.50
Sonnet 4.6$3$15$3.75$0.30
Haiku 4.5$0.80$4$1.00$0.08

OpusはSonnetの5倍、HaikuはSonnetの1/4の単価です。実運用では「重い思考1回 = Haiku 10〜30回分」の感覚で振り分けます。

Batch APIを使うと全モデルで50% 割引、Prompt cachingを使うとcache読込部分がinputの0.1x(90% 割引)になり、累計コストを大きく下げられます。詳細はAnthropic API料金 深掘りを参照してください。

用途別使い分け早見表

実運用で「このタスクにはどのモデルを選ぶべきか」の判断を素早く下せるよう、よくある業務と推奨モデルの対応をまとめます。

業務推奨モデル理由
戦略立案 / 編集視点付きの記事執筆Opus 4.7深い推論と独自視点が必要
コードレビュー(差分の品質チェック)Opus 4.7多観点の同時評価 + 提案の質
アーキテクチャ設計 / 設計レビューOpus 4.7制約の同時考慮と判断
標準的な実装作業Sonnet 4.6速度と品質のバランス
一般的な調査 / WebFetch + 要約Sonnet 4.6適切な情報統合
製品統合(LLM応答 → ユーザー)Sonnet 4.6ユーザー体験のレイテンシと品質
抽出系(構造化JSON出力)Haiku 4.5速度 + 単価、精度も十分
大量バッチ採点(明確な判定基準)Haiku 4.5累計コストが効く
ログ要約 / 単純分類Haiku 4.5パターン処理の典型
リアルタイムチャット応答Haiku 4.5体感速度が決定的
RAGでの検索結果合成Sonnet 4.6 + Prompt cachingキャッシュとセットで最適化
多段推論を伴う研究タスクOpus 4.7 + Extended Thinkingthinking budgetで深さを引き上げ

選び方の原則:

  1. デフォルトはSonnet:ほとんどのユースケースはSonnetで十分。コスト感も実用範囲
  2. 判断軸が複雑 / 独自性が必要 → Opus:採点 / レビュー / 戦略立案で品質を取りに行く
  3. 明確な判定基準 / 抽出系 → Haiku:既知パターンの分類、JSON抽出、ログ要約

Extended Thinking — Opusの独自機能

Claude Opus 4.7はExtended Thinkingモードを持ち、応答の前に内部的に「思考」フェーズを差し込めます。thinking: {"type": "enabled", "budget_tokens": 32000} を指定すると、最大32,000トークン分の思考を許可します。

Extended Thinkingが効くのは次のような用途です。

  • 多段推論が必要な問題(数学 / コーディング / 戦略立案)
  • 独自視点の生成(レビュー / 採点 / 編集解釈)
  • 多変数の最適化(複数制約を満たす設計案の比較)

逆にExtended Thinkingが効かない / 無駄なのは、「単純な抽出 / 分類 / フォーマット変換」のような決まったパターン処理です。これらはHaiku / Sonnetで十分です。

xhighモードはOpus 4.7で導入された拡張版で、より多くの思考トークンを許可することで難問への対応力を引き上げます。詳細はClaude Opus 4.7 xhigh深掘りを参照してください。

コスト最適化の3軸

実運用でコストを大きく下げる手法を3つ紹介します。

1. モデルルーティング

タスク別にOpus / Sonnet / Haikuを振り分けます。本サイト(Claude Media)の例:

  • 記事生成のドラフト(draft-writer): Sonnet
  • 4観点採点(quality-judge): Opus(精度が決定的)
  • 単純抽出(competitive-analyzer のURL一覧抽出): Haiku
  • 個人情報検出 / 字数カウント: Haiku(機械検証で十分)

これだけで累計コストがOpus一律と比べて60〜80% 削減できます。

2. Prompt caching

システムプロンプト・ツール定義・RAGコンテキストの静的部分cache_control: {"type": "ephemeral"} でキャッシュ化します。後続リクエストで90% 割引(cache read = inputの0.1x)。

典型的な効果:

  • システムプロンプト10,000 tokensを100リクエスト再利用 → cacheなし $30 / cacheあり $3
  • 長いRAGコンテキスト(50,000 tokens)を50リクエストで再利用 → 大幅な節約

詳細はAnthropic API Prompt caching完全活用を参照してください。

3. Batch API

即時性が不要なバルク処理(数千〜数万件)はBatch APIで50% 割引。24時間以内に結果が返ります。

主用途:

  • 月次レポート / 大量翻訳 / データセット作成
  • リアルタイムでなくてよいRAGインデックス再生成
  • 大量記事生成 / 採点

この3つを組み合わせると、累計コストは「Opus一律で全部API直叩き」比で1/10〜1/20に圧縮できます。

モデルIDと切り替え

Anthropic APIでモデルを指定するときのIDは次のとおりです(2026年5月時点)。

モデルAPI ID
Claude Opus 4.7claude-opus-4-7
Claude Sonnet 4.6claude-sonnet-4-6
Claude Haiku 4.5claude-haiku-4-5-20251001

-latest エイリアス(claude-opus-4-latest 等)も使えますが、本番運用では明示的なバージョン番号(claude-opus-4-7)を推奨します。本番中にAnthropicが新版に切り替えると、未検証の挙動変化が混入する可能性があるためです。

Claude Codeセッション中は /model コマンドで切替できます。settings.jsonmodel キーでデフォルトを指定する方法と併用します。

よくある質問

Q1. OpusとSonnetの差はどれくらい?

タスクによります。明確な判定基準がある抽出 / 分類ではHaikuでもOpusと遜色ない精度が出ます。深い推論(多段論理 / 戦略立案 / 多観点採点)ではOpusの優位が明確に出ます。「迷ったらSonnetで実験、品質に不満ならOpusに上げる」運用が安定です。

Q2. Haikuの精度はどこまで信頼できる?

機械的な判定基準が明確なタスク(JSON抽出、明示パターンの分類、URL抽出、字数カウント等)はHaikuで十分な精度が出ます。一方で「微妙な独自視点の評価」「キュレーション感の検出」のような曖昧な判断はHaikuでは精度が出ないため、Opus / Sonnetを使います。

Q3. Claude Codeはどのモデルを使う?

デフォルトはSonnet 4.6です。/model コマンドでOpus 4.7 / Haiku 4.5に切替できます。MaxプランのOAuth認証では各モデルの累計利用上限が緩く設定されており、Opusも日常的に使えます。

Q4. モデルが進化したら過去のプロンプトを書き直すべき?

基本的には不要です。Anthropicはモデル間の挙動互換性を保つ方針で、Opus 4.5 → 4.7のような同系統内の更新では大きな書き換えは必要ありません。ただしExtended Thinkingなど新機能を活かすなら、thinking パラメータ追加などの軽微な変更で効果を引き出せます。

Q5. AWS Bedrock / Google Vertex AIと直APIの違い?

ClaudeモデルはAWS Bedrock / Google Vertex AI経由でも利用できます。価格 / リージョン / 認証フロー / SLAが異なるため、組織の既存クラウド契約に合わせて選択します。詳細はAnthropic API vs Bedrock vs Vertex比較を参照してください。

まとめ

Claudeモデル選択の設計判断軸は次の3つに集約されます。

  1. デフォルトはSonnet:大半のタスクで適切なバランス
  2. 判断軸が複雑 / 独自性が必要 → Opus:採点 / レビュー / 戦略 / 研究
  3. 明確な判定基準 / 抽出系 → Haiku:バッチ / 抽出 / 速報

コスト最適化はモデルルーティング + Prompt caching + Batch APIの3軸を組み合わせて1/10〜1/20に圧縮できます。詳細なOpus 4.7のExtended Thinking xhighはClaude Opus 4.7 xhigh深掘り、料金構造はAnthropic API料金 深掘り、Anthropic API全体像はAnthropic API完全ガイド2026を参照してください。

モデル選択は四半期ごとの新版でベスト解が変わるため、本記事の判断軸は時期を問わず効くフレームワークとして読み、具体的なスペックや料金は公式ドキュメントで最新を確認してください。

この記事を共有:XLinkedIn