注目
guide

Claude Code 1Mトークンコンテキスト解放——settings.json 2行で自動圧縮なしにSaaS全体を一気に構築

.claude/settings.jsonにANTHROPIC_DEFAULT_HAIKU_MODELとANTHROPIC_DEFAULT_SONNET_MODELをclaude-sonnet-4-6-1mに設定するだけで、Claude Codeの全タスクが1Mトークンコンテキストウィンドウで動作する。自動圧縮なしでコードベース全体を保持しながら開発できる実用的なテクニック。

投稿者: AI Tools Hub
Claude Code Anthropic 1Mコンテキスト Claude Sonnet 4.6 設定

Claude Codeのコンテキストウィンドウ上限を200Kから1Mトークンに拡張できる設定が話題になっている。.claude/settings.jsonに2行を追加するだけで、自動圧縮(auto-compaction)なしにコードベース全体を保持しながら開発できるようになる。

設定方法

.claude/settings.json(なければ作成)に以下を追加する:

{
  "env": {
    "ANTHROPIC_DEFAULT_HAIKU_MODEL": "claude-sonnet-4-6-1m",
    "ANTHROPIC_DEFAULT_SONNET_MODEL": "claude-sonnet-4-6-1m"
  }
}

追加後、Claude Codeを再起動してSonnetモデルに切り替えれば設定が有効になる。

何が変わるのか

Claude Codeは内部的に複数のモデルを使い分けている。Haikuはサブタスクや軽量処理、Sonnetはメインの推論タスクに割り当てられている。上記の環境変数でそれらのデフォルトモデルをclaude-sonnet-4-6-1mに上書きすることで、すべてのタスクが1Mトークンコンテキストで処理される

通常の動作では、コードベースが大きくなるにつれてClaude Codeは自動圧縮を実行し、古い会話履歴やコードの一部を要約・省略する。1Mコンテキストを有効にすることで、この圧縮のタイミングが大幅に遅れ、長時間のセッションでも全体的なコンテキストを保持しながら作業を続けられる。

実際の効果:

  • 数千ファイルのコードベースを一度に参照可能
  • セッションを通じてすべての変更履歴と判断の文脈を保持
  • SaaS全体のような大規模プロジェクトを1セッションで構築
  • 自動圧縮による「記憶喪失」を防ぐ

技術的な背景

Anthropicの公式ドキュメントによると、Claude Opus 4.6とSonnet 4.6はcontext-1m-2025-08-07ベータヘッダーを使用することで1Mトークンコンテキストウィンドウをサポートしている。claude-sonnet-4-6-1mというモデルIDは、このベータヘッダーが自動的に付与される専用エンドポイントだ。

通常の200Kコンテキストに加え、1Mコンテキストは以下をカバーできる計算になる:

  • 約75万ワード(英語)
  • 約340万文字(Unicode)

コストへの影響

重要な注意点がある。 Anthropicは200Kトークンを超えるリクエストに対して「ロングコンテキスト料金」を適用している。通常料金との差分が発生するため、長いセッションを頻繁に使う場合はコストが増加する可能性がある。

費用対効果の観点では:

  • 短いタスクや単純な質問:200Kコンテキストで十分で、追加コストなし
  • 大規模コードベースの長期開発セッション:1Mコンテキストの価値が高い
  • コストが気になる場合:前日報じた「マルチモデル最適化」と組み合わせ、必要なタスクのみに適用するのが合理的

設定ファイルの場所

.claude/settings.jsonはプロジェクトルートまたはホームディレクトリ(~/.claude/settings.json)に配置する。プロジェクトルートに置けばリポジトリごとの設定、ホームに置けばシステム全体のデフォルトになる。

設定ファイルが存在しない場合:

mkdir -p ~/.claude && cat > ~/.claude/settings.json << 'EOF'
{
  "env": {
    "ANTHROPIC_DEFAULT_HAIKU_MODEL": "claude-sonnet-4-6-1m",
    "ANTHROPIC_DEFAULT_SONNET_MODEL": "claude-sonnet-4-6-1m"
  }
}
EOF

まとめ

これは1MコンテキストをサポートしたClaude Sonnet 4.6のリリースによって初めて実用的になった設定テクニックだ。Claude Codeの内部モデル割り当てを上書きすることで、コーディングエージェントとして使用する際の最大の障壁の一つだった「コンテキスト圧縮による文脈の喪失」を大幅に軽減できる。

大規模プロジェクトを扱う開発者、特に長期にわたるセッションで一貫性のある開発を求めるケースでは、試す価値のある設定だ。ただしロングコンテキスト料金が発生する点は念頭に置く必要がある。

前日の関連記事:

出典:

  • Anthropic公式モデルドキュメント(claude.ai/docs)
  • Claude Code設定リファレンス

この記事をシェア

人気記事

Comparison

ChatGPT(OpenAI)とClaude(Anthropic)の機能比較 2026年版。コーディング・長文解析・コスト・API料金の違いを検証

ChatGPT(GPT-4o/o3)とClaude(Sonnet 4.6/Opus 4.5)を2026年時点の最新情報で比較する。コーディング能力、長文処理、日本語品質、API料金、無料プランの違いをSWE-benchなどのベンチマーク結果とともに解説する。

続きを読む →
opinion

【2026年2月20日 所感】「AIがコードを書く」は仮説から現実になった——しかし私たちはその意味をまだ消化できていない

2026年2月20日に観測したコーディングエージェント関連ニュースの総括と所感。Anthropicの自律性研究、cmux、MJ Rathbunのエージェント事故、HN「外骨格 vs チーム」論争、Stripe Minions週1000件PR、Taalas 17k tokens/sec——朝から夜までの流れを通じて見えてきた「AIがコードを書く時代」の実相を考察する。

続きを読む →
tool

868のスキルをnpx 1コマンドで——「Antigravity Awesome Skills」が主要AIコーディングエージェントの共通スキル基盤になりつつある

Claude Code・Gemini CLI・Codex CLI・Cursor・GitHub Copilotなど主要AIコーディングアシスタントを横断する868以上のスキルライブラリ「Antigravity Awesome Skills」(v5.4.0)を詳細分析。Anthropic・Vercel・OpenAI・Supabase・Microsoftの公式スキルを統合した設計思想、ロール別バンドル・ワークフロー機能、SKILL.mdによる相互運用性のアーキテクチャを解説する。

続きを読む →

他のAIツールも探す

生産性、創造性、イノベーションのための60以上のAIツールの厳選ディレクトリをご覧ください。

0 tools selected