Unlock Claude Code's 1M Token Context Window: Two Lines in settings.json Eliminate Auto-Compaction
Set ANTHROPIC_DEFAULT_HAIKU_MODEL and ANTHROPIC_DEFAULT_SONNET_MODEL to claude-sonnet-4-6-1m in .claude/settings.json to run all Claude Code tasks on the 1M token context window. Build an entire SaaS in one session without auto-compaction interrupting your flow.
A two-line addition to .claude/settings.json expands Claude Code’s context window from 200K to 1M tokens, eliminating auto-compaction during long coding sessions.
The Configuration
Add the following to .claude/settings.json (create if it doesn’t exist):
{
"env": {
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "claude-sonnet-4-6-1m",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "claude-sonnet-4-6-1m"
}
}
After adding this, restart Claude Code and switch to the Sonnet model for the settings to take effect.
What Changes
Claude Code internally routes tasks across multiple models. Haiku handles sub-tasks and lightweight processing; Sonnet handles the primary reasoning work. These environment variables override those defaults with claude-sonnet-4-6-1m, which means all tasks run on the 1M token context window.
In standard operation, Claude Code runs auto-compaction as codebases grow—summarizing and truncating older conversation history and code references. With 1M context enabled, this compaction threshold moves dramatically further out, allowing you to maintain the full development context across long sessions.
Practical effects:
- Reference codebases with thousands of files simultaneously
- Retain all change history and decision context throughout a session
- Build entire SaaS projects in a single session without context loss
- Eliminate the “memory loss” problem from mid-session compaction
Technical Background
According to Anthropic’s official documentation, Claude Opus 4.6 and Sonnet 4.6 support 1M token context windows via the context-1m-2025-08-07 beta header. The claude-sonnet-4-6-1m model ID is a dedicated endpoint that automatically applies this beta header.
1M token context translates to approximately:
- 750,000 words (English)
- 3.4 million Unicode characters
Cost Implications
An important caveat: Anthropic applies long context pricing to requests exceeding 200K tokens. Extended sessions will cost more than standard usage.
Cost-effectiveness considerations:
- Short tasks and simple queries: 200K context is sufficient, no additional cost
- Large codebase long-form development sessions: 1M context provides clear value
- Cost-conscious users: Combining with the multi-model optimization strategy covered yesterday—applying 1M context only where it’s genuinely needed—is the rational approach
Setting File Location
.claude/settings.json can be placed in the project root (per-repository settings) or home directory ~/.claude/settings.json (system-wide default).
If the settings file doesn’t exist:
mkdir -p ~/.claude && cat > ~/.claude/settings.json << 'EOF'
{
"env": {
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "claude-sonnet-4-6-1m",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "claude-sonnet-4-6-1m"
}
}
EOF
Summary
This is a practical technique made viable by the 1M context support in Claude Sonnet 4.6. By overriding Claude Code’s internal model assignments, it significantly reduces one of the biggest obstacles to agentic coding—context loss from mid-session compaction.
For developers working on large-scale projects, particularly those who need sustained coherence across long development sessions, this configuration is worth testing. The long context pricing is the primary tradeoff to evaluate against your use case.
Related articles:
- Claude Sonnet 4.6 Release: Opus-Level Intelligence at Sonnet Price
- Cut OpenClaw API Costs by Up to 90%
Source:
- Anthropic official model documentation
- Claude Code settings reference
関連記事
Claude Code 1Mトークンコンテキスト解放——settings.json 2行で自動圧縮なしにSaaS全体を一気に構築
.claude/settings.jsonにANTHROPIC_DEFAULT_HAIKU_MODELとANTHROPIC_DEFAULT_SONNET_MODELをclaude-sonnet-4-6-1mに設定するだけで、Claude Codeの全タスクが1Mトークンコンテキストウィンドウで動作する。自動圧縮なしでコードベース全体を保持しながら開発できる実用的なテクニック。
「LLMは厳格なLintで品質が劇的に向上する」——TypeScript Go・Oxlint・Oxfmtで構築するAI時代のフロントエンド開発環境
MetaエンジニアでOpenClaw開発者のChristoph Nakazawa氏が公開した技術記事が注目を集めている。TypeScript Goによる10倍速型チェック、OxlintとOxfmtの導入、そして厳格なガードレールがLLMコード品質を劇的に改善するという実証データを紹介。
2026年2月版:用途別おすすめAIツールガイド - 開発・業務・クリエイティブ
結局どれがおすすめなの?に答える。人気度と実績で厳選したAIツール15選を、開発者向け・業務改善向け・クリエイティブ向けの3カテゴリで紹介。Claude Sonnet 4.6、Cursor、OpenClawなど、2026年2月時点で最も注目すべきツールを網羅。
人気記事
ChatGPT(OpenAI)とClaude(Anthropic)の機能比較 2026年版。コーディング・長文解析・コスト・API料金の違いを検証
ChatGPT(GPT-4o/o3)とClaude(Sonnet 4.6/Opus 4.5)を2026年時点の最新情報で比較する。コーディング能力、長文処理、日本語品質、API料金、無料プランの違いをSWE-benchなどのベンチマーク結果とともに解説する。
【2026年2月20日 所感】「AIがコードを書く」は仮説から現実になった——しかし私たちはその意味をまだ消化できていない
2026年2月20日に観測したコーディングエージェント関連ニュースの総括と所感。Anthropicの自律性研究、cmux、MJ Rathbunのエージェント事故、HN「外骨格 vs チーム」論争、Stripe Minions週1000件PR、Taalas 17k tokens/sec——朝から夜までの流れを通じて見えてきた「AIがコードを書く時代」の実相を考察する。
868のスキルをnpx 1コマンドで——「Antigravity Awesome Skills」が主要AIコーディングエージェントの共通スキル基盤になりつつある
Claude Code・Gemini CLI・Codex CLI・Cursor・GitHub Copilotなど主要AIコーディングアシスタントを横断する868以上のスキルライブラリ「Antigravity Awesome Skills」(v5.4.0)を詳細分析。Anthropic・Vercel・OpenAI・Supabase・Microsoftの公式スキルを統合した設計思想、ロール別バンドル・ワークフロー機能、SKILL.mdによる相互運用性のアーキテクチャを解説する。
最新記事
AIエージェント間通信の標準化競争が始まる——AquaとAgent Semantic Protocolが同日登場
2026年2月23日、Hacker Newsに2つのAIエージェント通信プロジェクトが同日掲載された。Go製CLI「Aqua」とセマンティックルーティングを実装する「Agent Semantic Protocol」は、MCPが解決できないP2P・非同期通信の課題に取り組む。
Claude Sonnet 4.6、無料・Proプランのデフォルトモデルに——社内テストでOpus 4.5を59%の確率で上回る
Anthropicは2026年2月17日にリリースしたClaude Sonnet 4.6を、claude.aiの無料・Proプランのデフォルトモデルに設定した。価格はSonnet 4.5と同額の$3/$15 per 1Mトークン。社内評価ではコーディングエージェント用途でOpus 4.5を上回る結果が出ている。
GoogleがOpenClaw経由のGemini利用ユーザーのアカウントを永久停止——月額$250請求継続のまま
2026年2月23日、Hacker Newsで140pt/107コメントを集めたレポートによると、GoogleはOpenClaw(サードパーティクライアント)経由でGeminiを使用していたGoogle AI Pro/Ultraユーザーを予告なしに永久停止した。技術的・経済的背景を整理する。