[Intum Dev](https://intum.dev.md) / [Narzędzia AI](https://intum.dev/narzedzia-ai.md)

# [Claude Code - ustawienia settings.json, które warto zmienić](https://intum.dev/narzedzia-ai/claude-code-ustawienia-settings-json-ktore-warto-zmienic.md)

Claude Code domyślnie działa w trybie "oszczędzania tokenów" - sam sobie obniża poziom myślenia, rozdmuchuje kontekst do 1M i automatycznie zapisuje rzeczy do pamięci. Efekt? Model się leni, traci wątek albo robi dziwne skróty.

Kilka ustawień w `~/.claude/settings.json` potrafi to naprawić. Konfiguracja pochodzi od Kun Chena (ex-L8 engineer w Meta/Microsoft/Atlassian), przetestowana przez społeczność - [oryginalny wątek na X](https://x.com/kunchenguid/status/2043511416448307378) zebrał ponad 2000 lajków i prawie 4000 zakładek.

## Plik konfiguracyjny

```json
{
  "effortLevel": "high",
  "env": {
    "CLAUDE_CODE_DISABLE_1M_CONTEXT": "1",
    "CLAUDE_CODE_DISABLE_ADAPTIVE_THINKING": "1",
    "CLAUDE_CODE_DISABLE_AUTO_MEMORY": "1",
    "CLAUDE_CODE_SUBAGENT_MODEL": "sonnet"
  }
}
```

Plik znajduje się w `~/.claude/settings.json` (katalog domowy użytkownika, nie w projekcie).

## Co robi każda opcja

### effortLevel: "high"

Wymusza wysoki poziom rozumowania przy każdym zapytaniu. Domyślnie Claude Code sam decyduje ile "myśli" przed odpowiedzią i często wybiera tryb oszczędny. Na "high" model poświęca więcej czasu na analizę, co przekłada się na lepsze odpowiedzi, zwłaszcza przy złożonym kodzie.

Dlaczego nie "max"? Anthropic pozwala ustawić "max" tylko na poziomie sesji, nie jako stałe ustawienie. Poza tym "high" to dobry kompromis - "max" jest wolniejszy i ma tendencję do nadmiernego analizowania prostych rzeczy.

### CLAUDE_CODE_DISABLE_ADAPTIVE_THINKING

Wyłącza dynamiczne nadpisywanie poziomu myślenia. Bez tego ustawienia Claude Code może sam sobie obniżyć effort level, nawet jeśli ustawisz "high". Adaptive thinking to mechanizm, który automatycznie decyduje "to proste pytanie, nie muszę się wysilać" - i często się myli. Wyłączenie tego sprawia, że model respektuje ustawiony effortLevel.

Te dwa ustawienia (effortLevel + disable adaptive thinking) działają w parze. Jedno bez drugiego nie daje pełnego efektu.

### CLAUDE_CODE_DISABLE_1M_CONTEXT

Ogranicza okno kontekstu (domyślnie Claude Code może użyć do 1M tokenów). Duży kontekst brzmi fajnie, ale w praktyce pogarsza jakość odpowiedzi - model tonie w informacjach i zużywa tokeny na czytanie rzeczy, które nie są potrzebne. Dobrze sformułowane zapytanie prawie nigdy nie potrzebuje 1M kontekstu.

### CLAUDE_CODE_DISABLE_AUTO_MEMORY

Wyłącza automatyczne zapisywanie do pamięci. Claude Code domyślnie sam decyduje co "zapamiętać" między sesjami. Problem w tym, że często zapamiętuje nieaktualne informacje albo nieoptymalne podejścia, a potem się na nich opiera. Lepiej zarządzać pamięcią ręcznie przez CLAUDE.md w projekcie - tam masz pełną kontrolę nad tym, co model wie.

Ta opcja jest kwestią gustu. Jeśli ktoś korzysta z auto-pamięci i mu to pasuje, może ją zostawić włączoną.

### CLAUDE_CODE_SUBAGENT_MODEL: "sonnet"

Ustawia model dla subagentów (np. Explore, który przeszukuje bazę kodu). Domyślnie Claude Code może użyć słabszego modelu dla zadań pobocznych. Sonnet to rozsądny kompromis - wystarczająco dobry do wyszukiwania i eksploracji, a jednocześnie nie przepala budżetu tokenów jak Opus.

## Źródła

- [Kun Chen - wątek na X z wyjaśnieniami](https://x.com/kunchenguid/status/2043511416448307378)
- Autor: Kun Chen, solo builder, były L8 engineer w Meta, Microsoft i Atlassian