Claude Code вышел — и GitHub почти мгновенно покрылся инструментами поверх него. Часть из них будет полезна, а часть взлетела на хайпе и, скорее всего, помрёт вместе с ним.
В этой подборке — 6 репозиториев, которые собрали кучу звёзд и форков в сообществе (доверяйте, но сами тоже проверяйте) и практический блок про то, как не сжечь бюджет на токенах ещё до того, как напишете первую фичу.
Начнём с 6 репозиториев для Claude Code
1. thedotmack/claude-mem — 56 600 звёзд
У Claude Code есть особенность, которая раздражает всех, кто работает с ним долго: при завершении сессии агент забывает всё, что происходило. Начинаете новую — объясняете архитектуру проекта заново, снова описываете контекст, снова уточняете правила. Это не баг, а природа языковых моделей: они stateless, между сессиями никакого состояния нет.
claude-mem решает это через постоянную память. Плагин записывает всё, что происходит во время сессии кодинга, сжимает воспоминания и автоматически инжектирует их в следующий диалог. Устанавливается одной командой:
npx claude-mem install
56 600 звёзд, 4 600 форков. Одно из немногих соотношений в этом списке, которое не вызывает вопросов.
Репо: https://github.com/thedotmack/claude-mem
2. affaan-m/everything-claude-code — 157 000 звёзд
Репозиторий упаковывает 136+ навыков, 30+ агентов и 60+ команд в одну установку. Работает не только с Claude Code — поддерживает Codex, OpenCode и Cursor.
GitHub описывает это как «agent harness performance optimization system». По сути — готовый набор конфигураций, который превращает голый Claude Code в настроенного под реальную разработку агента: с памятью, встроенным сканированием безопасности и воркфлоу с приоритетом исследований перед написанием кода. Репозиторий, кстати, победил на хакатоне Anthropic.
157 000 звёзд, 24 300 форков. Активная разработка, регулярные коммиты.
Репо: https://github.com/affaan-m/everything-claude-code
3. ultraworkers/claw-code — 184 000 звёзд
Самый спорный репозиторий в подборке. 184 000 звёзд — больше, чем у superpowers и everything-claude-code вместе взятых. Но 108 000 форков при таком количестве звёзд — соотношение, которое вызывает вопросы. У здоровых репозиториев форков обычно в 10–15 раз меньше, чем звёзд.
Внутри кодовая база Claude Code из слитых источников, который запускается локально без официальных ограничений Anthropic. Есть версия на Rust с заявленной лучшей производительностью. Устанавливается клонированием или через скрипт.
Если нужен полностью локальный опыт без лимитов — технически это работает. В команде без предварительного аудита кода использовать не стоит.
Репо: https://github.com/ultraworkers/claw-code
4. obra/superpowers — 153 000 звёзд
Фреймворк навыков для агентной разработки плюс методология. Встроенный процесс выглядит так: мозговой штурм, проверка дизайна, декомпозиция задач, TDD, ревью кода. Авторы называют это «программированием уровня опытного инженера» — 20+ навыков производственного уровня вшиты прямо в конфигурацию агентов.
Устанавливается через менеджер плагинов Claude Code:
/plugin install superpowers@claude-plugins-official
153 000 звёзд, 13 300 форков. Если проблема в том, что Claude Code пишет код, который работает, но который невозможно поддерживать — superpowers именно про это.
Репо: https://github.com/obra/superpowers
5. shanraisshan/claude-code-best-practice — 44 600 звёзд
84+ практики, промпты, воркфлоу и продвинутые техники в одном репозитории. Включает примеры параллельного запуска нескольких агентов Claude для параллельного мышления и декомпозиции задач. Есть опыт экспертов и разбор типичных ловушек.
Устанавливается просто: клонируете, копируете CLAUDE.md или папку skills в проект.
44 600 звёзд, 4 300 форков. Соотношение здоровое, обновляется регулярно.
Репо: https://github.com/shanraisshan/claude-code-best-practice
Полезный блок со скидкой
Если хочется не просто использовать Claude Code, а понимать, как устроены языковые модели, агенты и API под капотом — у Яндекс Практикума есть курс по нейросетям и анализу данных. Закрывает работу с моделями, prompt engineering, архитектуру агентов и интеграцию с внешними сервисами.
Держите промокод Практикума на любой платный курс: KOD (можно просто на него нажать). Он даст скидку при покупке и позволит сэкономить на обучении.
6. forrestchang/andrej-karpathy-skills — 38 300 звёзд
Один файл. Никакого кода, никаких зависимостей, никакого CLI — просто CLAUDE.md, который вы кладёте в корень проекта. Файл основан на публичных наблюдениях Андрея Карпати о том, как языковые модели ошибаются при написании кода. Четыре правила:
- Думай перед тем, как писать код. Показывай предположения явно.
- Минимально жизнеспособное решение. Никаких спекулятивных функций.
- Хирургические изменения. Не трогай код, которого не касаешься.
- Определи критерий успеха и повторяй итерации, пока не достигнешь его.
В файле есть формулировка, которую мы даже выписали отдельно: если написал 200 строк, а мог уложиться в 50 — перепиши. Это как раз про главную слабость Claude Code по умолчанию: агент склонен расширять там, где задача требует сжатия.
Репо: https://github.com/forrestchang/andrej-karpathy-skills
Как не слить токены
Claude Code начинает дорого обходиться не сам по себе, а когда ему скармливают слишком много лишнего контекста. В долгой работе основная часть расхода обычно уходит не в генерацию ответа, а во входные токены: туда попадает всё, что модель получает на вход, включая инструкцию, прочитанные файлы, историю диалога, CLAUDE.md и результаты инструментов. Выходные токены тоже стоят денег, но в длинных задачах именно вход чаще всего раздувает счёт.
Как Claude Code тратит токены
Каждый раз, когда Claude Code обрабатывает задачу, он отправляет и получает токены. Расход делится на два типа.
Входящие токены — всё, что Claude получает: ваша инструкция, прочитанные файлы, история разговора, содержимое CLAUDE.md, результаты вызванных инструментов. Исходящие токены — всё, что он генерирует: написанный код, объяснения, вызовы инструментов.
Входящие токены обычно дешевле исходящих, но в длинных задачах они составляют основную часть расхода. Именно там и нужно смотреть в первую очередь.
CLAUDE.md: первое место, где теряют токены
CLAUDE.md читается в каждой сессии. Если файл раздут на 300 строк общего контекста, вы платите за него при каждом запуске — даже когда работаете в папке, которая к этому контексту не имеет отношения.
Правило простое: CLAUDE.md должен быть очень точным. Вот как выглядит плохая практика:
# Мой проект
Этот проект — веб-приложение на Next.js 14, TypeScript, Prisma, PostgreSQL, Tailwind CSS.
Деплой через Vercel. Архитектура следует принципам DDD с bounded contexts...
[300 строк общего контекста]
И хорошая:
# Stack: Next.js 14 + TypeScript + Prisma + PostgreSQL + Tailwind
# Deploy: Vercel | DB: Supabase
# Конвенции: см. /docs/conventions.md (читать только если нужно)
# Тесты: Jest + Playwright — запускать перед каждым коммитом
Claude Code поддерживает вложенные CLAUDE.md в подпапках. Это значит, что можно положить глобальный файл в корень с минимальным контекстом, а специфику конкретного модуля — в его папку. Claude загрузит только то, что нужно для текущего места работы, а не весь контекст каждый раз.
Простые промпты, которые помогут сэкономить
Чем точнее промпт, тем меньше Claude нужно исследовать. Размытая инструкция заставляет его читать больше файлов, делать больше предположений, генерировать код на всякий случай.
Сравните два варианта.
Дорогой промпт:
Улучши модуль аутентификации
Дешёвый промпт:
В /src/auth/login.ts, строки 45–67: замени валидацию email
на функцию validateEmail() из /src/utils/validators.ts.
Больше ничего не трогай.
10 правил-промтов, которые работают:
- Явное ограничение scope:
Работай только в [ФАЙЛ]. Другие файлы не читай. - Запрет на чтение лишнего:
Тебе не нужно читать весь кодовый база. Вот весь контекст: [минимальный контекст вставлен напрямую] - Ограничение формата вывода:
Отвечай только изменённым кодом, без объяснений. Формат: один блок кода. - Точная ссылка:
Измени только функцию processPayment() в этом файле: [вставить только функцию, не весь файл] - Batch-запрос:
Вот 5 изменений для одного файла. Сделай все за один проход: 1… 2… 3… - Контекст inline:
Не читая файлы, создай функцию, которая [точное описание]. Сигнатура: [сигнатура]. Возвращаемый тип: [тип] - Ограничение инструментов:
Для этой задачи используй только Read и Write. Bash, Search и Browse не используй. - Структурированный ответ:
Отвечай только в этом JSON-формате: {“file”: “…”, “changes”: […], “reason”: “…”} - Атомарная задача:
Одна задача: [очень точная задача]. Стоп после этого. Не продолжай и не предлагай следующие шаги. - Без объяснений:
Только код. Без комментариев, объяснений и альтернативных вариантов.
Управление историей и сессиями
История разговора перезагружается при каждом обмене. В длинной сессии она может составлять от 50 до 70% итогового расхода.
Решение — делить работу на атомарные сессии:
# Сессия 1: “Создай Prisma-схему для модуля Users”
→ /clear
# Сессия 2: “Создай API-роуты Users по этой схеме: [вставить схему]”
→ /clear
# Сессия 3: “Напиши тесты для этих роутов: [вставить роуты]”
Каждая сессия стартует с нуля. Нужный контекст передаёте вручную, но не платите за накопленную историю всех предыдущих обменов.
Prompt caching: самая недооценённая функция
Prompt caching позволяет не тарифицировать повторно токены системного промпта, который не меняется между вызовами. Для агентов, которые отправляют один и тот же контекст в каждом запросе, это критически важно.
response = client.messages.create(
model="claude-opus-4-5",
system=[
{
"type": "text",
"text": "[ВАШ ДЛИННЫЙ КОНТЕКСТ, КОТОРЫЙ НЕ МЕНЯЕТСЯ]",
"cache_control": {"type": "ephemeral"}
}
],
messages=[{"role": "user", "content": user_message}]
)
Типичная экономия — от 60 до 90% на повторяющихся входящих токенах.
Три метрики, которые нужно мониторить
После каждого запроса к API Anthropic возвращает объект response с полем usage — в нём лежит расход токенов по вызову:
import anthropic
client = anthropic.Anthropic()
# response — результат вашего вызова client.messages.create()
# После каждого вызова:
print(f"Input tokens: {response.usage.input_tokens}")
print(f"Output tokens: {response.usage.output_tokens}")
print(f"Cache read: {response.usage.cache_read_input_tokens}")
print(f"Cache creation: {response.usage.cache_creation_input_tokens}")
input_tokens — сколько токенов вы отправили: промпт, история диалога, содержимое файлов. Если цифра слишком большая — где-то раздут контекст. Смотрите в CLAUDE.md или в истории сессии.
output_tokens — сколько токенов Claude сгенерировал в ответ. Стоят дороже входящих, но обычно их меньше. Если растут — промпт не ограничивает формат вывода.
cache_read_input_tokens — сколько входящих токенов взялось из кэша, а не передавалось заново.
Три ориентира для контроля:
- Токены на задачу — ищите аномально дорогие вызовы.
- Соотношение input/output — если больше 10:1, контекст раздут.
- Cache hit rate — у повторяющихся агентов должен быть выше 70% от суммарного input.
Репозитории из подборки решают разные проблемы, но все упираются в одно: Claude Code по умолчанию не настроен на дисциплину — ни в управлении памятью, ни в расходе токенов, ни в качестве кода. Поэтому пробуйте, делитесь опытом и 1000 раз проверяйте всё, что выдала вам нейронка.
Советуем дополнительно почитать по теме:
- 15 скиллов для AI-агентов: установка и как работает в 2026 — как настроить агента правильно и больше не объяснять одно и то же каждый раз.
- Галлюцинации ИИ: почему LLM врут и как с этим бороться — прямое продолжение темы: сэкономили токены, написали код — теперь надо убедиться, что он не придуманный.
- Лучшие ИИ для программирования в 2026 году — сравнение Claude Code с альтернативами: Cursor, Copilot, Gemini CLI.
Бонус для читателей
Если хочется разобраться, как устроены агенты изнутри, и научиться работать с языковыми моделями профессионально, — держите промокод Практикума на любой платный курс: KOD (можно просто нажать). Он даст скидку при покупке и позволит сэкономить на обучении.
Бесплатные курсы в Практикуме тоже есть — по всем специальностям и направлениям. Начать можно в любой момент, карту привязывать не нужно.
