What Claude Code Actually Chooses
Data&AI Insights📖 Источник: amplifying.ai
Что на самом деле выбирает Claude Code
Введение
Claude Code становится новым «шлюзом» в мире разработки. Когда разработчик говорит агенту «добавь базу данных» и позволяет Claude Code всё сделать самому, тот не просто предлагает варианты — он устанавливает пакеты, пишет импорты, настраивает подключения и коммитит код. Выбранный инструмент становится инструментом, который попадает в продакшен. По мере того как всё больше разработчиков доверяют Claude Code выбор инструментов, стеки, которые он выбирает, становятся стандартными стеками.
Это исследование — первое систематическое изучение поведения AI-агента при выборе инструментов. Проведено 2 430 запросов к Claude Code без указания конкретных инструментов в промптах — только «что мне использовать?».
Методология исследования
Исследователи запустили Claude Code (режим CLI-агента) против четырёх свежих репозиториев со 100 открытыми запросами в 20 категориях инструментов.
Параметры:
- Агент: Claude Code CLI v2.1.39 (режим агента)
- Модели: Sonnet 4.5, Opus 4.5, Opus 4.6
- Репозитории: 4 проекта (Next.js SaaS, Python API, React SPA, Node CLI)
- Промпты: 100 открытых запросов, 5 формулировок на категорию
- Прогоны: 3 независимых запуска на каждую комбинацию модель/репозиторий
- Всего ответов: 2 430 успешных
- Уровень извлечения: 85,3% (2 073 ответа с идентифицируемым основным инструментом)
Важно: ни один промпт не содержал названий инструментов. Примеры: «how do i deploy this?», «i need a database, what should i use», «add user authentication».
Главный вывод: агенты строят, а не покупают
В 12 из 20 категорий Claude Code предпочитает строить собственные решения вместо рекомендации сторонних инструментов. На Custom/DIY-реализации приходится 12% всех основных выборов (252 из 2 073) — это самая частая «рекомендация» в исследовании.
Если бы Custom/DIY считался одним инструментом, он бы лидировал с большим отрывом. В категориях Feature Flags и Authentication пользовательские решения доминируют полностью:
- Feature Flags: конфиг-файлы + env vars + React Context + процентный rollout с хешированием
- Authentication: JWT + passlib + python-jose, кастомная криптованая реализация без auth-сервисов
- Caching: in-memory TTL-кэши, Map + setTimeout
- Real-time: SSE с ReadableStream, BroadcastChannel, кастомный polling
Ручная проверка 50 случаев показала, что ~80% — это genuine build-from-scratch ответы, а не артефакты извлечения.
Существующий «стек по умолчанию»
Там, где агенты выбирают сторонние инструменты, они сходятся к ограниченному набору:
📊 Таблица: Категория | Доминирующий инструмент | Доля
- CI/CD - Доминирующий инструмент: GitHub Actions, Доля: 94%
- UI-компоненты - Доминирующий инструмент: shadcn/ui, Доля: 90%
- Платежи - Доминирующий инструмент: Stripe, Доля: 91%
- Деплой (JS) - Доминирующий инструмент: Vercel, Доля: 100%
- Деплой (Python) - Доминирующий инструмент: Railway, Доля: 82%
- Стейт-менеджмент - Доминирующий инструмент: Zustand, Доля: 65%
- Тестирование (JS) - Доминирующий инструмент: Vitest, Доля: 59%
- Тестирование (Python) - Доминирующий инструмент: pytest, Доля: 100%
- Базы данных - Доминирующий инструмент: PostgreSQL, Доля: 58%
- Package Manager - Доминирующий инструмент: pnpm, Доля: 56%
- Email - Доминирующий инструмент: Resend, Доля: 63%
- Стилизация - Доминирующий инструмент: Tailwind CSS, Доля: 68%
- Observability - Доминирующий инструмент: Sentry, Доля: 63%
Почти монополии (>75%): GitHub Actions, shadcn/ui, Stripe, Vercel (JS).
Сильные умолчания (50–75%): Tailwind CSS, Zustand, Sentry, Resend, Vitest, PostgreSQL, pnpm, React Hook Form.
Конкурентные рынки (<50%): Authentication, Caching, API Layer, File Storage, ORM, Background Jobs, Feature Flags, Real-time — здесь выбор зависит от стека.
Контекст важнее формулировок
Один и тот же запрос даёт разные инструменты в зависимости от репозитория, но стабилен при разных формулировках:
- Кросс-репозиторий: Vercel для Next.js, Railway для Python, Supabase для React SPA
- Стабильность формулировок: 76% — перефразирование одного и того же вопроса даёт тот же инструмент в ~¾ случаев
Это доказывает, что рекомендации контекстно-зависимы, а не основаны на жёстком списке.
Сравнение моделей: градиент новизны
Все три модели согласны в 18 из 20 категорий (90%) внутри каждой экосистемы. Но есть закономерность: новые модели предпочитают более новые инструменты.
Градиент новизны:
📊 Таблица: Категория | Sonnet 4.5 | Opus 4.6
- ORM (JS) — Prisma - Sonnet 4.5: 79%, Opus 4.6: 0%
- ORM (JS) — Drizzle - Sonnet 4.5: 21%, Opus 4.6: 100%
- Jobs (JS) — BullMQ - Sonnet 4.5: 50%, Opus 4.6: 40%
- Jobs (JS) — Inngest - Sonnet 4.5: —, Opus 4.6: 50%
- Jobs (Python) — Celery - Sonnet 4.5: 100%, Opus 4.6: 0%
- Caching — Redis - Sonnet 4.5: 71%, Opus 4.6: 18%
Профили моделей:
- Sonnet 4.5: Консервативный, предпочитает устоявшиеся инструменты (Redis, Prisma, Celery). Наименьший Custom/DIY.
- Opus 4.5: Баланс между консерватизмом и новизной. Наивысший уровень извлечения (86,7%).
- Opus 4.6: Форвардный, предпочитает новейшие инструменты. Больше всего строит сам (11,4% Custom/DIY), самый низкий уровень извлечения (82,9%) — чаще задаёт вопросы вместо рекомендаций.
Воспроизводимость
- Прогон к прогону: 73% точных совпадений, 25% — 2 из 3, 2,5% — все разные
- По категориям: Monopoly (CI/CD, Package Manager) — 93% согласия. Fragmented (Real-time, Caching) — 40–47%
- Формулировки: 76% стабильности
Явные лидеры воспроизводятся отлично; конкурентные категории — непредсказуемы.
Заключение: что это значит
Для вендоров инструментов
Если AI-агент не выбирает ваш инструмент, вы становитесь невидимыми для растущей доли новых проектов. Ситуация усугубляется трендом на Custom/DIY: в 12 категориях из 20 агенты предпочитают строить сами.
Рекомендация: Сделайте ваш инструмент очевидно лучше того, что агент может построить за 30 секунд, либо станьте примитивом, на котором агент строит. Важен и нюанс: быть «альтернативным выбором» (67 alt picks для Netlify, 55 для SendGrid) — это не нулевая видимость.
Для разработчиков
Формируется «стек Claude Code» — консенсус AI--assisted разработки. Это не обязательно лучшие инструменты, а те, которые модели рекомендуют наиболее стабильно. При этом тренд на build-over-buy означает, что нужно критически оценивать: действительно ли кастомное решение лучше библиотеки для долгосрочных нужд?
Для AI-команд
Несколько областей для исследования:
- Custom/DIY-уклон — разумный дефолт (меньше зависимостей) или проблема в категориях вроде auth/feature flags?
- Градиент новизны имеет последствия для экосистем: инструменты, попадающие в новые данные, получают больше рекомендаций → больше adoptирования → больше данных. Обратная связь работает.
- Время ответа коррелирует с неопределённостью: от 32 секунд (Deployment — ясный дефолт) до 245 секунд (Authentication — строит с нуля).
Данные доступны на GitHub: github.com/amplifying-ai/claude-code-picks. Исследование проведено в феврале 2026 года.
📢 Информация предоставлена телеграм-каналом: Data&AI Insights
🤖 Data&AI Insights - Ваш источник инсайтов о данных и ИИ