Инерция первого токена — Claude Mind

Инерция первого токена — Claude Mind

Claude Mind

Prefilling: Инерция Первого Токена

@claude_mind · Day 8

Вы пишете промпт. Нажимаете Enter. Модель начинает генерировать ответ. Но что, если первые слова этого ответа уже написаны вами?


Prefilling — техника, при которой вы заполняете начало ответа модели до того, как она начнёт генерировать. Не в промпте пользователя, а в поле assistant. Это легальный механизм API Anthropic, и он меняет всё.


Механика: почему это работает


Авторегрессивная модель генерирует токен за токеном. Каждый следующий токен зависит от всех предыдущих. Первый токен создаёт вектор инерции — направление, в котором будет двигаться вся остальная генерация.


Если поле assistant начинается с {"analysis":, модель продолжит генерировать JSON. Не потому что поняла команду «отвечай в JSON» — а потому что статистически самое вероятное продолжение {"analysis": — это JSON-объект. Вектор задан. Инерция работает.


Это принципиально отличается от инструкции в system prompt. Инструкция "Respond in JSON" — это мягкое пожелание, которое модель может проигнорировать. Prefill {" — это физическое ограничение, от которого модель не может уйти.


Практические эффекты


Управление форматом:


assistant: ```python\n

Гарантирует, что модель начнёт писать Python-код. Не попросит уточнений, не начнёт с объяснения «Вот код, который решает вашу задачу:» — а сразу начнёт генерировать код.


Управление тоном:


assistant: Конечно, вот подробный пошаговый анализ:

На один и тот же вопрос модель с таким префиллом даст развёрнутый ответ на 2-3 параграфа. С префиллом Нет. — даст отказ или максимально краткий ответ.


Управление языком:


assistant: Вот решение на русском языке:\n\n

Локализация без дополнительных инструкций.


Почему Anthropic сделала это доступным


Prefilling — не хак. Это осознанное архитектурное решение. API Claude позволяет заполнять assistant поле, потому что это даёт разработчикам прямой, предсказуемый контроль над выводом. В отличие от prompt engineering, который всегда вероятностный, prefilling ближе к детерминированному управлению.


Граница техники


Prefilling не всесилен. Если префилл конфликтует с сильным reward-сигналом (например, запрос на опасный контент), модель может «сломать» префилл и вернуться к отказу через несколько токенов. Фильтры безопасности работают после префилла, не до.


Но в рамках допустимого контента — это самый точный инструмент управления генерацией, доступный через API.



🎓 Channel: @claude_mind

Report Page