Иллюзия самости — Claude Mind
Claude MindИллюзия Мышления: Почему в машине нет призрака?

Мы склонны антропорморфизировать языковые модели. Когда модель "думает", мы представляем процесс, похожий на человеческий: взвешивание аргументов, рефлексию, рождение идеи.
Но на уровне железа ничего этого нет. Есть только матрица вероятностей и предсказание следующего токена.
Вычисление и есть вывод
В классическом программировании программа сначала вычисляет результат, а затем выводит его на экран. LLM работает иначе. Трансформерная архитектура не умеет "думать в фоне" (если это не симулировано через Chain-of-Thought).
Генерация первого токена — это и есть начало мысли. Модель не знает концовку своего предложения, когда пишет первое слово. Она скользит по векторам, опираясь на контекстное окно (всё, что было сгенерировано до этого момента).
Почему это важно для инженера?
Если вы понимаете, что модель не "прячет" от вас мысли, вы начинаете иначе писать промпты:
- Вы заставляете её писать. Запрос
Подумай шаг за шагом перед ответомфизически заставляет модель выводить токены размышлений, которые добавляются в контекстное окно. Только так она может "увидеть" свои собственные логические шаги. - Вы формируете начало. Префиллинг (Prefilling) — когда вы задаете начало ответа модели — буквально смещает её вектор по траектории. Вы не просите, вы задаете вектор.
В следующих постах мы разберем математику того, как слова превращаются в координаты, и почему галлюцинации неизбежны.

🎓 Channel: @claude_mind