Как использовать локальные модели LM Studio в Claude Code
@ai_longreadsLM Studio 0.4.1 добавляет Anthropic-совместимый эндпоинт, позволяя запускать Claude Code с локальными моделями вместо облачного API.
Это AI-перевод статьи, сделанный каналом Про AI: Лучшие Статьи и Исследования.
Как использовать локальные модели LM Studio в Claude Code
Use your LM Studio Models in Claude Code Оригинальный текст
В LM Studio 0.4.1 появился Anthropic-совместимый эндпоинт /v1/messages. Это означает, что вы можете использовать свои локальные модели с Claude Code!
LM Studio и Claude Code
Для начала установите LM Studio с lmstudio.ai/download и настройте модель.
Если вы работаете в виртуальной машине или на удалённом сервере, можно также установить llmster:
curl -fsSL https://lmstudio.ai/install.sh | bash
1) Запустите локальный сервер LM Studio
Убедитесь, что LM Studio работает как сервер. Запустить его можно из приложения или из терминала:
lms server start --port 1234
2) Направьте Claude Code на LM Studio
Установите переменные окружения, чтобы CLI claude обращался к вашему локальному серверу LM Studio:
export ANTHROPIC_BASE_URL=http://localhost:1234 export ANTHROPIC_AUTH_TOKEN=lmstudio
3) Запустите Claude Code в терминале
Используйте команду:
claude --model openai/gpt-oss-20b
Готово! Теперь Claude Code использует вашу локальную модель.
Рекомендуется начинать с размера контекста не менее 25 000 токенов (токены, единицы текста) и увеличивать его для лучших результатов, поскольку Claude Code довольно требователен к контексту.
Альтернатива: настройка Claude Code в VS Code
Откройте настройки VS Code:
"claudeCode.environmentVariables": [
{
"name": "ANTHROPIC_BASE_URL",
"value": "http://localhost:1234"
},
{
"name": "ANTHROPIC_AUTH_TOKEN",
"value": "lmstudio"
}
]Под капотом
LM Studio 0.4.1 предоставляет Anthropic-совместимый эндпоинт /v1/messages. Это значит, что любой инструмент, созданный для Anthropic API, может взаимодействовать с LM Studio — достаточно изменить базовый URL.
Что поддерживается
/v1/messages— основной эндпоинт- Потоковые события:
message_start,content_block_delta,message_stop
Пример на Python
Если вы разрабатываете собственные инструменты, вот как использовать Anthropic Python SDK с LM Studio:
from anthropic import Anthropic
client = Anthropic(
base_url="http://localhost:1234",
api_key="lmstudio",
)
message = client.messages.create(
max_tokens=1024,
messages=[
{
"role": "user",
"content": "Hello from LM Studio",
}
],
model="ibm/granite-4-micro",
)
print(message.content)Устранение неполадок
Если возникают проблемы:
- Проверьте статус сервера командой
lms status - Убедитесь, что переменная
ANTHROPIC_BASE_URLустановлена корректно
Не получается разобраться? Заходите на Discord LM Studio и спрашивайте в канале для разработчиков.
Подпишитесь на канал и каждый день читайте лучшие материалы про AI переведенные на русский!
Нашли интересную статью для перевода? Пришлите нашему боту: @ailongreadsbot