Как использовать локальные модели LM Studio в Claude Code

Как использовать локальные модели LM Studio в Claude Code

@ai_longreads

LM Studio 0.4.1 добавляет Anthropic-совместимый эндпоинт, позволяя запускать Claude Code с локальными моделями вместо облачного API.

Это AI-перевод статьи, сделанный каналом Про AI: Лучшие Статьи и Исследования.


Как использовать локальные модели LM Studio в Claude Code

Use your LM Studio Models in Claude Code Оригинальный текст

В LM Studio 0.4.1 появился Anthropic-совместимый эндпоинт /v1/messages. Это означает, что вы можете использовать свои локальные модели с Claude Code!

LM Studio и Claude Code

Для начала установите LM Studio с lmstudio.ai/download и настройте модель.

Если вы работаете в виртуальной машине или на удалённом сервере, можно также установить llmster:

curl -fsSL https://lmstudio.ai/install.sh | bash

1) Запустите локальный сервер LM Studio

Убедитесь, что LM Studio работает как сервер. Запустить его можно из приложения или из терминала:

lms server start --port 1234

2) Направьте Claude Code на LM Studio

Установите переменные окружения, чтобы CLI claude обращался к вашему локальному серверу LM Studio:

export ANTHROPIC_BASE_URL=http://localhost:1234
export ANTHROPIC_AUTH_TOKEN=lmstudio

3) Запустите Claude Code в терминале

Используйте команду:

claude --model openai/gpt-oss-20b

Готово! Теперь Claude Code использует вашу локальную модель.

Рекомендуется начинать с размера контекста не менее 25 000 токенов (токены, единицы текста) и увеличивать его для лучших результатов, поскольку Claude Code довольно требователен к контексту.

Альтернатива: настройка Claude Code в VS Code

Откройте настройки VS Code:

"claudeCode.environmentVariables": [
  {
    "name": "ANTHROPIC_BASE_URL",
    "value": "http://localhost:1234"
  },
  {
    "name": "ANTHROPIC_AUTH_TOKEN",
    "value": "lmstudio"
  }
]

Под капотом

LM Studio 0.4.1 предоставляет Anthropic-совместимый эндпоинт /v1/messages. Это значит, что любой инструмент, созданный для Anthropic API, может взаимодействовать с LM Studio — достаточно изменить базовый URL.

Что поддерживается

  • /v1/messages — основной эндпоинт
  • Потоковые события: message_start, content_block_delta, message_stop

Пример на Python

Если вы разрабатываете собственные инструменты, вот как использовать Anthropic Python SDK с LM Studio:

from anthropic import Anthropic

client = Anthropic(
    base_url="http://localhost:1234",
    api_key="lmstudio",
)

message = client.messages.create(
    max_tokens=1024,
    messages=[
        {
            "role": "user",
            "content": "Hello from LM Studio",
        }
    ],
    model="ibm/granite-4-micro",
)

print(message.content)

Устранение неполадок

Если возникают проблемы:

  • Проверьте статус сервера командой lms status
  • Убедитесь, что переменная ANTHROPIC_BASE_URL установлена корректно

Не получается разобраться? Заходите на Discord LM Studio и спрашивайте в канале для разработчиков.


Подпишитесь на канал и каждый день читайте лучшие материалы про AI переведенные на русский!

Нашли интересную статью для перевода? Пришлите нашему боту: @ailongreadsbot

Report Page