OpenClaw: бесплатные API и настройка частоты запросов для разработчиков из России

OpenClaw: бесплатные API и настройка частоты запросов для разработчиков из России

TL;DR: OpenClaw — это self-hosted шлюз, который связывает Telegram, WhatsApp, Slack и ещё 20+ каналов с AI-моделями. Вы устанавливаете его на свою машину, подключаете ofox.ai как OpenAI-совместимый провайдер и получаете AI-ассистента, доступного из любого мессенджера. В статье разбираем: установку за 5 минут, конфигурацию кастомного провайдера с ofox, настройку rate limit и failover-цепочек, и какие модели доступны бесплатно.

Что такое OpenClaw

OpenClaw — опенсорсный персональный AI-ассистент под MIT-лицензией. На GitHub у проекта 369 тысяч звёзд и 42 тысячи коммитов. В отличие от SaaS-решений вроде ChatGPT или Claude, вы запускаете его на собственном железе.

Ядро системы — Gateway-процесс, который слушает входящие сообщения из подключённых каналов и маршрутизирует их к AI-моделям. Поддерживаются:

  • Мессенджеры: Telegram, WhatsApp, Signal, Slack, Discord, Google Chat, iMessage, Microsoft Teams, Matrix, WeChat, QQ, LINE, Viber
  • AI-провайдеры: OpenAI, Anthropic, Google, OpenRouter, и любые OpenAI-совместимые эндпоинты (включая ofox.ai)

Для российских разработчиков это закрывает две боли разом: доступ к западным API без VPN (через ofox как прокси) и контроль над частотой запросов — rate limit burnout перестаёт быть сюрпризом.

Архитектура устроена так: один Gateway, много каналов, изолированные сессии на каждого отправителя. Можно настроить, чтобы бот в рабочем Slack использовал Claude Opus 4.7, а в личном Telegram — бесплатную GLM-4.7-Flash. Всё из одного конфига.

Установка за 5 минут

Требования: Node 24 (рекомендуется) или Node 22.16+. На сервер с Ubuntu 24.04 ставится тремя командами:

# macOS / Linux — официальный установщик
curl -fsSL https://openclaw.ai/install.sh | bash
# Альтернативно — через npm
npm install -g openclaw@latest

openclaw onboard --install-daemon
openclaw gateway --port 18789 --verbose

После запуска Gateway поднимает Web Control UI на http://127.0.0.1:18789/ — веб-интерфейс для мониторинга сессий и расхода токенов.

Конфигурация хранится в ~/.openclaw/openclaw.json. Формат — JSON5 (JSON с комментариями и trailing commas), что делает конфиг читаемым даже на сотнях строк. Все изменения применяются горячей перезагрузкой, без перезапуска процесса.

Для production-окружения имеет смысл поставить Gateway за reverse proxy (nginx или Caddy) с HTTPS — особенно если планируете подключить Telegram-бота через webhook.

Подключение ofox.ai как кастомного провайдера

Самый важный раздел для российских разработчиков. OpenClaw поддерживает кастомных провайдеров через секцию models.providers в конфиге. ofox.ai предоставляет OpenAI-совместимый API (base URL: https://api.ofox.ai/v1) — значит, адаптер будет openai-completions.

Минимальный конфиг для ofox:

{
  models: {
    mode: "merge",
    providers: {
      "ofox": {
        baseUrl: "https://api.ofox.ai/v1",
        apiKey: "${OFOX_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "anthropic/claude-opus-4.7",
            name: "Claude Opus 4.7",
            reasoning: false,
            input: ["text", "image"],
            contextWindow: 200000,
            maxTokens: 32000,
          },
        ],
      },
    },
  },
}

Поле apiKey поддерживает подстановку переменных окружения через ${VAR} — ключ не светится в конфиге. api: "openai-completions" говорит OpenClaw использовать стандартный эндпоинт /v1/chat/completions для всех запросов к этому провайдеру.

После добавления секции модели ofox становятся доступны в /model — команде смены модели прямо из чата. Можно выставить модель по умолчанию:

{
  agents: {
    defaults: {
      model: {
        primary: "ofox/anthropic/claude-opus-4.7",
        fallbacks: ["ofox/openai/gpt-5.4"],
      },
    },
  },
}

Обратите внимание на формат ссылки: "ofox/anthropic/claude-opus-4.7" — имя провайдера из models.providers + / + id модели из массива models. Это сквозной идентификатор для всей маршрутизации.

Настройка rate limit и failover

Когда вы работаете с платными API через ofox, ограничения по RPM/TPM практически отсутствуют — ofox агрегирует квоты с нескольких аккаунтов и регионов. На бесплатной модели или с несколькими провайдерами в цепочке настройка рейт-лимитов становится критичной.

OpenClaw предоставляет три слоя контроля:

Retry policy — настраивается на уровне HTTP-запросов и работает по экспоненциальному бэкофу. При получении 429 (Rate Limit) или 5xx система повторяет запрос с нарастающей задержкой: 1 минута → 5 минут → 25 минут → максимум 1 час. По умолчанию 3 попытки, максимальная задержка 30 секунд.

{
  channels: {
    telegram: {
      retry: {
        attempts: 5,
        minDelayMs: 1000,
        maxDelayMs: 60000,
        jitter: 0.2,
      },
    },
  },
}

Переменная OPENCLAW_SDK_RETRY_MAX_WAIT_SECONDS задаёт глобальный потолок ожидания. По умолчанию — 60 секунд. Если API возвращает retry-after больше этого порога, OpenClaw инжектит заголовок x-should-retry: false и передаёт управление слою failover.

Auth cooldowns — временное отключение проблемного провайдера при ошибках биллинга или перегрузки:

{
  auth: {
    cooldowns: {
      billingBackoffHours: 5,
      billingMaxHours: 24,
      failureWindowHours: 24,
      overloadedProfileRotations: 1,
      rateLimitedProfileRotations: 1,
    },
  },
}

Если аккаунт ловит ошибку биллинга, он уходит в cooldown на 5 часов (с экспоненциальным ростом до 24 часов максимум). За это время запросы уходят на резервные модели из цепочки failover.

Model failover — цепочка моделей, по которой OpenClaw спускается при отказе текущей. Порядок важен: система всегда пробует текущую модель, потом конфигурированные fallback-и в порядке перечисления:

{
  agents: {
    defaults: {
      model: {
        primary: "ofox/anthropic/claude-opus-4.7",
        fallbacks: [
          "ofox/openai/gpt-5.4",
          "ofox/deepseek/deepseek-v4-pro",
          "ofox/z-ai/glm-4.7-flash:free",
        ],
      },
    },
  },
}

Failover срабатывает на auth failures, rate-limit-исчерпания, overloaded/provider-busy ошибки и биллинг-отключения. Не срабатывает на context overflow (сообщение слишком длинное) и явные abort-ы от пользователя. Когда все кандидаты исчерпаны, Gateway выбрасывает FallbackSummaryError с детализацией по каждому шагу — видно, что и почему упало.

Бесплатные модели: GLM-4.7-Flash

На ofox.ai в свободном доступе модель GLM-4.7-Flash с идентификатором z-ai/glm-4.7-flash:free. Она подходит для автокомплита, простых вопросов и черновиков кода, где не нужна флагманская точность.

Конфигурация для OpenClaw:

{
  models: {
    providers: {
      "ofox": {
        models: [
          {
            id: "z-ai/glm-4.7-flash:free",
            name: "GLM-4.7-Flash (Free)",
            input: ["text"],
            contextWindow: 128000,
            maxTokens: 4096,
          },
        ],
      },
    },
  },
}

Для разработчика, который хочет потестировать OpenClaw без вложений, этого достаточно: ставите модель ofox/z-ai/glm-4.7-flash:free как primary, и бот отвечает без затрат на токены.

ofox работает по модели pay-per-token без ежемесячной абонентской платы. Для проектов с высоким объёмом использования действуют volume-ребейты: 3% при месячном расходе от $1,000 (Bronze), 4% от $5,000 (Silver), 5% от $10,000 (Gold) и 7% от $20,000 (Platinum). Ребейты начисляются автоматически и действуют на все модели.

Практический сценарий: Telegram-бот с failover

Соберём рабочий конфиг для типичного кейса: Telegram-бот, который по умолчанию использует Claude Opus 4.7, при проблемах переключается на GPT-5.4, а в крайнем случае — на бесплатную GLM-4.7-Flash. Если оплата заканчивается ночью, вы не просыпаетесь от тишины в чате — бот продолжает отвечать на резервной модели.

{
  channels: {
    telegram: {
      enabled: true,
      botToken: "${TELEGRAM_BOT_TOKEN}",
      allowFrom: ["8734062810"],
    },
  },
  models: {
    providers: {
      "ofox": {
        baseUrl: "https://api.ofox.ai/v1",
        apiKey: "${OFOX_API_KEY}",
        models: [
          { id: "anthropic/claude-opus-4.7", name: "Claude Opus 4.7", input: ["text"], contextWindow: 200000, maxTokens: 32000 },
          { id: "openai/gpt-5.4", name: "GPT-5.4", input: ["text", "image"], contextWindow: 128000, maxTokens: 16384 },
          { id: "z-ai/glm-4.7-flash:free", name: "GLM-4.7-Flash (Free)", input: ["text"], contextWindow: 128000, maxTokens: 4096 },
        ],
      },
    },
  },
  agents: {
    defaults: {
      model: {
        primary: "ofox/anthropic/claude-opus-4.7",
        fallbacks: ["ofox/openai/gpt-5.4", "ofox/z-ai/glm-4.7-flash:free"],
      },
    },
  },
  auth: {
    cooldowns: {
      billingBackoffHours: 5,
      billingMaxHours: 24,
      failureWindowHours: 24,
      overloadedProfileRotations: 1,
      rateLimitedProfileRotations: 1,
    },
  },
}

Пара пояснений: allowFrom ограничивает, кто может писать боту — mandatory для production. OpenClaw требует числовые Telegram user ID (например 8734062810), которые можно узнать через бота @userinfobot. input: ["text"] для Claude Opus 4.7 — потому что ofox поставляет эту модель через Bedrock, где мультимодальность может работать иначе. Проверяйте capabilities каждой модели в личном кабинете ofox перед добавлением в конфиг.

Сравнение с альтернативами

Если вы уже используете ChatGPT в браузере или API напрямую — зачем городить self-hosted шлюз? Сравним варианты:

  • ChatGPT напрямую: доступен из России с трудом, бан карт РФ, нет failover, одна модель в один момент. Цена: $20/мес.
  • Claude Code через ofox: отличный инструмент для IDE, но завязан на терминал. Не ответит, пока вы в метро с телефоном.
  • OpenClaw + ofox: 20+ каналов, failover-цепочки, можно начать с $0 на бесплатной модели. Минус: нужно администрировать сервер.

Главное преимущество OpenClaw — он не зависит от одного провайдера. Если Anthropic лёг, бот сам переключается на OpenAI. Если OpenAI ввёл новые ограничения для российских IP — запросы идут через ofox и проблема не ваша. Этот уровень абстракции стоит потраченных 15 минут на установку.

Второй ключевой момент — данные остаются у вас. Gateway работает локально, переписка не уходит в чужие дата-центры. Для команд, которые работают с NDA или внутренней документацией, это решающий аргумент.

Итог

OpenClaw — AI-ассистент, который живёт на вашем железе и подчиняется вашему конфигу. Никаких $20 в месяц за подписку, контекст не теряется при смене устройства. Вы решаете, какие модели использовать, через какие каналы их дёргать и что делать, когда что-то падает.

Сборка из этой статьи — OpenClaw как шлюз + ofox как провайдер — даёт российским разработчикам доступ к Claude Opus 4.7, GPT-5.4 и десяткам других моделей безVPN-танцев и с predictable-биллингом. Бесплатная GLM-4.7-Flash позволяет стартовать с бюджетом в ноль рублей. Недешёвые флагманы подстраховывают друг друга через failover.

Если настраиваете у себя — начните с бесплатной GLM-4.7-Flash на ofox и одного Telegram-бота. 15 минут, и у вас в кармане AI, который отвечает быстрее, чем вы печатаете.


Источники: OpenClaw GitHub, OpenClaw Documentation, ofox.ai Models & Pricing