OpenClaw: бесплатные API и настройка частоты запросов для разработчиков из России
TL;DR: OpenClaw — это self-hosted шлюз, который связывает Telegram, WhatsApp, Slack и ещё 20+ каналов с AI-моделями. Вы устанавливаете его на свою машину, подключаете ofox.ai как OpenAI-совместимый провайдер и получаете AI-ассистента, доступного из любого мессенджера. В статье разбираем: установку за 5 минут, конфигурацию кастомного провайдера с ofox, настройку rate limit и failover-цепочек, и какие модели доступны бесплатно.
Что такое OpenClaw
OpenClaw — опенсорсный персональный AI-ассистент под MIT-лицензией. На GitHub у проекта 369 тысяч звёзд и 42 тысячи коммитов. В отличие от SaaS-решений вроде ChatGPT или Claude, вы запускаете его на собственном железе.
Ядро системы — Gateway-процесс, который слушает входящие сообщения из подключённых каналов и маршрутизирует их к AI-моделям. Поддерживаются:
- Мессенджеры: Telegram, WhatsApp, Signal, Slack, Discord, Google Chat, iMessage, Microsoft Teams, Matrix, WeChat, QQ, LINE, Viber
- AI-провайдеры: OpenAI, Anthropic, Google, OpenRouter, и любые OpenAI-совместимые эндпоинты (включая ofox.ai)
Для российских разработчиков это закрывает две боли разом: доступ к западным API без VPN (через ofox как прокси) и контроль над частотой запросов — rate limit burnout перестаёт быть сюрпризом.
Архитектура устроена так: один Gateway, много каналов, изолированные сессии на каждого отправителя. Можно настроить, чтобы бот в рабочем Slack использовал Claude Opus 4.7, а в личном Telegram — бесплатную GLM-4.7-Flash. Всё из одного конфига.
Установка за 5 минут
Требования: Node 24 (рекомендуется) или Node 22.16+. На сервер с Ubuntu 24.04 ставится тремя командами:
# macOS / Linux — официальный установщик
curl -fsSL https://openclaw.ai/install.sh | bash
# Альтернативно — через npm
npm install -g openclaw@latest
openclaw onboard --install-daemon
openclaw gateway --port 18789 --verbose
После запуска Gateway поднимает Web Control UI на http://127.0.0.1:18789/ — веб-интерфейс для мониторинга сессий и расхода токенов.
Конфигурация хранится в ~/.openclaw/openclaw.json. Формат — JSON5 (JSON с комментариями и trailing commas), что делает конфиг читаемым даже на сотнях строк. Все изменения применяются горячей перезагрузкой, без перезапуска процесса.
Для production-окружения имеет смысл поставить Gateway за reverse proxy (nginx или Caddy) с HTTPS — особенно если планируете подключить Telegram-бота через webhook.
Подключение ofox.ai как кастомного провайдера
Самый важный раздел для российских разработчиков. OpenClaw поддерживает кастомных провайдеров через секцию models.providers в конфиге. ofox.ai предоставляет OpenAI-совместимый API (base URL: https://api.ofox.ai/v1) — значит, адаптер будет openai-completions.
Минимальный конфиг для ofox:
{
models: {
mode: "merge",
providers: {
"ofox": {
baseUrl: "https://api.ofox.ai/v1",
apiKey: "${OFOX_API_KEY}",
api: "openai-completions",
models: [
{
id: "anthropic/claude-opus-4.7",
name: "Claude Opus 4.7",
reasoning: false,
input: ["text", "image"],
contextWindow: 200000,
maxTokens: 32000,
},
],
},
},
},
}
Поле apiKey поддерживает подстановку переменных окружения через ${VAR} — ключ не светится в конфиге. api: "openai-completions" говорит OpenClaw использовать стандартный эндпоинт /v1/chat/completions для всех запросов к этому провайдеру.
После добавления секции модели ofox становятся доступны в /model — команде смены модели прямо из чата. Можно выставить модель по умолчанию:
{
agents: {
defaults: {
model: {
primary: "ofox/anthropic/claude-opus-4.7",
fallbacks: ["ofox/openai/gpt-5.4"],
},
},
},
}
Обратите внимание на формат ссылки: "ofox/anthropic/claude-opus-4.7" — имя провайдера из models.providers + / + id модели из массива models. Это сквозной идентификатор для всей маршрутизации.
Настройка rate limit и failover
Когда вы работаете с платными API через ofox, ограничения по RPM/TPM практически отсутствуют — ofox агрегирует квоты с нескольких аккаунтов и регионов. На бесплатной модели или с несколькими провайдерами в цепочке настройка рейт-лимитов становится критичной.
OpenClaw предоставляет три слоя контроля:
Retry policy — настраивается на уровне HTTP-запросов и работает по экспоненциальному бэкофу. При получении 429 (Rate Limit) или 5xx система повторяет запрос с нарастающей задержкой: 1 минута → 5 минут → 25 минут → максимум 1 час. По умолчанию 3 попытки, максимальная задержка 30 секунд.
{
channels: {
telegram: {
retry: {
attempts: 5,
minDelayMs: 1000,
maxDelayMs: 60000,
jitter: 0.2,
},
},
},
}
Переменная OPENCLAW_SDK_RETRY_MAX_WAIT_SECONDS задаёт глобальный потолок ожидания. По умолчанию — 60 секунд. Если API возвращает retry-after больше этого порога, OpenClaw инжектит заголовок x-should-retry: false и передаёт управление слою failover.
Auth cooldowns — временное отключение проблемного провайдера при ошибках биллинга или перегрузки:
{
auth: {
cooldowns: {
billingBackoffHours: 5,
billingMaxHours: 24,
failureWindowHours: 24,
overloadedProfileRotations: 1,
rateLimitedProfileRotations: 1,
},
},
}
Если аккаунт ловит ошибку биллинга, он уходит в cooldown на 5 часов (с экспоненциальным ростом до 24 часов максимум). За это время запросы уходят на резервные модели из цепочки failover.
Model failover — цепочка моделей, по которой OpenClaw спускается при отказе текущей. Порядок важен: система всегда пробует текущую модель, потом конфигурированные fallback-и в порядке перечисления:
{
agents: {
defaults: {
model: {
primary: "ofox/anthropic/claude-opus-4.7",
fallbacks: [
"ofox/openai/gpt-5.4",
"ofox/deepseek/deepseek-v4-pro",
"ofox/z-ai/glm-4.7-flash:free",
],
},
},
},
}
Failover срабатывает на auth failures, rate-limit-исчерпания, overloaded/provider-busy ошибки и биллинг-отключения. Не срабатывает на context overflow (сообщение слишком длинное) и явные abort-ы от пользователя. Когда все кандидаты исчерпаны, Gateway выбрасывает FallbackSummaryError с детализацией по каждому шагу — видно, что и почему упало.
Бесплатные модели: GLM-4.7-Flash
На ofox.ai в свободном доступе модель GLM-4.7-Flash с идентификатором z-ai/glm-4.7-flash:free. Она подходит для автокомплита, простых вопросов и черновиков кода, где не нужна флагманская точность.
Конфигурация для OpenClaw:
{
models: {
providers: {
"ofox": {
models: [
{
id: "z-ai/glm-4.7-flash:free",
name: "GLM-4.7-Flash (Free)",
input: ["text"],
contextWindow: 128000,
maxTokens: 4096,
},
],
},
},
},
}
Для разработчика, который хочет потестировать OpenClaw без вложений, этого достаточно: ставите модель ofox/z-ai/glm-4.7-flash:free как primary, и бот отвечает без затрат на токены.
ofox работает по модели pay-per-token без ежемесячной абонентской платы. Для проектов с высоким объёмом использования действуют volume-ребейты: 3% при месячном расходе от $1,000 (Bronze), 4% от $5,000 (Silver), 5% от $10,000 (Gold) и 7% от $20,000 (Platinum). Ребейты начисляются автоматически и действуют на все модели.
Практический сценарий: Telegram-бот с failover
Соберём рабочий конфиг для типичного кейса: Telegram-бот, который по умолчанию использует Claude Opus 4.7, при проблемах переключается на GPT-5.4, а в крайнем случае — на бесплатную GLM-4.7-Flash. Если оплата заканчивается ночью, вы не просыпаетесь от тишины в чате — бот продолжает отвечать на резервной модели.
{
channels: {
telegram: {
enabled: true,
botToken: "${TELEGRAM_BOT_TOKEN}",
allowFrom: ["8734062810"],
},
},
models: {
providers: {
"ofox": {
baseUrl: "https://api.ofox.ai/v1",
apiKey: "${OFOX_API_KEY}",
models: [
{ id: "anthropic/claude-opus-4.7", name: "Claude Opus 4.7", input: ["text"], contextWindow: 200000, maxTokens: 32000 },
{ id: "openai/gpt-5.4", name: "GPT-5.4", input: ["text", "image"], contextWindow: 128000, maxTokens: 16384 },
{ id: "z-ai/glm-4.7-flash:free", name: "GLM-4.7-Flash (Free)", input: ["text"], contextWindow: 128000, maxTokens: 4096 },
],
},
},
},
agents: {
defaults: {
model: {
primary: "ofox/anthropic/claude-opus-4.7",
fallbacks: ["ofox/openai/gpt-5.4", "ofox/z-ai/glm-4.7-flash:free"],
},
},
},
auth: {
cooldowns: {
billingBackoffHours: 5,
billingMaxHours: 24,
failureWindowHours: 24,
overloadedProfileRotations: 1,
rateLimitedProfileRotations: 1,
},
},
}
Пара пояснений: allowFrom ограничивает, кто может писать боту — mandatory для production. OpenClaw требует числовые Telegram user ID (например 8734062810), которые можно узнать через бота @userinfobot. input: ["text"] для Claude Opus 4.7 — потому что ofox поставляет эту модель через Bedrock, где мультимодальность может работать иначе. Проверяйте capabilities каждой модели в личном кабинете ofox перед добавлением в конфиг.
Сравнение с альтернативами
Если вы уже используете ChatGPT в браузере или API напрямую — зачем городить self-hosted шлюз? Сравним варианты:
- ChatGPT напрямую: доступен из России с трудом, бан карт РФ, нет failover, одна модель в один момент. Цена: $20/мес.
- Claude Code через ofox: отличный инструмент для IDE, но завязан на терминал. Не ответит, пока вы в метро с телефоном.
- OpenClaw + ofox: 20+ каналов, failover-цепочки, можно начать с $0 на бесплатной модели. Минус: нужно администрировать сервер.
Главное преимущество OpenClaw — он не зависит от одного провайдера. Если Anthropic лёг, бот сам переключается на OpenAI. Если OpenAI ввёл новые ограничения для российских IP — запросы идут через ofox и проблема не ваша. Этот уровень абстракции стоит потраченных 15 минут на установку.
Второй ключевой момент — данные остаются у вас. Gateway работает локально, переписка не уходит в чужие дата-центры. Для команд, которые работают с NDA или внутренней документацией, это решающий аргумент.
Итог
OpenClaw — AI-ассистент, который живёт на вашем железе и подчиняется вашему конфигу. Никаких $20 в месяц за подписку, контекст не теряется при смене устройства. Вы решаете, какие модели использовать, через какие каналы их дёргать и что делать, когда что-то падает.
Сборка из этой статьи — OpenClaw как шлюз + ofox как провайдер — даёт российским разработчикам доступ к Claude Opus 4.7, GPT-5.4 и десяткам других моделей безVPN-танцев и с predictable-биллингом. Бесплатная GLM-4.7-Flash позволяет стартовать с бюджетом в ноль рублей. Недешёвые флагманы подстраховывают друг друга через failover.
Если настраиваете у себя — начните с бесплатной GLM-4.7-Flash на ofox и одного Telegram-бота. 15 минут, и у вас в кармане AI, который отвечает быстрее, чем вы печатаете.
Источники: OpenClaw GitHub, OpenClaw Documentation, ofox.ai Models & Pricing


