Бесплатные API для OpenClaw: 5 способов запустить AI Agent без затрат (2026)
Кратко
OpenClaw — популярный open-source AI Agent, сам софт полностью бесплатен — но ему нужны вызовы AI-моделей через API, а это обычно стоит денег. Существует как минимум 5 способов запустить OpenClaw с нулевыми затратами: бесплатный баланс DeepSeek, бесплатный тариф Google Gemini, стартовый баланс Ofox, бесплатные вызовы Groq, локальный Ollama. В этой статье разбираем каждый вариант — шаги настройки, сценарии использования и ограничения.
Разберёмся: OpenClaw бесплатен, API — нет
Многие, впервые столкнувшись с OpenClaw, недоумевают: вроде бы open source и бесплатно, так почему нужно платить?
Ключевое различие: OpenClaw — это фреймворк исполнения, AI-модель — это мозг. Фреймворк бесплатен, мозг стоит денег.
Аналогия: OpenClaw — как телефон без SIM-карты. Аппарат бесплатный, но для звонков нужен тарифный план. Разные API-провайдеры — как разные операторы: одни дают бесплатные минуты, другие берут поминутную оплату.
Значит, вопрос сводится к следующему: есть ли «бесплатные тарифы»?
Есть, и не один.
Вариант 1: Бесплатный баланс DeepSeek
Рекомендация: первый выбор
DeepSeek — на данный момент лучшая по совокупности качеств китайская модель, при регистрации дарит бесплатный API-баланс. Для повседневных задач OpenClaw этого баланса вполне хватает.
Шаги настройки
- Перейдите на DeepSeek Open Platform и зарегистрируйтесь
- В консоли создайте API Key
- Настройте OpenClaw:
openclaw onboard
# Выберите Custom API Provider
# base_url: https://api.deepseek.com
# API Key: введите ваш ключ
# model: deepseek-chat
Или напрямую отредактируйте ~/.openclaw/config.yaml:
ai:
provider: custom
base_url: https://api.deepseek.com
api_key: sk-xxxxx
model: deepseek-chat
Преимущества
- Лучшее понимание и генерация китайского текста среди китайских моделей
- Прямой доступ из Китая с низкой задержкой (< 200 мс)
- API совместим с протоколом OpenAI, нативная поддержка OpenClaw
- Навыки кода на уровне GPT-4o
Ограничения
- Бесплатный баланс ограничен, после исчерпания — оплата по факту (но крайне дёшево, ~¥2/млн входных токенов)
- В часы пик возможны очереди
- Доступны только модели DeepSeek
Кому подходит
Новичкам в OpenClaw, пользователям с преобладанием задач на китайском языке, индивидуальным разработчикам с ограниченным бюджетом.
Вариант 2: Бесплатный тариф Google Gemini
Рекомендация: лучший выбор для долгосрочного бесплатного использования
Бесплатный тариф Gemini API от Google отличается главным преимуществом — нет лимита на общий объём. Пока вы не превышаете ограничение запросов в минуту, теоретически можно пользоваться бесплатно бесконечно.
Шаги настройки
- Перейдите в Google AI Studio и получите API Key
- Настройте OpenClaw:
openclaw onboard
# Выберите Custom API Provider
# base_url: https://generativelanguage.googleapis.com/v1beta/openai
# API Key: введите ваш ключ
# model: gemini-2.0-flash
Лимиты бесплатного тарифа
| Модель | Бесплатный RPM | Бесплатный TPM | Сценарий использования |
|---|---|---|---|
| Gemini 3 Flash | 15 | 1 000 000 | Повседневные диалоги, простые задачи |
| Gemini 3 Pro | 2 | 32 000 | Сложные рассуждения (медленно, но бесплатно) |
| Gemini 3.1 Flash-Lite | 30 | 1 000 000 | Пакетные простые задачи |
RPM = запросов в минуту, TPM = токенов в минуту
Преимущества
- Без ограничения общего объёма — не «закончится»
- Gemini Flash — крайне быстрая модель
- Мультимодальность (понимание изображений, видео)
- Сверхдлинный контекст (Gemini 3 Pro — до 2 млн токенов)
Ограничения
- Строгие ограничения скорости (RPM бесплатного тарифа невысок)
- Возможна задержка при доступе из Китая
- Качество работы с китайским языком уступает DeepSeek
- Данные запросов бесплатного тарифа могут использоваться Google для улучшения моделей
Кому подходит
Пользователям, которым нужен долгосрочный бесплатный вариант; сценарии с преобладанием английского языка; проекты, требующие мультимодальных возможностей.
Вариант 3: Стартовый баланс Ofox
Рекомендация: максимальный выбор моделей
Ofox — платформа-агрегатор API, дарит стартовый баланс при регистрации. Главное отличие от первых двух вариантов: один баланс для всех моделей — GPT, Claude, Gemini, DeepSeek, 100+ моделей с возможностью свободного переключения.
Шаги настройки
- Перейдите на Ofox, зарегистрируйтесь и получите API Key
- Настройте OpenClaw:
openclaw onboard
# Выберите Custom API Provider
# base_url: https://api.ofox.ai/v1
# API Key: введите ваш Ofox Key
# model: anthropic/claude-sonnet-4.6 (или любая поддерживаемая модель)
Преимущества
- Один ключ для всех моделей — не нужно регистрироваться повсюду
- В рамках бесплатного баланса можно попробовать Claude, GPT и другие зарубежные модели
- Узлы ускорения в Китае (Alibaba Cloud / Volcengine), низкая задержка
- Оплата в рублях, удобный расчёт
- Совместимость с протоколом OpenAI, нулевой порог настройки
Ограничения
- Бесплатный баланс ограничен, после исчерпания — пополнение
- Зависимость от сторонней платформы
Кому подходит
Тем, кто хочет попробовать несколько моделей сразу; разработчикам, которым нужны зарубежные модели (Claude/GPT); тем, кто не хочет регистрироваться на множестве платформ.
Вариант 4: Бесплатные вызовы Groq
Рекомендация: король скорости
Groq — компания, производящая чипы для ускорения AI-инференса, предоставляет бесплатные API-вызовы. Главный козырь — скорость: инференс Groq в 10+ раз быстрее обычных GPU-решений, результат появляется практически мгновенно.
Шаги настройки
- Перейдите в Groq Console и зарегистрируйтесь
- Создайте API Key
- Настройте OpenClaw:
openclaw onboard
# Выберите Custom API Provider
# base_url: https://api.groq.com/openai/v1
# API Key: введите ваш Groq Key
# model: llama-3.3-70b-versatile
Лимиты бесплатного тарифа
| Модель | Бесплатный RPM | Дневной лимит токенов | Скорость инференса |
|---|---|---|---|
| Llama 3.3 70B | 30 | 14 400 запросов/день | Крайне высокая |
| Mixtral 8x7B | 30 | 14 400 запросов/день | Крайне высокая |
| Gemma 2 9B | 30 | 14 400 запросов/день | Крайне высокая |
Преимущества
- Скорость инференса превосходит все облачные API (генерация 500+ токенов/с)
- Llama 3.3 70B по качеству приближается к GPT-4o
- Бесплатного лимита достаточно для индивидуального использования
Ограничения
- Только открытые модели (нет GPT, Claude, Gemini)
- Дневной лимит запросов
- Прямой доступ из Китая может быть с задержкой
- Выбор моделей относительно ограничен
Кому подходит
Сценарии с экстремальными требованиями к скорости отклика; сторонники открытых моделей; проекты, требующие интерактивности в реальном времени.
Вариант 5: Локальное развёртывание Ollama
Рекомендация: полностью офлайн и бесплатно
Ультимативное решение — запуск модели на своём компьютере, полный отказ от платы за API. Ollama делает локальный запуск больших языковых моделей таким же простым, как установка приложения.
Шаги настройки
- Установите Ollama:
# macOS
brew install ollama
# Linux
curl -fsSL https://ollama.com/install.sh | sh
- Скачайте модель:
# Рекомендуется: Qwen2.5 14B (лучшая локальная модель для китайского)
ollama pull qwen2.5:14b
# Или: Llama 3.3 8B (универсальная для английского)
ollama pull llama3.3:8b
- Запустите Ollama и настройте OpenClaw:
ollama serve # Ollama по умолчанию слушает http://localhost:11434
openclaw onboard
# Выберите Custom API Provider
# base_url: http://localhost:11434/v1
# API Key: ollama (любое значение, локально не проверяется)
# model: qwen2.5:14b
Рекомендуемые локальные модели
| Модель | Параметры | Мин. ОЗУ | Качество | Китайский язык |
|---|---|---|---|---|
| Qwen2.5 7B | 7B | 8 ГБ | Среднее | Сильный |
| Qwen2.5 14B | 14B | 16 ГБ | Выше среднего | Сильный |
| Llama 3.3 8B | 8B | 8 ГБ | Среднее | Средний |
| Llama 3.3 70B | 70B | 48 ГБ | Высокое | Выше среднего |
| DeepSeek Coder V2 Lite | 16B | 16 ГБ | Выше среднего (код) | Сильный |
Преимущества
- Бесплатно навсегда, никакой платы за API
- Полностью офлайн, работает без интернета
- Максимальная приватность, данные не покидают компьютер
- Нет ограничений скорости, запускайте сколько угодно
Ограничения
- Зависимость от характеристик оборудования: на слабом ПК — только маленькие модели
- Маленькие модели заметно уступают облачным большим моделям
- Занимает вычислительные ресурсы компьютера, при работе модели ПК замедляется
- Не поддерживает проприетарные модели (GPT, Claude)
Кому подходит
Владельцам мощных ПК (особенно Mac с чипами M-серии); сценарии со строгими требованиями к приватности данных; пользователи, которым нужен AI Agent офлайн.
Сравнительная таблица пяти вариантов
| Параметр | Бесплатный DeepSeek | Бесплатный Gemini | Стартовый Ofox | Бесплатный Groq | Локальный Ollama |
|---|---|---|---|---|---|
| Доступные модели | Семейство DeepSeek | Семейство Gemini | 100+ все модели | Открытые модели | Открытые модели |
| Лимит объёма | Ограничен (стартовый баланс) | Без лимита на общий объём | Ограничен (стартовый баланс) | Дневной лимит | Безлимитно |
| Ограничения скорости | Очереди в часы пик | Низкий RPM | Нормальный | RPM 30 | Без ограничений |
| Сложность настройки | Простая | Простая | Простая | Простая | Средняя (загрузка модели) |
| Задержка из Китая | < 200 мс | Средняя | 300–800 мс | Средняя | 0 мс (локально) |
| Качество на китайском | Лучшее | Среднее | Зависит от модели | Среднее | Зависит от модели |
| Долгосрочная бесплатность | Баланс исчерпается → оплата | Да | Баланс исчерпается → оплата | В рамках лимитов — да | Навсегда бесплатно |
| Требования к оборудованию | Нет | Нет | Нет | Нет | 8+ ГБ ОЗУ |
| Лучший этап | Первые шаги | Долгосрочная разработка | Знакомство с моделями | Интерактивность | Офлайн / приватность |
Гибридная стратегия: как сочетать бесплатное и платное
Умный подход — не ограничиваться одним вариантом, а комбинировать их, чтобы бесплатный лимит покрывал максимум сценариев.
Полностью бесплатная комбинация (для личного использования / обучения)
Повседневные диалоги на китайском → бесплатный баланс DeepSeek (хорошее качество)
Простые задачи на английском → бесплатный тариф Gemini (безлимитно)
Нужен быстрый отклик → Groq (высокая скорость)
Офлайн или приватность → локальный Ollama (нулевые затраты)
Эта комбинация покрывает 90% повседневных сценариев, полностью бесплатно.
Бесплатная + недорогая комбинация (для повседневной работы)
Обычные задачи → бесплатный тариф Gemini Flash (безлимитно, хватает)
Серьёзные задачи на китайском → DeepSeek V3.2 (бесплатный баланс + оплата по факту, крайне дёшево)
Сложные рассуждения → Ofox для вызова Claude Sonnet (стартовый баланс + пополнение по необходимости)
Месячные расходы при такой комбинации обычно не превышают 30 юаней, большинство сценариев — бесплатно.
Пример конфигурации нескольких моделей в OpenClaw
OpenClaw поддерживает цепочку fallback-моделей с автоматическим переключением:
ai:
# Основная модель: бесплатный тариф Gemini (повседневное использование)
provider: custom
base_url: https://generativelanguage.googleapis.com/v1beta/openai
api_key: your-gemini-key
model: gemini-2.0-flash
# Fallback: DeepSeek (при ограничении Gemini)
fallback:
- provider: custom
base_url: https://api.deepseek.com
api_key: your-deepseek-key
model: deepseek-chat
Подробная настройка retry policy, auth cooldowns и model failover с ofox в качестве провайдера — в руководстве по OpenClaw: rate limit и failover.
От бесплатного к платному: когда стоит заплатить
Бесплатные варианты привлекательны, но у них есть чёткий потолок. Следующие сигналы говорят, что пора подумать о платном варианте:
Сигналы к переходу
- Частые срабатывания лимита скорости: 15 RPM бесплатного тарифа Gemini уже не хватает
- Рост сложности задач: нужна мощность уровня Claude Opus или GPT-5.4
- Переход в продуктив: бесплатные варианты не имеют гарантий SLA, при сбое — никто не поможет
- Командное использование: бесплатный баланс делится между участниками, расходуется быстрее
- Нужна стабильность: бесплатные условия могут измениться в любой момент
Рекомендуемый путь перехода к платным вариантам
Этап 1 (бесплатно) → DeepSeek + бесплатный тариф Gemini, нулевые затраты
Этап 2 (недорого) → DeepSeek с оплатой по факту, до 30 юаней/мес.
Этап 3 (повседневная работа) → API-агрегатор, стратегия смешанных моделей, 100–200 юаней/мес.
Этап 4 (команда / продуктив) → корпоративный тариф агрегатора, единое управление, по размеру команды
На каждом этапе можно оставаться сколько угодно. Главное — выбирать по реальным потребностям.
Ключевые принципы контроля расходов
- Правило 80/20: 80% задач достаточно дешёвой модели, только 20% требуют флагманской
- Разделение моделей по уровням: простые задачи — DeepSeek/Gemini Flash, сложные — только Claude/GPT
- Установка бюджетных лимитов: OpenClaw поддерживает настройку бюджета токенов, предотвращая неконтролируемый расход при зацикливании Agent
- Регулярный анализ: ежемесячно проверяйте расход API, отсекайте ненужные дорогие вызовы
Часто задаваемые вопросы (FAQ)
Какой бесплатный вариант выбрать первым?
Рекомендуемый приоритет:
- Бесплатный баланс DeepSeek — лучший для китайского, простейшая настройка, прямой доступ из Китая
- Бесплатный тариф Gemini — без лимита на общий объём, долгосрочно бесплатно
- Стартовый баланс Ofox — максимум моделей, один ключ для всех
- Groq — самая высокая скорость, для задач реального времени
- Локальный Ollama — полностью офлайн, максимальная приватность, бесплатно навсегда
Как плавно перейти после исчерпания бесплатного баланса?
Чередуйте несколько бесплатных вариантов для продления бесплатного периода, определите, какая модель лучше подходит для ваших задач, и пополните соответствующий аккаунт. DeepSeek с оплатой по факту стоит крайне мало (¥2/млн входных токенов), месячные расходы обычно не превышают 30 юаней.
Насколько локальный Ollama уступает облачным API?
Зависит от оборудования и модели. Локальная модель на 14B параметров (например, Qwen2.5 14B) по качеству примерно между GPT-3.5 и GPT-4. Модель на 70B параметров приближается к GPT-4o, но требует 48+ ГБ ОЗУ. Локальные модели справляются с простыми диалогами и базовым программированием, для сложных рассуждений — отстают.
Можно ли настроить все бесплатные варианты одновременно в OpenClaw?
Да. OpenClaw поддерживает цепочку fallback-моделей: основная модель — бесплатный тариф Gemini, резервная — DeepSeek, крайняя — локальная модель. При срабатывании лимита скорости основной модели происходит автоматическое переключение на резервную.
Итоги
- 5 минут на запуск: зарегистрируйтесь в DeepSeek, получите API Key, настройте OpenClaw, начните диалог
- Долгосрочно бесплатно: зарегистрируйте Gemini API, настройте как fallback-модель
- Попробуйте зарубежные модели: используйте стартовый баланс API-агрегатора для Claude и GPT
- Максимальная скорость: зарегистрируйтесь в Groq для инференса со скоростью 500+ токенов/с
- Офлайн-резерв: установите Ollama, скачайте Qwen2.5 — работает даже без интернета
Справочные материалы
- Официальная документация OpenClaw — установка, настройка, API-справочник
- DeepSeek Open Platform — регистрация и бесплатный API Key
- Google AI Studio — бесплатный тариф Gemini API
- Groq Console — бесплатный API высокоскоростного инференса
- Ollama — локальное развёртывание больших языковых моделей
- GitHub OpenClaw — исходный код и обсуждения сообщества


