VibeProxy — как выжать максимум из AI-подписки
Платишь $20 за Claude Code, еще $20 за Cursor, потом докупаешь API-токены, потому что лимиты закончились на третий день месяца. Знакомо?
На r/cursor один юзер написал, что потратил $3100 за месяц на Opus 4.5. Другой спрашивает: «Opus is the GOAT, but my wallet is crying».
Проблема в том, что мы платим дважды: за подписку и за API. А что если использовать подписку как API?
VibeProxy — нативное macOS-приложение в меню-баре, которое превращает твою подписку на Claude Code, ChatGPT, Gemini в локальный API-эндпоинт.
Под капотом CLIProxyAPI. Принцип простой:
1. Ты авторизуешься через OAuth в нужном сервисе
2. VibeProxy запускает локальный прокси на localhost:8317
3. Любой инструмент (Cursor, Cline, твой скрипт) шлет запросы на этот эндпоинт
4. Прокси маршрутизирует их через твою подписку
Как это работает технически? Прокси использует те же OAuth-токены, что и официальные CLI-инструменты (Claude Code, Gemini CLI). Для провайдера запросы выглядят как обычная работа через терминал. Прокси просто оборачивает CLI-вызовы в OpenAI-совместимый API-формат.
VibeProxy — это GUI-обертка для macOS. Но сам CLIProxyAPI написан на Go и работает на любой платформе.
Поддерживаемые сервисы
— Claude Code
— ChatGPT / Codex
— Antigravity (со всеми моделями)
— Gemini
— Qwen Code
— GitHub Copilot
Юзкейсы
1. Cursor/Cline без отдельного API-ключа
Подключаешь локальный эндпоинт, и Opus 4.5 работает через твою подписку, без дополнительных трат на токены.
2. Другие AI-агенты: Factory, Amp
Есть качественные агенты помимо СС. Есть готовые инструкции:
— Amp Code Setup
— Factory Setup
3. Мультиаккаунт для обхода rate-limits
Можно подключить несколько аккаунтов. Прокси сам делает round-robin между ними и переключается при лимитах.
4. Свои скрипты и автоматизации
Локальный API = можно интегрировать куда угодно. Python-скрипты, Shortcuts, n8n в докере и тд.
Нюанс
Из документации VibeProxy:
«Using subscriptions through a proxy may violate terms of service for some AI providers. Use at your own risk.»
Разумеется, это не официальный способ использования, так что держите это в уме. Прецедентов не нашел — все-таки все маскируется под нативные вызовы, но подсветить я обязан)
UPD: список моделей можно посмотреть запустив команду в терминале: curl -s localhost:8317/v1/models | jq .
—
Если интересно, в отдельном посте расскажу, как я использую API локально через macOS Shortcuts для небольших удобных автоматизаций.
🔥➕🔁
Добавить комментарий