不是又一个松散的聚合页, 它更像一层可运营的 AI API 网关,把模型接入、用户、额度、价格、渠道和日志放在一起。
OpenAI、Claude、Gemini、DeepSeek等上游,可以放到同一个访问层后面
优先级、重试、分组、速率限制和渠道健康检查都在后台配置,不必散落到业务代码里
大多数应用只需要替换 base_url 和 API Key,就能继续使用原有 SDK 和常见 Chat Completions 工作流
模型倍率、固定价格、缓存计费、动态计费表达式和结算记录都能追踪,方便对账
用户组、令牌、额度、OAuth、Passkey、兑换码和订阅能力,适合多人或多客户场景
渠道、模型、价格、用户、钱包、日志和系统设置都在一个控制台里,不用在多个工具之间切换
价格、路由和可用性留在后台管理,应用侧只面对稳定的统一入口。
全能多模态旗舰模型
Anthropic 逻辑推理之冠
新一代长上下文旗舰模型
不需要把业务逻辑重写一遍。改 base_url,换成通 API 的密钥,再按需要选择映射后的模型名。
from openai import OpenAI
client = OpenAI(
base_url="https://tongapi.com/v1",
api_key="sk-your-key"
)
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "hello"}]
)网关不应该让请求更难解释。每次调用都能追到用户、密钥、模型、渠道、额度变化和错误状态。
用户、API Key、模型、渠道、消耗、错误和响应状态保留在日志里,后续排查和对账有依据。
渠道测试、延迟、成功率、模型价格和调用日志都在后台展示,运维人员可以直接判断问题来源。