通 API

一个接口,调用所有官方模型

统一调度 GPT、Claude、Gemini、DeepSeek。无需多处订阅,按量计费,分钟级集成。

今日 Token
4.2 B+
平均延迟
240 ms
可用性
99.99%
活跃模型
142

为什么选择通 API

不是又一个松散的聚合页, 它更像一层可运营的 AI API 网关,把模型接入、用户、额度、价格、渠道和日志放在一起。

模型覆盖广

OpenAI、Claude、Gemini、DeepSeek等上游,可以放到同一个访问层后面

故障转移可控

优先级、重试、分组、速率限制和渠道健康检查都在后台配置,不必散落到业务代码里

OpenAI 兼容

大多数应用只需要替换 base_url 和 API Key,就能继续使用原有 SDK 和常见 Chat Completions 工作流

按量计费清楚

模型倍率、固定价格、缓存计费、动态计费表达式和结算记录都能追踪,方便对账

权限管理完整

用户组、令牌、额度、OAuth、Passkey、兑换码和订阅能力,适合多人或多客户场景

日常运维集中

渠道、模型、价格、用户、钱包、日志和系统设置都在一个控制台里,不用在多个工具之间切换

顶级模型,即刻接入

价格、路由和可用性留在后台管理,应用侧只面对稳定的统一入口。

官方直连
OpenAI

GPT-5.5

全能多模态旗舰模型

路由可配置
计费透明
近期调用趋势
最受推荐
Anthropic

Claude Opus 4.7

Anthropic 逻辑推理之冠

路由可配置
计费透明
近期调用趋势
超长上下文
Google

Gemini-3.1-Pro

新一代长上下文旗舰模型

路由可配置
计费透明
近期调用趋势
For Developers

100% 兼容 OpenAI SDK

不需要把业务逻辑重写一遍。改 base_url,换成通 API 的密钥,再按需要选择映射后的模型名。

  • 支持流式输出和常见聊天路由
  • 跨供应商模型映射
  • 分组、限速和额度控制
  • 请求日志可回查
main.py
from openai import OpenAI

client = OpenAI(
    base_url="https://tongapi.com/v1",
    api_key="sk-your-key"
)

response = client.chat.completions.create(
    model="gpt-4o",
    messages=[{"role": "user", "content": "hello"}]
)

认真使用时,记录必须清楚

网关不应该让请求更难解释。每次调用都能追到用户、密钥、模型、渠道、额度变化和错误状态。

请求记录可追溯

用户、API Key、模型、渠道、消耗、错误和响应状态保留在日志里,后续排查和对账有依据。

状态不靠猜

渠道测试、延迟、成功率、模型价格和调用日志都在后台展示,运维人员可以直接判断问题来源。

查看排行榜和状态 ->

按量使用,而不是再买一套平台座席

额度换算、模型倍率、缓存价格和固定价格模型由计费层处理。每笔请求花在哪里,后台能查到。

¥0
月费 / 平台费

从一把 API Key 开始,按业务规模逐步配置额度、分组和上游渠道。