【 API 】 Loap AI 模型价格💰
🛜 Loap AI官方网站有两种计费方式。一种是随用随付的弹性计费,一种是订阅计划。
💰 官方站 1 人民币 兑换 10 点数 💰
⭐ API 中转仅支持弹性计费, 不涵盖订阅配额 ⭐
⚠ 其他站点请参阅其站点的信息,与官方站计费无关 ⚠
🎉 全部模型支持 OpenAI API 格式调用 (类似 One API) 🎉
最新的订阅计划配额请前往官方站查看,下列仅列出弹性计费价格:
最低余额限制
为了防止超出余额的部分过多,同时为了防止滥用,Chat Nio 设定了特定模型的最低余额预检,当小于该余额时,不可发起请求。
✨ 按次计费模型:单次调用费用
✨ Token 计费模型:1K 输入 Token 费用 + 1K 输出 Token 费用
OpenAI / Azure OpenAI
⭐ OpenAI 全部官方模型支持 Function Calling
快速接入
除常规标准格式外, LoapAI 同时适配了更多 Developers Friendly 的调用方式:
GPT-4 Turbo / GPT-4 Vision Preview 支持 ⭐ 直接在输入框中输入图片 URL / Base64 进行调用 (正则实现, 推荐 URL 中不含空格, 文本内容和 URL 中不要粘连以避免提取错误)。
DALL-E 系列绘图模型支持 ⭐ Chat Completions 接口 (/v1/chat/completions) 调用。
GPT-4 DALLE 支持 ⭐ Images 接口 (/v1/images) 调用。
Tip: 除上述格式外同时也同时并优先兼容标准格式,比如 DALL-E 绘图模型优先支持 /v1/images 调用。
Midjourney & SDXL
⭐ 由 Midjourney Proxy Plus 提供支持
快速接入
所有绘图模型 API 调用格式兼容:
⭐ Images 接口 (/v1/images)
⭐ Chat Completions 接口 (/v1/chat/completions)
Anthropic Claude
模型声明
Claude-1 / Claude-2 系列为逆向模型,不保证稳定性。
Claude-3 系列 支持 Function Calling 调用。
Claude-3 Opus 和 Claude-3 Sonnet 模型支持识别图片,调用格式同 GPT-4 Vision Preview。
SparkDesk 讯飞星火
ChatGLM 智谱清言
模型声明
glm-4v 模型支持识别图片,调用格式同 GPT-4 Vision Preview。
智谱将 API 格式从 V3 升级至 V4, 原 V3 模型将逐步废弃:
zhipu-chatglm-turbo (同 glm-3-turbo)
zhipu-chatglm-pro (已废弃)
zhipu-chatglm-std (已废弃)
zhipu-chatglm-lite (已废弃)
Moonshot 月之暗面
DeepSeek 深度求索
DashScope 通义千问
INFO
-net 后缀模型为开启 DashScope 联网选项模型。
Google Gemini / PaLM2
INFO
Gemini Pro Vision / Gemini 1.5 Pro Latest / Gemini 1.5 Flash Latest 模型支持识别图片,调用格式同 GPT-4 Vision Preview。
Gemini Pro Vision 不支持多轮对话 (Multi Turn) 且强制输入携带图片。
Chat Bison 001 不支持中文对话,已被 Google 废弃。
New Bing
New Bing 为逆向模型,不保证稳定性,出现错误为正常现象
Meta LLaMa
LLaMa 模型不保证高速和稳定性,吐字速度随当前可用性能影响
腾讯混元
360 智脑
百川 AI
火山方舟(抖音豆包)
Pika Text To Video (文生视频)
Suno (文生音乐)
Token 计算方式
🔔 Loap AI 的 Token 计费方式完全参照 OpenAI 官方保持一致 🔔
Tokenizer 的计算方法请查看 OpenAI Cookbox,后端使用 Tiktoken Go 库进行计算。
pkoukk / tiktoken-gogo version of tiktoken
询问模型自己使用了多少 Token 是不可行的,模型大概率只会得出错误答案。 Token 计算方法请前往 OpenAI 官方 Token 计算器 Tokenizer - OpenAI Platform 进行计算。
每次发送将产生一次请求。在一次请求中,分为 输入 Tokens 和 输出 Tokens:
输入 Tokens:请求的问题 和 携带历史上下文对话 消息的 Token 数量总和。
输出 Tokens:模型返回的回答消息的 Token 数量。
💰 计算步骤
每一条输入消息按照 ROLE_TOKENS + CONTENT_TOKENS + NAME_TOKENS 计算,并加入权 TokensPerMessage 参数 (一般为 3) 并相加计算总 Tokens。
输出消息的 CONTENT_TOKENS 计算输出 Tokens。
价格 = (输入 Tokens / 1000 输入费率) + (输出 Tokens / 1000 输出费率)
🔍 请求案例
假设一轮对话中,使用 GPT-4 1106 Preview 模型,且用户的对话界面类似于:
用户 > 你好
回复 < 你好!有什么我可以帮助你的吗?
用户 > 你是谁
我是一个人工智能助手,由 OpenAI 创建,旨在帮助人们回答问题、提供信息、解决问题或者进行闲聊。如果你有任何疑问或需要帮助,随时告诉我!
在本轮对话中,一共请求两次,我们挑第二次请求作为示例进行计算:
输入 Token 的结构体应类似于:
json
{
"model": "gpt-4-1106-preview",
"messages": [
{ "role": "user", "content": "你好" },
{ "role": "assistant", "content": "你好!有什么可以帮助你的吗?" },
{ "role": "user", "content": "你是谁" }
]
}
计算输入 Token (总计 6 + 21 + 8 + 3 = 38 tokens)
第一条消息 内容:
你好
(2 tokens), 角色:user
(1 token), 权重 (3 tokens) - 总计 6 tokens第二条消息 内容:
你好!有什么可以帮助你的吗?
(17 tokens), 角色:assistant
(1 token), 权重 (3 tokens) - 总计 21 tokens第三条消息 内容:
你是谁
(4 tokens), 角色:user
(1 token), 权重 (3 tokens) - 总计 8 tokensReply 的前缀携带 <|im_start|>assistant<|im_sep|> (3 tokens)
计算输出 Token (总计 71 tokens)
输出 内容:
我是...
(71 tokens)
计算价格
从上面的
gpt-4-1106-preview
价格可知,输入 Token 为 0.1 点数 / 1k token,输出 Token 为 0.3 点数 / 1k token计算价格为 (38 / 1000 0.1) + (71 / 1000 0.3) = 0.0038 + 0.0213 = 0.0251 点数
校对站点的使用记录,找到此请求的记录:
输入 Token, 输出 Token 和价格全部与计算结果相符。