Skip to content

Commit 26ed773

Browse files
authored
docs: add model credit consumption guide (zh/en/ja) (#978)
* docs: add model credit consumption guide (zh/en/ja) Add a new "Credits" sidebar section with model pricing documentation covering all 9 Nexu Official models, including per-conversation cost estimates and a rate multiplier relative to the default model (gemini-3-flash-preview). Move the "earn credits by sharing" page into the new section for better discoverability. Made-with: Cursor * docs: explain what the rate multiplier means Made-with: Cursor
1 parent 64fb0fb commit 26ed773

4 files changed

Lines changed: 186 additions & 3 deletions

File tree

docs/.vitepress/config.ts

Lines changed: 21 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -129,6 +129,13 @@ const enSidebar = [
129129
{ text: "Seedance 2.0 Video Generation", link: "/guide/seedance" },
130130
],
131131
},
132+
{
133+
text: "Credits",
134+
items: [
135+
{ text: "Model Credit Consumption", link: "/guide/model-pricing" },
136+
{ text: "Earn Credits by Sharing", link: "/guide/rewards" },
137+
],
138+
},
132139
{
133140
text: "Help",
134141
items: [
@@ -142,7 +149,6 @@ const enSidebar = [
142149
{ text: "Contributing", link: "/guide/contributing" },
143150
{ text: "Contact Us", link: "/guide/contact" },
144151
{ text: "Star Us on GitHub", link: "/guide/star" },
145-
{ text: "Earn Points by Sharing", link: "/guide/rewards" },
146152
{ text: "Changelog", link: "https://github.com/nexu-io/nexu/releases" },
147153
],
148154
},
@@ -179,6 +185,13 @@ const jaSidebar = [
179185
{ text: "Seedance 2.0 動画生成", link: "/ja/guide/seedance" },
180186
],
181187
},
188+
{
189+
text: "ポイント",
190+
items: [
191+
{ text: "モデルのポイント消費", link: "/ja/guide/model-pricing" },
192+
{ text: "シェアしてポイント獲得", link: "/ja/guide/rewards" },
193+
],
194+
},
182195
{
183196
text: "ヘルプ",
184197
items: [
@@ -192,7 +205,6 @@ const jaSidebar = [
192205
{ text: "コントリビュート", link: "/ja/guide/contributing" },
193206
{ text: "お問い合わせ", link: "/ja/guide/contact" },
194207
{ text: "GitHub で Star", link: "/ja/guide/star" },
195-
{ text: "シェアでポイント獲得", link: "/ja/guide/rewards" },
196208
{ text: "更新ログ", link: "https://github.com/nexu-io/nexu/releases" },
197209
],
198210
},
@@ -231,6 +243,13 @@ const zhSidebar = [
231243
{ text: "Seedance 2.0 视频生成(Windows 版)", link: "/zh/guide/seedance-windows" },
232244
],
233245
},
246+
{
247+
text: "积分",
248+
items: [
249+
{ text: "模型积分消耗说明", link: "/zh/guide/model-pricing" },
250+
{ text: "分享赚积分", link: "/zh/guide/rewards" },
251+
],
252+
},
234253
{
235254
text: "帮助",
236255
items: [
@@ -245,7 +264,6 @@ const zhSidebar = [
245264
{ text: "参与贡献", link: "/zh/guide/contributing" },
246265
{ text: "联系我们", link: "/zh/guide/contact" },
247266
{ text: "给我们 Star", link: "/zh/guide/star" },
248-
{ text: "分享获得积分", link: "/zh/guide/rewards" },
249267
{ text: "更新日志", link: "https://github.com/nexu-io/nexu/releases" },
250268
],
251269
},

docs/en/guide/model-pricing.md

Lines changed: 55 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,55 @@
1+
# Model Credit Consumption
2+
3+
When using Nexu Official models, each conversation deducts credits based on the model type and token usage. This page lists the credit consumption for all currently available official models, helping you choose the right model and plan your credit usage.
4+
5+
## Credit Consumption by Model
6+
7+
Credits are charged separately for input tokens and output tokens, with different rates per model. The table below is sorted by estimated cost per conversation from lowest to highest.
8+
9+
## How Many Credits Does a Conversation Cost?
10+
11+
Using a typical single-turn conversation as an example — approximately 2,000 input tokens (including system prompt and context) and 2,000 output tokens:
12+
13+
| Model | Rate | Est. Cost per Conversation | Conversations per 100 Credits |
14+
| --- | ---: | ---: | ---: |
15+
| deepseek-v3.2 | 0.18x | ≈ 0.13 credits | ≈ 769 |
16+
| minimax-m2.7 | 0.43x | ≈ 0.30 credits | ≈ 333 |
17+
| gemini-3.1-flash-lite-preview | 0.50x | ≈ 0.35 credits | ≈ 285 |
18+
| kimi-k2.5 | 0.60x | ≈ 0.42 credits | ≈ 238 |
19+
| glm-5 | 0.86x | ≈ 0.60 credits | ≈ 166 |
20+
| **gemini-3-flash-preview (default)** | **1.00x** | ≈ 0.70 credits | ≈ 142 |
21+
| mimo-v2-pro | 1.14x | ≈ 0.80 credits | ≈ 125 |
22+
| glm-5-turbo | 1.49x | ≈ 1.04 credits | ≈ 96 |
23+
| gpt-5.4-mini | 1.50x | ≈ 1.05 credits | ≈ 95 |
24+
25+
> **Rate** indicates the cost ratio relative to the default model, gemini-3-flash-preview. For example, 0.50x means half the cost of the default model, while 1.50x means 1.5 times the cost.
26+
>
27+
> These are estimates sorted by cost from lowest to highest. Actual consumption depends on conversation length, context size, and model output. Complex tasks or multi-turn conversations will use significantly more tokens.
28+
29+
## How to Choose the Right Model
30+
31+
- **Maximum savings**: deepseek-v3.2 and minimax-m2.7 have the lowest cost per conversation, ideal for simple Q&A, casual chat, or when credits are limited.
32+
- **Balanced choice**: gemini-3.1-flash-lite-preview, kimi-k2.5, and glm-5 strike a good balance between capability and cost, suitable for most everyday tasks.
33+
- **Quality first**: gemini-3-flash-preview, mimo-v2-pro, glm-5-turbo, and gpt-5.4-mini offer stronger capabilities, better suited for coding assistance, deep analysis, and other demanding tasks.
34+
35+
## How to Get More Credits
36+
37+
nexu offers multiple ways to earn credits. See [Earn Points by Sharing](/guide/rewards) for details.
38+
39+
## FAQ
40+
41+
**Q: How are credits deducted?**
42+
43+
Each conversation is billed based on the actual input tokens and output tokens consumed. The sum of both is the total credit cost for that conversation.
44+
45+
**Q: What's the difference between input and output tokens?**
46+
47+
Input tokens include your message, system prompts, and conversation context. Output tokens are the content generated by the model. Output tokens typically cost more because generating content requires more computation.
48+
49+
**Q: Why do different models cost so much differently for the same conversation?**
50+
51+
Different models have different capabilities and computational costs. More powerful models (e.g., gpt-5.4-mini, glm-5-turbo) cost more per conversation, while lightweight models (e.g., deepseek-v3.2, minimax-m2.7) are extremely affordable for simpler tasks.
52+
53+
**Q: Does BYOK (Bring Your Own Key) mode consume credits?**
54+
55+
No. In BYOK mode, you use your own API key to call model providers directly. Fees are charged by the provider, and no nexu credits are consumed.

docs/ja/guide/model-pricing.md

Lines changed: 55 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,55 @@
1+
# モデルのポイント消費について
2+
3+
Nexu Official モデルを使用する場合、会話ごとにモデルの種類とトークン使用量に応じてポイントが差し引かれます。このページでは、現在利用可能なすべての公式モデルのポイント消費基準を掲載しています。モデルの選択やポイント利用の参考にしてください。
4+
5+
## 各モデルのポイント消費一覧
6+
7+
ポイントは入力トークンと出力トークンごとに別々に課金され、モデルによって単価が異なります。下表は1回の会話あたりの推定コストが低い順に並べています。
8+
9+
## 1回の会話でどれくらいポイントを消費する?
10+
11+
一般的な単一ターンの会話を例にします。入力約 2,000 トークン(システムプロンプトとコンテキストを含む)、出力約 2,000 トークンの場合:
12+
13+
| モデル | 倍率 | 1回の会話の推定消費 | 100 ポイントで約何回会話できるか |
14+
| --- | ---: | ---: | ---: |
15+
| deepseek-v3.2 | 0.18x | ≈ 0.13 ポイント | ≈ 769 回 |
16+
| minimax-m2.7 | 0.43x | ≈ 0.30 ポイント | ≈ 333 回 |
17+
| gemini-3.1-flash-lite-preview | 0.50x | ≈ 0.35 ポイント | ≈ 285 回 |
18+
| kimi-k2.5 | 0.60x | ≈ 0.42 ポイント | ≈ 238 回 |
19+
| glm-5 | 0.86x | ≈ 0.60 ポイント | ≈ 166 回 |
20+
| **gemini-3-flash-preview(デフォルト)** | **1.00x** | ≈ 0.70 ポイント | ≈ 142 回 |
21+
| mimo-v2-pro | 1.14x | ≈ 0.80 ポイント | ≈ 125 回 |
22+
| glm-5-turbo | 1.49x | ≈ 1.04 ポイント | ≈ 96 回 |
23+
| gpt-5.4-mini | 1.50x | ≈ 1.05 ポイント | ≈ 95 回 |
24+
25+
> **倍率**はデフォルトモデル gemini-3-flash-preview に対するコスト比率を表します。例えば 0.50x はデフォルトモデルの半額、1.50x は 1.5 倍のコストを意味します。
26+
>
27+
> 上記は推定値であり、コストの低い順に並べています。実際の消費は会話の長さ、コンテキストのサイズ、モデルの出力量によって異なります。複雑なタスクやマルチターンの会話では、トークン使用量が大幅に増加します。
28+
29+
## モデルの選び方
30+
31+
- **ポイント節約重視**:deepseek-v3.2 と minimax-m2.7 は1回の会話コストが非常に低く、簡単な質問、日常の雑談、またはポイントが限られている場合に最適です。
32+
- **バランス重視**:gemini-3.1-flash-lite-preview、kimi-k2.5、glm-5 は能力とコストのバランスが良く、ほとんどの日常的なシーンに適しています。
33+
- **品質重視**:gemini-3-flash-preview、mimo-v2-pro、glm-5-turbo、gpt-5.4-mini はより高い能力を持ち、コーディング支援や深い分析など、品質を重視するタスクに適しています。
34+
35+
## ポイントの獲得方法
36+
37+
nexu ではポイントを獲得するさまざまな方法を提供しています。詳しくは[シェアしてポイント獲得](/ja/guide/rewards)をご覧ください。
38+
39+
## よくある質問
40+
41+
**Q: ポイントはどのように差し引かれますか?**
42+
43+
会話ごとに、実際に使用した入力トークンと出力トークンに基づいて課金されます。両者の合計がその会話のポイント消費となります。
44+
45+
**Q: 入力トークンと出力トークンの違いは?**
46+
47+
入力トークンには、送信したメッセージ、システムプロンプト、会話コンテキストが含まれます。出力トークンはモデルが生成した回答内容です。出力トークンは生成に多くの計算コストがかかるため、通常単価が高くなっています。
48+
49+
**Q: 同じ会話なのに、モデルによって消費が大きく異なるのはなぜ?**
50+
51+
モデルによって能力と計算コストが異なります。高性能なモデル(gpt-5.4-mini、glm-5-turbo など)は消費が高く、軽量モデル(deepseek-v3.2、minimax-m2.7 など)は非常に低コストで、シンプルなタスクに適しています。
52+
53+
**Q: BYOK(自分のAPIキーを使用)モードではポイントが消費されますか?**
54+
55+
いいえ。BYOK モードでは、ご自身の API キーでモデルプロバイダーに直接アクセスします。料金はプロバイダーから直接請求され、nexu のポイントは消費されません。

docs/zh/guide/model-pricing.md

Lines changed: 55 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,55 @@
1+
# 模型积分消耗说明
2+
3+
使用 Nexu Official 模型时,每次对话会根据模型类型和 token 用量扣除相应积分。本文列出了当前所有官方模型的积分消耗标准,帮助你合理选择模型、规划积分使用。
4+
5+
## 各模型积分消耗一览
6+
7+
积分按实际消耗的输入 token 和输出 token 分别计费,不同模型的单价不同。下表按单次对话成本从低到高排列。
8+
9+
## 一次对话大概花多少积分?
10+
11+
以一次常见的单轮对话为例——输入约 2,000 token(含系统提示词和上下文),输出约 2,000 token:
12+
13+
| 模型 | 倍率 | 单次对话约消耗 | 100 积分约可对话次数 |
14+
| --- | ---: | ---: | ---: |
15+
| deepseek-v3.2 | 0.18x | ≈ 0.13 积分 | ≈ 769 次 |
16+
| minimax-m2.7 | 0.43x | ≈ 0.30 积分 | ≈ 333 次 |
17+
| gemini-3.1-flash-lite-preview | 0.50x | ≈ 0.35 积分 | ≈ 285 次 |
18+
| kimi-k2.5 | 0.60x | ≈ 0.42 积分 | ≈ 238 次 |
19+
| glm-5 | 0.86x | ≈ 0.60 积分 | ≈ 166 次 |
20+
| **gemini-3-flash-preview(默认)** | **1.00x** | ≈ 0.70 积分 | ≈ 142 次 |
21+
| mimo-v2-pro | 1.14x | ≈ 0.80 积分 | ≈ 125 次 |
22+
| glm-5-turbo | 1.49x | ≈ 1.04 积分 | ≈ 96 次 |
23+
| gpt-5.4-mini | 1.50x | ≈ 1.05 积分 | ≈ 95 次 |
24+
25+
> **倍率**表示该模型相对于默认模型 gemini-3-flash-preview 的费用比例。例如 0.50x 表示费用是默认模型的一半,1.50x 表示费用是默认模型的 1.5 倍。
26+
>
27+
> 以上为估算值,按单次对话消耗从低到高排列。实际消耗取决于对话长度、上下文大小和模型输出量,复杂任务或多轮对话的 token 用量会明显更高。
28+
29+
## 如何选择合适的模型
30+
31+
- **极致省积分**:deepseek-v3.2 和 minimax-m2.7 单次对话成本极低,适合简单问答、日常闲聊或积分有限时使用。
32+
- **均衡之选**:gemini-3.1-flash-lite-preview、kimi-k2.5、glm-5 在能力和成本之间取得了不错的平衡,适合大多数日常场景。
33+
- **能力优先**:gemini-3-flash-preview、mimo-v2-pro、glm-5-turbo、gpt-5.4-mini 能力更强,适合编程辅助、深度分析等对质量要求更高的任务。
34+
35+
## 如何获取更多积分
36+
37+
nexu 提供了多种获取积分的方式,详见 [分享赚积分](/zh/guide/rewards)
38+
39+
## 常见问题
40+
41+
**Q: 积分是怎么扣的?**
42+
43+
每次对话按实际使用的输入 token 和输出 token 分别计费,两者相加即为本次对话的积分消耗。
44+
45+
**Q: 输入 token 和输出 token 有什么区别?**
46+
47+
输入 token 包括你发送的消息、系统提示词和对话上下文;输出 token 是模型生成的回复内容。输出 token 单价通常更高,因为生成内容的计算成本更大。
48+
49+
**Q: 为什么同样的对话,不同模型消耗差异很大?**
50+
51+
不同模型的能力和计算成本不同。能力更强的模型(如 gpt-5.4-mini、glm-5-turbo)消耗相对更高;轻量模型(如 deepseek-v3.2、minimax-m2.7)成本极低,适合简单任务。
52+
53+
**Q: BYOK(自带密钥)模式会扣积分吗?**
54+
55+
不会。BYOK 模式使用你自己的 API Key 直接调用模型供应商的接口,费用由供应商直接收取,不消耗 nexu 积分。

0 commit comments

Comments
 (0)