← 返回工具箱
🤖 AI Token 计算器

粘贴文本 · 估算 Token 用量与费用

0 字符
🤖
在上方输入文本,即可查看各 AI 模型的 Token 估算结果

📚 Token 是什么?为什么不同模型计算方式不同?

什么是 Token?

Token 是 AI 语言模型处理文本的基本单位。模型不会直接按字符或单词读取文本,而是先通过分词器(Tokenizer)将文本切分成若干"Token"片段,再对这些片段进行处理和生成。Token 可以是一个完整的单词、一个词的一部分、一个汉字,甚至是一个标点符号。

Token 与字符的比例关系

文本类型Token : 字符 比例说明
英文(常用词)1 token ≈ 4 字符"hello" = 1 token,"unbelievable" ≈ 3 tokens
英文(代码/特殊)1 token ≈ 2~3 字符变量名、符号切分更细
中文1 token ≈ 1~2 字符每个汉字通常占 1~2 个 token
日文 / 韩文1 token ≈ 1~2 字符与中文类似
混合文本介于中英之间按比例加权估算

为什么不同模型的 Token 数不同?

各家模型使用不同的分词算法(Tokenizer):

因此,同一段文本在不同模型中的 token 数可能相差 10%~30%,本工具提供的是估算值,实际计费以各平台官方 token 计数为准。

各模型定价参考(2026 年)

模型输入价格输出价格上下文窗口
GPT-4o$2.50 / 1M tokens$10.00 / 1M tokens128K
GPT-3.5 Turbo$0.50 / 1M tokens$1.50 / 1M tokens16K
Claude 3.5 Sonnet$3.00 / 1M tokens$15.00 / 1M tokens200K
Gemini 1.5 Pro$1.25 / 1M tokens$5.00 / 1M tokens2M

如何减少 Token 用量?

💡 小贴士:本工具的 Token 估算基于字符比例算法,误差通常在 ±15% 以内。要获取精确 token 数,可使用 OpenAI 官方的 Tokenizer 工具,或 Anthropic 的 API 直接返回 usage 字段。