最近,一款名为openclaw的开源ai智能体在科技圈掀起热潮,被网友戏称为“龙虾”。这款智能体只需接收一条消息,便能接管用户设备,自动完成查资料、写代码、调试和优化等任务,全程无需人工干预。然而,随着越来越多人尝试“饲养”这只ai“牛马”,不少用户发现,它的使用成本远超预期,甚至有人调侃要为它支付“窝囊费”。
根据api服务平台openrouter的统计,openclaw已成为单月消耗token最多的应用,一个月内烧掉的token高达10.2万亿。这一数字背后,是用户为ai服务支付的高昂费用。token作为大模型处理和生成文本的基本单位,类似于人类交流中的“字”或“词”,但它的计算方式更为复杂。每发送一条指令,用户都需要向模型厂商支付按token计算的费用,而openclaw由于依赖外部大模型api运转,成本进一步叠加。
token的本质是什么?简单来说,它是大模型理解人类语言的“数字密码”。当用户输入一段文本时,系统会先将其拆分成子词片段(token),再将每个token转换为唯一的数字id。例如,英文单词“unstoppable”可能被拆分为“un”“##stop”“##able”三个token,而中文“你好世界”则直接对应四个独立token。这种分词方式既保留了常用词的完整性,又能通过子词组合处理生僻词,确保模型即使遇到未见过的新词,也能通过部分子词推测含义。
为何不直接按单词或字母分词?原因在于平衡效率与成本。若按单词分词,词汇表会因新词和拼写错误无限膨胀,导致模型无法训练;若按字母分词,token序列过长且语义分散,模型难以学习有效信息。子词分词因此成为最优解,但这也带来一个问题:中文因信息密度高、难以拆分,通常比英文更费token。例如,英文平均1个token约等于0.75个单词,而中文1个汉字可能对应1-2个token,直接推高了使用成本。
对于普通用户而言,token费用是绕不开的现实问题。主流大模型api均按输入和输出的token总数计费,且输出token通常更贵,因其生成内容的计算成本更高。而openclaw这类自主智能体的“烧钱”速度远超传统对话模型。传统模型一次对话可能消耗几千至几万token,但openclaw需要拆解目标、规划步骤、调用工具、检查结果,每一步都在消耗token。更棘手的是,它的“记忆膨胀”问题会导致token消耗持续攀升,若不及时清理历史记录,成本还会进一步增加。
据idc预测,到2030年,全球活跃ai智能体将达22.16亿,年度token消耗量将从2025年的0.0005 petatokens飙升至15.2万petatokens,增长超3亿倍。这意味着,当前的高成本可能只是ai普及初期的“幼年期”现象,未来用户需为智能体支付的费用或将持续攀升。
面对这一趋势,普通人如何避免被token账单“背刺”?专家建议可从六方面入手:一是精简提示词,用简洁指令替代冗长描述;二是限定输出长度,避免模型生成无用内容;三是及时开启新对话,防止模型读取无关历史记录;四是根据任务复杂度选择合适模型,避免过度使用高端服务;五是保护好api密钥,防止盗刷导致额外费用;六是建立高危操作确认机制,避免智能体因权限失控造成资源浪费。token作为ai时代的“通用货币”,既衡量着模型的智能水平,也考验着用户的管理智慧。














