#新晋AI顶流PK:GPT-5.5 vs DeepSeek V4 #
又要开始被逼着学英语了吗····
研究显示非英语用户在使用同一模型时,实际消耗的 token 数远多于英语用户,相当于被悄悄征收了一笔「非英文税」。
同样的内容用中文提问,Claude 的 token 消耗达到基准的 1.71 倍,OpenAI 为 1.15 倍
又要开始被逼着学英语了吗····研究显示非英语用户在使用同一模型时,实际消耗的 token 数远多于英语用户,相当于被悄悄征收了一笔「非英文税」。
同样的内容用中文提问,Claude 的 token 消耗达到基准的 1.71 倍,OpenAI 为 1.15 倍
展开
评论
点赞