美国Token价格是中国170倍科技plus
前段时间,有机构发布了数据,那就是到目前中国日均Token调用量已突破140万亿,较去年年初增长了超千倍。
从全球最大AI模型API聚合平台OpenRouter的数据来看,到4月份第一周,全球大模型的总调用量高达27万亿Token,中国贡献了12.96万亿,占比接近一半,而美国才3.03万亿,中国已经是美国的4倍多了。
很明显,目前在AI大模型的调用量,中国已经远远的超过了美国。
并且,中国的Token出海,已经是全球AI的一个鲜明特征,目前中国的众多模型,在全球排名上,都是相当靠前的。
为什么会这样?是中国模型很聪明,还是什么原因?
主要原因就是,中国的AI模型性价比太高了,非常聪明,又便宜,用户又不傻,怎么可能去用美国的AI,而不是用中国的AI呢?
空口无凭,用数据说话,DeepSeek V3.2每百万输出Token定价0.42美元(约3元人民币),而美国最Anthropic的Claude Opus 4.6每百万输出Token定价75美元(约540元人民币)。
这个差价是170倍左右。
大家想象一下,一个公司,如果他用美国的AI大模型,一个月要使用掉170万美元的Token,使用中国的大模型,只要1万美元了,这个差距到大到没有任何人能够拒绝吧。
为何差距会这么大?其实与双方的电力资源,训练方式有关。
美国的AI大模型的训练,都是采用大力出奇迹的方式,即不计成本的堆GPU显卡,投资都是几百亿美元,疯狂砸AI芯片。
再加上美国电力成本高,所以它的使用Token成本就是有这么高。
而中国的AI大模型不一样,大家的训练逻辑也不一样,不会大力出奇迹,因为也买不到足够的英伟达芯片,更多采用的是四两拨千金,即用少量的GPU,也要搞出好的大模型来,在AI芯片这一块,成本就低的多。
更大的差距则是在电力上面,中国的电力成本,远低于美国的电力成本。
所以芯片成本低,电力成本低,最后的Token成本,就会相差170倍了。于是全球开发者,特别是是美国的开发者,在成本敏感的自动化场景中国,必然要做出最理性的价格选择。
难怪众多的AI大佬,在面对中国Token竞争时,都会破防,比如马斯克,比如黄仁勋等。
它们认为,中国在电力资源、基础设施上,都比美国更强,唯一逊色一点的就是芯片这一块,但美国偏偏在逼着中国将芯片的短板补上来,一旦中国的AI芯片上来了,那么将再无短板,到时候美国AI将不可能与中国的AI竞争,没有一个能比得上的。


