越来越多的海外用户正在使用中国的大型人工智能(AI)模型来提升效率。每次与模型交互都会消耗一种名为“词元”(token)的数字资源。词元是AI语言模型处理的最小文本单元,它可以是一个完整的单词、单词的一部分、一个标点符号,甚至是一个单独的字符。
今年3月,中国的日均词元使用量超过140万亿,比2024年初增长了1000多倍。
中国的AI模型正被全球各地广泛采用,这无疑是全球用户对其投下的信任票。
对于大型模型而言,如何在提升性能的同时降低成本,仍然是一项挑战。
越来越多的海外用户正在使用中国的大型人工智能(AI)模型来提升效率。每次与模型交互都会消耗一种名为“词元”(token)的数字资源。词元是AI语言模型处理的最小文本单元,它可以是一个完整的单词、单词的一部分、一个标点符号,甚至是一个单独的字符。
今年3月,中国的日均词元使用量超过140万亿,比2024年初增长了1000多倍。
中国的AI模型正被全球各地广泛采用,这无疑是全球用户对其投下的信任票。
对于大型模型而言,如何在提升性能的同时降低成本,仍然是一项挑战。