据《The Information》报道,抖音母公司字节跳动正在加大研发自研AI芯片的力度,旨在在中国的AI聊天机器人市场中占据竞争优势。
据知情人士透露,字节跳动计划到2026年大规模生产两款其设计的半导体,这一过程是与台积电合作完成的。
这一举措可能减少该中国公司对昂贵的Nvidia芯片的依赖,后者目前用于开发和运行AI模型。
中国的云服务市场正经历一场价格战,百度、阿里巴巴、字节跳动、腾讯和科大讯飞等公司纷纷下调其大语言模型(LLMs)的价格,这些模型驱动了AI聊天机器人。
对于字节跳动来说,降低芯片成本是一个迫切的需求。去年,字节跳动发布了其首款AI聊天机器人“豆包”,该机器人能够生成文本和图像的生成式AI内容。今年,字节跳动宣布了一系列低成本的大语言模型,其中一些模型生成一个Token(即模型生成的一个词或词的一部分)的成本比OpenAI的类似产品低99%。微软支持的ChatGPT的创造者OpenAI并未在中国提供其AI模型。
字节跳动一直在投资开发生成式AI模型。据报道,今年该公司下了超过20万颗Nvidia H20芯片的订单,H20是Nvidia为中国市场制造的最先进芯片,在美国出口规则下允许销售。该订单价值超过20亿美元,字节跳动仍在等待完全交付。
现在,字节跳动打算向台积电订购数十万颗其自研的训练和推理芯片。据《The Information》估计,这些内部设计的芯片成本将比购买Nvidia芯片少数十亿美元。
然而,这些芯片仍处于设计阶段,字节跳动的计划可能会发生变化。
其2026年半导体的芯片设计基于先进的5纳米技术,这仅比TSM最先进的技术落后一代。据报道,5纳米工艺是中国芯片制造商难以复制的技术,Nvidia即将推出的旗舰AI芯片系统Blackwell也采用了这一代技术。
H20的性能约为Nvidia H100的25%,而H100是Nvidia在2022年发布时最先进的芯片。美国曾限制Nvidia向中国出售A100及其更强大的后续产品,包括H100,这些限制是华盛顿阻止中国获得用于AI的先进半导体技术的努力的一部分。
由于单颗H20的计算能力相较于美国云提供商常用的Nvidia芯片较低,报告指出,中国公司需要购买更多的H20芯片来组建一个具备相同计算能力的集群,这增加了它们的成本。
美国的限制适用于基于性能的单颗芯片,但不限制集群的使用。一位了解字节跳动芯片情况的人士表示,中国芯片工程师还有其他方法可以提高芯片性能,比如提升集群中每颗芯片之间的连接以及改进芯片在访问高带宽计算机内存时的性能。美国的限制并未限制这些方法。
字节跳动希望其自研芯片驱动的集群能在相同成本下达到四倍于单颗H100芯片的计算性能。H100芯片每颗价格可超过3万美元。
字节跳动的芯片努力追随了包括Alphabet的谷歌、亚马逊和微软在内的公司。这些公司在过去几年中一直试图减少对Nvidia芯片的依赖,以开发和运行AI模型。
据报道,其中一些公司还为其云服务客户提供自研芯片,作为Nvidia芯片的替代方案。
中国公司如腾讯、阿里巴巴和百度多年来一直在开发自研AI芯片。报道称,百度正在开发一款名为昆仑3的AI芯片,用于其生成式AI产品。据知情人士透露,该芯片已进入设计的最后阶段,接近在TSM开始生产。
今年7月,有报道称Nvidia正在为中国开发一款新芯片,其服务器设计特别设计为不会违反美国的出口限制。