注册

探索ChatGPT背后的AI产业链

来源:全球半导体观察    原作者:竹子    

近期,一个叫“ChatGPT”的聊天机器人在半导体界声名大噪。这个由人工智能实验室Open AI在去年11月底推出的AI程序,在上线5天内就收获超100万的注册量,到今年1月末已经突破1亿。

ChatGPT的火爆一定程度上缓和了半导体行业的低落气氛,近期市场消息显示,台积电5nm需求突然大增,第二季度产能利用率或将满载。半导体供应链业内人士透露,台积电急单来自英伟达、AMD与苹果的AI、数据中心平台,ChatGPT的爆火让客户拉货动能上升。

官方表示,ChatGPT的“Chat”指聊天,就是它的展现形式;“GPT”则代表Generative Pre-trained Transformer(生成型预训练变换模型),即支撑它运行的预训练模型。

总体而言,ChatGPT是一种基于大规模语言模型的超智能对话AI产品,无论是讨论当下互联网这种最新的内容创作方式AIGC(AI Generated ContentAI生产内容),还是爆火的ChatGPT,其本质都是在探讨其背后的AI产业链。

Part.1
AI芯片:GPU、FPGA、ASIC将受益

人工智能三大要素分别是数据、算法、算力。基于OpenAI的第三代大模型GPT-3升级而来的ChatGPT,其而算力的最终来源也就是芯片,ChatGPT的爆火代表着AI芯片技术的新一轮突破。公开资料显示,AI算力芯片泛指加速AI类应用,主要分为GPU、FPGA、ASIC。

01GPU

由于CPU的算力很有限,且处理并行操作比较吃力,因此一般将CPU搭配加速芯片使用。在AI时代的云端训练芯片中,GPU占据较大的份额,被视为AI时代的算力核心。在GPU市场格局上,英伟达、AMD、英特尔三家的营收几乎垄断整个GPU行业。

目前,ChatGPT背后的计算集群使用的是英伟达的AI芯片。OpenAI曾表示,ChatGPT是与英伟达和微软合作完成的超级AI。微软在自己的云——Azue HPC Cloud中构建了超级计算机集群,将其提供给OpenAI。据悉,该超级计算机拥有285000个CPU(中央处理器)内核和10000多颗AI芯片。

虽然英伟达在此番占据先发优势,但市场上还有很多企业在迎头赶上,如谷歌的张量处理器TPU、百度的昆仑系列、华为海思的昇腾系列、阿里巴巴平头哥的含光800等。

02FPGA

FPGA(Field Programmable Gate Array)又称现场可编程门阵列,是指一种通过软件手段更改、配置器件内部连接结构和逻辑单元,完成既定设计功能的数字集成电路。

FPGA芯片在实时性(数据信号处理速度快)、灵活性等方面优势明显,还可以编程、并行计算,在深度学习领域占据不可替代地位。

相比于CPU/GPU/ASIC,FPGA具有更高的速度和极低的计算能耗,常被用作专用芯片的小批量替代品。在AI模型构建时,FPGA要实现深度学习功能,需要与CPU结合,共同应用于深度学习模型,同样可以实现庞大的算力需求。

从市场格局看,全球FPGA芯片市场中,赛灵思和英特尔两家企业占据了市场大部分的份额,由于FPGA芯片拥有较高的技术和资金壁垒,我国企业在该领域上差距较大。近年来,我国领先企业也在FPGA芯片芯片上实现了部分技术突破。如去年8月,京微齐力发布首颗国产22nm的FPGA芯片并成功量产。

03ASIC

ASIC(Application Specific Integrated Circuit),即专用集成电路,其计算能力和计算效率可根据用户特定需求进行定制,广泛应用于人工智能设备、虚拟货币挖矿设备、耗材打印设备、军事国防设备等智慧终端。

ASIC芯片可根据终端功能不同分为TPU芯片、DPU芯片和NPU芯片等。其中,TPU(Tensor Processing Unit)为张量处理器,专用于机器学习。DPU(Data Processing Unit),可为数据中心等计算场景提供引擎。NPU(Neural-network Processing Unit)是神经网络处理器,在电路层模拟人类神经元和突触,并用深度学习指令集直接处理大规模电子神经元和突触数据。

相比于GPU和FPGA,ASIC缺乏灵活性,特别是在AI、服务器这类领域,在各种算法不断迭代的情况下,ASIC芯片的特性反而成为了它的累赘。但地平线CEO余凯曾公开表示,一旦软件算法固定下来,专用集成电路ASIC一定是未来的方向,按每瓦功耗计算能力看,ASIC可比GPU提升30-50倍,这也将是未来行业的竞争焦点。

目前,国外谷歌、英特尔、英伟达等科技巨头相继发布了TPU、DPU等ASIC芯片,国内大厂也开始瞄准这一市场迅速发力,比如寒武纪就推出了一系列ASIC加速芯片,华为也设计了昇腾310和昇腾910系列ASIC芯片。

Part.2
HBM/Chiplet有望受益

总体来看,在AIGC(AI Generated Content,AI生产内容)推动下,AI产业化由软件向硬件切换,半导体+AI生态逐渐清晰,AI芯片产品将实现大规模落地。硬件端核心包括AI芯片/GPU/CPU/FPGA/AISoC等,而在AI芯片中,算力及信息传输速率成为关键技术,芯片性能及成本的平衡也带动周边生态,包括HBM/Chiplet等产业链受益。

01新兴存储HBM

公开资料显示,AI对话程序在执行计算期间需要大容量、高速的存储支持,业界预计AI芯片发展也将会进一步扩大高性能存储芯片需求。

三星电子就表示,为GPU和人工智能加速器提供数据的高性能高带宽内存(HBM)的需求将会扩大。从长远来看,随着AI聊天机器人服务的扩展,对用于CPU的128GB 或更大容量的高性能 HBM 和高容量服务器 DRAM 的需求预计会增加。

近日,韩媒报道2023年开年后三星、SK海力士两家存储大厂HBM订单快速增加,价格也水涨船高,市场人士透露近期HBM3规格DRAM价格上涨5倍。

02Chiplet

此外,Chiplet技术也不可忽视,其是布局先进制程、加速算力升级的关键技术。Chiplet异构技术不仅可以突破先进制程的封锁,并且可以大幅提升大型芯片的良率、降低设计的复杂程度和设计成本、降低芯片制造成本。

目前,Chiplet已广泛应用于服务器芯片。AMD是Chiplet服务器芯片的引领者,其基于Chiplet的第一代AMDEPYC处理器中,装载8个“Zen”CPU核,2个DDR4内存通道和32个PCIe通道。2022年AMD正式发布第四代EPYC处理器,拥有高达96颗5nm的Zen4核心,并使用新一代的Chiplet工艺,结合5nm和6nm工艺来降低成本。

英特尔第14代酷睿Meteor Lake首次采用intel 4工艺,首次引入Chiplet小芯片设计,预计将于2023年下半年推出,至少性能功耗比的目标要达到13代 Raptor Lake的1.5倍水平。

Part.3
结语 

近期,英特尔全球高级副总裁、中国区董事长王锐接受澎湃新闻记者采访时表示,会与中国客户研究布局类ChatGPT算力模式。“我们跟百度、阿里都有非常深的合作,下一步算力如何帮助我们建立新的模式都是值得期待的。” 

在全球数字化、智能化的浪潮下,智能手机、自动驾驶、数据中心、图像识别等应用推动AI芯片市场迅速成长,未来将有更多企业聚焦到AI芯片生产上来。

封面图片来源:拍信网