资讯详情

​向死而生,浴火重生,创新能让AI芯片新生?

3a0e2d70453a0c7c14013cdbfb0193b5.gif

1652

作者:赵满满

编辑:杨小天

头图来源:比特网

本文是对中智观察和企业数字服务供需市场行业洞察的人工智能篇章。市场预测,AI芯片公司将在2023年倒闭,那么芯片公司如何自救呢?放弃简单重复的做法,凤凰涅盘,重生,只有通过技术创新,才能杀死一条血路。

——海比研究院

2022年4月26日

小智在社区里开着一辆新买的特斯拉车。突然,一位老人带着狗冲到车前。在小智采取措施之前,特斯拉自动刹车,反应时间超过了小智。

特斯拉的自动驾驶系统可以采取这样的措施,离不开它几十辆车AI芯片,完成推理,做出决策和行动。

巧合的是,在你的智能手机上,在你的智能家居上,有很多AI芯片被植入,与特斯拉汽车一起工作AI芯片的功能相同。

我们正在迅速进入一个人工智能几乎渗透到生活方方面面的世界——从我们玩的游戏,到家用电子产品,再到驾驶的汽车等。为AI提供动力的技术是GPU、FPGA、ASIC等芯片。

目前AI芯片市场正面临着尴尬的局面:一方面,市场需求巨大,参与者众多,如过河鲫鱼。

另一方面,很多创新企业因为需要大量资金,难以落地而退出。更多的专家预测,更多AI2023年芯片企业将倒闭。

海比研究所认为,AI芯片将人工智能带到更多的地方,企业要做的就是放弃简单重复的做法,用技术创新实现新的生活。

AI芯片是一片广阔的海洋,它足够大,即使是后来者能找到广阔的生存市场。

可以从不同的角度进行AI芯片分类。根据不同的功能,AI芯片可分为模型训练和模型推理。AI芯片分为云和移动两类。

对技术架构进行分类,AI芯片主要分为图形处理器GPU、半定制化的FPGA、全定制化ASIC,以及神经拟态芯片(类脑芯片)。

从成熟度来看,目前主流GPU、FPGA都是比较成熟的芯片架构,属于通用芯片。ASIC属于为AI定制特定场景的芯片。目前,业界公认CPU不适用于AI但是在AI但是应用领域是必不可少的。

GPU性能高、功耗高,但是通用性强,提供了多核并行计算的基础结构,且核心数可以不断扩大,可以支撑大量数据的并行计算,拥有更高的浮点运算能力。

英伟达是GPU事实上,行业标准的市场份额最高。近年来,英伟达股价飙升,2020年7月8日收盘后,市值首次超过英特尔,成为美国市值最高的芯片企业。

苹果对GPU市场跃跃欲试。2020年苹果WWDC上一次披露有可能被抛弃AMD的GPU,转而利用自研的基础ARM结构解决方案。根据计划,苹果在2021年下半年推出了自主研究GPU芯片,代号为lifuka,采用台积电5纳米工艺,并将搭载于新推出iMaC中。

另一个挑战者英特尔不再强调自己CPU厂商,而是XPU厂商,XPU囊括了CPU、GPU、NPU、VPU以及FPGA等。在2022年英特尔投资者大会上,GPU成为亮点。Intel宣布Xe架构GPU当时,建议通过架构进行弹性扩展GPU产品涵盖低功耗平台、游戏、工作站、数据中心等各个领域。

2021年,国内芯片企业芯动科技发布首款国产高性能4K级显卡GPU芯片-风华一号。因此,芯动科技被称为中国版英伟达。

根据各研究机构的数据,GPU在AI推理市场、服务器市场、数据中心市场等都呈现出蓬勃发展的趋势。

FPGA(现场可编程门阵列)是一种半定制硬件,可以定义单元配置和链接架构进行计算,灵活性强。

由于采用了无指令、无共享内存的系统结构,FPGA运算速度足够快,优于GPU。介于功耗和通用性GPU与ASIC之间。

相对于GPU,FPGA能够管理和操作,但相对开发周期长,开发复杂算法难度大。

研究报告显示,目前FPGA市场由Xilinx和Altera领先,占市场份额的85%,其中Altera2015年被英特尔以167亿美元收购,Xilinx则选择与IBM深度合作。Xilinx耐辐射最新推出KintexUltraScale卫星等太空硬件可用于可编程芯片。

人工智能时代,FPGA百度大脑和地平线在中国很受欢迎AI芯片等也是基于的FPGA平台研发。紫光同创大规模推出自主知识产权FPGA开发软件PangoDesignSuite,可支持千万门级FPGA器件设计开发。

高云半导体在中国推出了第一个55nm嵌入式FlashSRAM非易失性FPGA无缝连接可编程逻辑器件和嵌入式处理器。

ASIC(特定用途的集成电路)是定制的。根据产品的需要进行特定的设计和制造,可以加强特定的功能,具有更高的处理速度和更低的能耗。

但由于R&D成本高,R&D前期投资周期长,由于是定制的,可复制性一般,只有用足够多的资金和周期,才能分担前期投资,降低成本。

与通用集成电路相比,它是整机或系统技术与特定用户紧密结合的产物,ASIC它具有体积小、重量轻、功耗低、可靠性提高、性能提高、保密性增强、成本降低等优点。

谷歌TPU、寒武纪、地平线等ASIC卓有成效,应用广泛,市值高。

作为图灵奖得主和计算机架构巨头,DavidPatterson在2016年从美国伯克利退休后,以杰出工程师的身份加入了谷歌大脑团队,为几代TPU 研发做出了突出贡献。TPU也从v1发展到到v4。

2017年,美国空军研究实验室IBM公司宣布合作研发TrueNorth,机器学习性能声称超过了目前任何其他硬件模型的人工智能超级计算机,该模拟人脑神经网络设计的64 芯片系统的数据处理能力相当于6400 16000个神经细胞 神经突触类脑功能1亿。

IBM研究人员说,传统的计算机就像人类的左脑,擅长逻辑思维和语言TrueNorth神经突触芯片,更像人类右脑,感觉和图形识别能力是它的优势,使研究人员不仅可以在多个数据集个神经网络上运行,实时将多个数据集上的图片、视频、文本等信息转换为计算机能够识别的代码。

国内西井科技推出了规模100亿的神经元人脑仿真模拟器,自主研发(WestwellBrain)5000万脑神经元芯片可商用化(DeepSouth)两款产品。前者是面向SNN脉冲神经网络和深度学习软硬件平台;后者是深度学习处理器。2016年9月,西井科技发布DeepSouth全球首次片上学习成功实现。

国际AI芯片队列中不乏科技巨头,如英伟达NVIDIA、Intel、Google、AWS、Qualcomm等等;而创新企业如雨后春笋般涌现,如Esperanto、Graphcore、Cerebras、Ambarella和Hailo让人感受到这个市场的活力。

NVIDIA2022年3月宣布推出Hopper,一种新的GPU结构,有望为AI工作负荷提供了显著的性能改进。其六大创新方向,尤其是其他行业。

HopperGPU架构,NVIDIA它被称为下一代加速计算。美国计算机科学家GraceHopper新架构继承了两年前推出的名称命名NVIDIAAmpere结构。该公司还宣布了它的第一个基于Hopper的GPU,即NVIDIAH100。

NVIDIA声称Hopper与前任相比,这一壮举基于六项突破性创新,带来了数量级的性能飞跃。

制造工艺。H100 采用800亿晶体管和尖端台积电4N工艺,专为满足NVIDIA 在加速计算需求中设计加速计AI、HPC、内存带宽、互连和通信取得了重大进展,包括每秒近5秒 TB外部连接。

在制造层面,Cerebras或Graphcore等半导体企业的新贵也在推动可能性的界限。

多实例GPU(MIG)。MIG允许单个技术GPU为了处理不同类型的作业,分区有七个小的、完全隔离的例子。Hopper架构通过在每个GPU在实例云环境中提供安全的多租户配置 MIG 该功能比上一代产品扩展了7倍。

保密计算。NVIDIA声称H100是世界上第一个具有机密计算能力的加速器,可以处理AI保护模型和客户数据。客户还可以将机密计算应用于医疗保险和金融服务等隐私敏感行业,以及共享云基础架构的联合学习。

第四代NVIDIANVLink。为了加速最大的AI模型,NVLink与新的外部NVLink交换机相结合,将NVLink扩展为服务器以外的纵向扩展网络,连接多达256个H100GPU,带宽比使用NVIDIAHDR Quantum InfiniBand的上一代产品高出9倍。

DPX指令加速动态编程。NVIDIA指出,动态编程用于广泛的算法,包括路由优化和基因组学,与CPU相比,它可以将执行速度提高40倍,与上一代GPU相比,它可以将执行速度提高7倍。

新的变形金刚发动机。正如NVIDIA所指出的那样,变形金刚是自然语言处理的标准模型选择,也是有史以来发明的最重要的深度学习模型之一。H100 加速器的 Transformer Engine 旨在将这些网络的速度提高到上一代产品的 6 倍,而不会降低准确性。

总部位于英国的人工智能芯片企业Graphcore也推出了一种名为“Bow”的新芯片,利用两个半导体芯片堆叠在另一个之上,将使深度学习训练等应用加速40%,同时减少能源使用。

该公司还宣布了其多处理器的更新型号,称为“IPU-POD”,运行Bow芯片,声称其速度是Nvidia同类DGX机器的五倍,价格只有一半。

公司正在开发一种名为TheGood Computer的计算机设计,能够处理使用500万亿参数的神经网络模型,使其成为所谓的超人类“超智能”成为可能。

Bow处理器是Graphcore所称的“IPU”的最新版本,代表智能处理单元。该公司此前已经发布了IPU的两个迭代,最后一次是在2020年底。

在国内AI芯片市场,科技巨头与创新企业展开了激烈的竞争,出现了不同类型的赛道,也出现了AI四小龙、CV四小龙等不同类型的企业。

阿里巴巴平头哥推出的第一款为AI提供动力的芯片,名为汉光800,基于12nm工艺,集成170亿晶体管,性能峰值算力达820TOPS。在业界标准的ResNet-50测试中,推理性能达到78563IPS,能效比达500IPS/W。

阿里巴巴表示,该芯片已经在公司内部的业务运营中使用,特别是在电子商务网站的产品搜索和自动翻译、个性化推荐、广告和"智能客户服务"方面。这些领域需要大量的计算任务,芯片可以帮助加快速度。

2019年华为正式发布AI处理器Ascend910(昇腾910),同时推出全场景AI计算框架MindSpore。

在算力方面,昇腾910半精度(FP16)算力达到256Tera-FLOPS,整数精度(INT8) 算力达到512Tera-OPS。重要的是,达到规格算力所需功耗仅310W,明显低于设计规格的350W,华为称其芯片是"世界上最强大的人工智能处理器"。

边缘侧AI 芯片的情况与服务端AI 芯片略有不同。边缘侧AI芯片由于最终会被集成到智能单品上,因此设计时更多地是“带着脚镣跳舞”,需要在综合考虑成本、功耗以及模组集成等各种约束的前提下提供尽可能丰富的算力。同时,由于边缘侧AI芯片的应用需求往往是比较确定的,算力更多地是面向专门应用而设计,因此其算力和算法的结合会更加紧密。

为了解决边缘侧语音AI 落地的问题,云知声于2018 年 5月份发布了自主研发的面向物联网的语音AI芯片“雨燕”以及软硬一体解决方案。其芯片设计特点在于如何在下游应用场景的约束下,基于其语音算法原厂定位的优势,将算法、应用和芯片更好地结合起来,在功能、性能、成本和功耗之间达到最佳的平衡。

在2018年以来云知声基于多种多种专用芯片平台已经陆续发布了三代共6款语音芯片解决方案,并在2021年达到出货近千万的成绩。其车规级语音AI专用芯片“雪豹”今年也即将在客户量产车型上落地出货。

云知声联合创始人/芯片负责人李霄寒介绍说,相比行业其他公司造芯,云知声的优势在于自主设计,尤其是DSP、深度神经网络处理器都为云知声自主研发,能够真正面向场景,使AI芯片满足真实场景中的需求。

技术创新能让AI芯片再生,同时再好的AI芯片也要走向应用,因此在AI芯片发展的过程中,通过创新“顶天”,通过应用“立地”显得尤为关键。

用于云端训练和推理,目前大多数的训练工作都在云端完成。移动互联网的视频内容审核、个性化推荐等都是典型的云端推理应用。

根据IDC的研究数据,2019年中国智能服务器市场规模约为19.5亿美元,2018年至2023年的年均复合增长率达到27.09%,预计到2021年市场规模将达到31.8亿美元,市场规模快速增长。

云端高性能芯片主要面向人工智能计算中的数据中心集中计算需求,主要用在智能服务器产品和云端人工智能计算场景中。

在云端,NvidiaGPU在训练方面一家独大,在推理方面也保持领军位置。FPGA和ASIC因为低功耗、低成本的优势,也在持续抢夺GPU的市场的份额。

在移动端,AI芯片主要用于推理,解决云端推理因网络延迟带来的用户体验等问题。典型应用如视频特效、语音助手等。通过在手机系统芯片(SoC)中加入增加协处理器或专用加速单元来实现。受制于电量,手机对芯片的功耗有严格的限制。

手机正常运行离不开SoC芯片,SoC只有指甲盖大小,却“五脏俱全”,其集成的各个模块共同支撑手机功能实现,如CPU负责手机应用流畅切换、GPU支持游戏画面快速加载,而NPU(神经网络处理器)就专门负责实现AI运算和AI应用的实现。

AI芯片作为无人车的大脑,需要对汽车上大量传感器产生的数据做实时处理,对算力、功耗、可靠性都有非常高的要求。同时芯片需要满足车规标准,因此设计的难度较大。

在自动驾驶应用场景下,AI芯片的核心价值就是实时处理行驶道路上的人、车、物等复杂环境的感知和决策。要处理来自不同传感器(激光雷达、摄像头、毫米波雷达等)所采集的多样化信息,AI芯片必须具有超高的算力和极致效能。

百度CEO李彦宏告诉投资者,公司的未来在于人工智能和自动驾驶等相关领域。百度推出了其第二代AI芯片Kunlun2,旨在帮助设备处理大量数据并提高计算能力。该芯片可用于自动驾驶等领域,并且已经进入批量生产。

百度第一代昆仑1芯片于2018年推出。百度为其芯片部门筹集资金,估值为20亿美元。

在自动驾驶汽车领域,NVIDIA一直处于领先地位的领域。在CES2022上,Nvidia宣布了DRIVEHyperion 8,带来了许多新功能,如冗余NVIDIADRIVEOrin片上系统,12个环绕摄像头,9个雷达,12个超声波,一个前向激光雷达和三个内部摄像头。该系统被设计为功能安全,就好像一台计算机或传感器发生故障一样,有可用的备份。

英伟达的合作伙伴包括沃尔沃支持的Polestar和中国的电动汽车公司如蔚来、小鹏汽车等。。

安防是AI芯片的应用场景,主要任务是视频信息的处理。摄像头终端加入AI芯片,可以实现实时响应、降低带宽压力,也可以将推理功能集成在边缘的服务器级产品中。AI芯片要有视频处理和解码能力,主要考虑的是可处理的视频路数以及单路视频结构化的成本。

因图像识别技术以及大数据技术发展较为成熟,智能安防的发展和普及相对较快。iiMediaResearch(艾媒咨询)数据显示,2019年中国安防行业市场规模达到8260亿元,并且在过去五年保持不低于10%的增长速度。

芯科技自主研发了一款高性能、低功耗人工智能视觉处理器芯片——AX630A,可以广泛适用于智慧城市、智慧零售、智能社区、智能家居、物联网设备等多个领域。

人工智能和云将成为未来10年最大的增长动力。而AI领域,的AI芯片者的天下。AI芯片领域的竞争,未来绝对是技术的竞争。而芯片产业链领域的困扰,则会随着全球化大市场的发展而逐渐缓解。

标签: 国产tb3210集成电路

锐单商城拥有海量元器件数据手册IC替代型号,打造 电子元器件IC百科大全!

锐单商城 - 一站式电子元器件采购平台