电话咨询 在线咨询 产品定制
电话咨询 在线咨询 产品定制
010-68321050

ASIC需求持续上扬,大型企业和初创公司各有生存之道

五度易链 2019-04-18 1838 0

专属客服号

微信订阅号

科技最前沿

剖析产业发展现状

为区域/园区工作者洞悉行业发展

人工智能的迅速普及,也对现在的硬件建设提出了新要求,在这样的市场需求下,现在的企业也在不断增加对ASIC芯片的研究。


人工智能的迅速普及,也对现在的硬件建设提出了新要求,在这样的市场需求下,现在的企业也在不断增加对ASIC芯片的研究。

根据市调机构Ovum预估,2018~2025年,ASIC的市占率将从11%大幅增加至48%。Ovum调查报告指出,在2016年,云端(包含企业、数据中心等)为深度学习晶片的主要营收领域,占了80%。不过,到了2025年,此一比例将会改变,转变成边缘(Edge)占了80%,而云端的比例则降为20%。这边所指的边缘意指终端设备,且以消费性产品为中心(而非小型伺服器或是路由器),包括移动装置(手机、平板)、头戴式显示器(HMD),如AR/VR /MR、智能音箱、机器人、无人机、汽车、安全摄影镜头等。各企业也竞相研究ASIC芯片。

ASIC 芯片的大型企业介绍

2016 年,英伟达发布了专门用于加速 AI 计算的 Tesla P100 芯片,并且在 2017 年升级为 Tesla V100。在训练超大型神经网络模型时,Tesla V100 可以为深度学习相关的模型训练和推断应用提供高达 125 万亿次每秒的张量计算(张量计算是AI深度学习中最经常用到的计算)。然而在最高性能模式下,Tesla V100的功耗达到了300W,虽然性能强劲,但也毫无疑问是颗“核弹”,因为太费电了。

英伟达 Tesla V100 芯片

同样在 2016 年,谷歌发布了加速深度学习的 TPU(Tensor Processing Unit)芯片,并且之后升级为 TPU 2.0 和 TPU 3.0。与英伟达的芯片不同,谷歌的 TPU 芯片设置在云端,就像文章在Alpha Go 的例子中说的一样,并且“只租不卖“,服务按小时收费。不过谷歌 TPU 的性能也十分强大,算力达到 180 万亿次每秒,并且功耗只有200w。

谷歌 TPU 芯片

关于各自 AI 芯片的性能,谷歌 CEO Sundar Pichai 和英伟达 CEO 黄仁勋之前还在网上产生过争论。别看两位大佬为自家产品撑腰,争得不可开交,实际上不少网友指出,这两款产品没必要“硬做比较”,因为一个是在云端,一个是在终端。

初创企业的AI芯片研究

除了大公司,初创企业也在激烈竞争 ASIC 芯片市场。那么初创企业在行业中该如何生存呢?创新是初创企业的核心竞争力。

2017 年,NovuMind 推出了第一款自主设计的AI芯片:NovuTensor。这款芯片使用原生张量处理器(Native Tensor Processor)作为内核构架,这种内核架构由 NovuMind 自主研发,并在短短一年内获得美国专利。除此之外,NovuTensor 芯片采用不同的异构计算模式来应对不同 AI 应用领域的三维张量计算。2018年下半年,Novumind 刚推出了新一代 NovuTensor 芯片,这款芯片在做到 15 万亿次计算每秒的同时,全芯片功耗控制在 15W 左右,效率极高。

纵观Novumind的发展,能深刻感受到充满速度与张力的风格。

正是这样的风格,驱使着Novumind步履稳疾:吴韧离开百度三个月就完成了超级计算机的构架;创业后几周内就完成了公司各个环节的从零到一;一杯咖啡的时间说服了世界级芯片专家Chien-Ping Lu加入团队;公司壮大到50余人依然全员汇报单刀直入,保持解决问题的效率。

产品上,为了保证运算速度,Novumind干脆不采用支持多平台软件的通用芯片,而是由曾负责过NVIDIA、MediaTek、Intel等多项芯片设计的副总裁Chien-Ping Lu带领技术团队研发专属芯片,以达到软硬件结合的最佳配置;而计算机视觉和产品构架方面,则由前惠普实验室的首席工程师、曾担任HP Sprout产品线技术负责人Kar Han Tan主导,以保证产品运营速度的实时捕捉,进而突破超级计算机所面临的带宽问题和硬件限制。

尽管 NovuTensor 芯片的纸面算力不如英伟达的芯片,但是其计算延迟和功耗却低得多,因此适合边缘端 AI计算,也就是服务于物联网。虽然大家都在追求高算力,但实际上不是所有芯片都需要高算力的。比如用在手机、智能眼镜上的芯片,虽然也对算力有一定要求,但更需要的是低能耗,否则你的手机、智能眼镜等产品,用几下就没电了,也是很麻烦的一件事情。并且据 EE Times 的报道,在运行 ResNet-18、ResNet-34、ResNet70、VGG16 等业界标准神经网络推理时,NovuTensor 芯片的吞吐量和延迟都要优于英伟达的另一款高端芯片 Xavier。

ASIC芯片需求在不断提升

现今大多数的AI处理器,如GPU,多用于云端伺服器、资料中心,以在云端上进行AI训练和推论。不过,随着隐私、安全性需求增加,加上为了降低成本、延迟及打破频宽限制等因素,分散式AI随之兴起,越来越多AI边缘应用案例出现。例如苹果的A12仿生芯片,其具备新一代「神经网路引擎」,以即时机器学习技术,改变智能手机的使用体验。简而言之,AI从云端转向边缘是现在进行式,当然目前AI在边缘设备上多还是以推论为主,而非训练。不过随着AI创新应用增加,有越来越对芯片商尝试提升终端装置处理器的运算效能,为的就是不用再传送资料至云端进行资料运算、推理和训练。也因此,各式的处理器纷纷问世,像是CPU、FPGA、GPU、ASIC、NPU或SoC Accelerator等。

其中,ASIC的市占率可望随着边缘运算的需求增加而明显攀升,从2018年的11%增加至2025年的52%。ASIC之所以受到青睐,原因在于新兴的深度学习处理器架构多以图形(Graph)或Tensorflow为基础架构;且上述提到AI边缘运算受限于功耗和运算效能,因此多以推论为主,而非训练。然而,若假设到2021年时,终端设备将导入大量AI芯片,所需要的便是能在同一个芯片上进行推理和训练,可因应分散式运算且又具低功耗的IC,因此ASIC需求将持续上扬,实现更多AI边缘应用案例。

现在的云端市场已经成为了一些大型公司的战场,如果想要在终端芯片的竞争中取得突破,还需要在技术方面寻找关键点。


本文由五度数科整理,转载请标明出处,违者必究!

评论

产业专题

申请产品定制

请完善以下信息,我们的顾问会在1个工作日内与您联系,为您安排产品定制服务

  • *姓名

  • *手机号

  • *验证码

    获取验证码
    获取验证码
  • *您的邮箱

  • *政府/园区/机构/企业名称

  • 您的职务

  • 备注