加入收藏 | 设为首页 | 会员中心 | 我要投稿 52刷机网 (https://www.52shuaji.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 4G频道 > 通讯 > 正文

2020年 仍然英伟达“稳赢”的一年

发布时间:2020-03-06 09:18:48 所属栏目:通讯 来源:网络整理
导读:2020年 仍然英伟达“稳赢”的一年

首先,以公共云巨头亚马逊AWS、微软Azure、阿里、谷歌、腾讯等科技巨头为首的超大规模数据中心运营商,正在迅速抢占数据中心市场的支出份额。目前,数据中心硬件和软件上每3美元的支出,就有1美元来自这类企业。

其次,自2013年以来,这类超大型数据中心的数量增加了两倍。截至2019年第三季度末,共有504个由巨头运营的超大规模数据中心,正在建设的则至少有150个。

因此,结合超级数据中心的成本支出与增长情况,一方面,服务器以及其他配套硬件还会源源不断被送进机房;

另一方面,AI处理任务的持续增长,又会倒逼服务器的配置要得到持续的升级。

根据人工智能非营利组织Open.AI公布的调查数据,深层神经网络的规模与复杂性,每3.5个月翻一番。因此,在被赋予更多更艰巨的计算任务的过程中,这些硬件的复杂程度与处理器性能也被提出了更高的要求。

举个例子,亚马逊AWS自2015年以后,便陆续在每个地区的数据中心部署了大量T4。原因就在于英这些GPGPU擅长执行像“对话式AI”、“人工智能推荐”这种高性能计算工作负载。

而像商汤、旷视这样的人脸识别独角兽企业,需要在建立的超算中心里部署超万块GPU。据商汤内部工程师透露,他们每天在算法平台上进行数据训练迭代的单次成本,就高达数十万元。

因此,我们可想而知,亚马逊、微软、阿里、谷歌等Top级云服务商的云计算数据中心,为了支持自己与客户的深度学习训练任务,所需要的GPU量级到底有多大。

显然,这个变化对所有数据中心的建设参与者,包括创业公司在内,都是一个绝对不能放手的巨大利益池。

特别是云数据中心经营商,高昂的训练时间与资金成本让他们也甘愿下海一搏。

2020年 仍然英伟达“稳赢”的一年

亚马逊的数据中心

在一场不久前清华闭门交流会上,虎嗅有幸听到了阿里达摩院资深算法专家杨永霞对云上如何训练若干种卷积神经网络模型的深度解析,而她在不经意间,也流露出因硬件跟不上计算要求而产生的焦虑:

“一点几PB的数据量,用8卡Tesla V100计算就要超过20个小时,而我们其实有几百PB的数据。一块V100就几万块,真的是用不起啊。”

在这样的需求形势下,谷歌推出自称性能可达同等级GPU产品15~30倍的AI专有芯片TPU;亚马逊与阿里陆续推出旨在以极低成本交付高吞吐量的云端AI推理芯片;微软为了能够追上这股“造芯新时尚”,急忙在2019年11月宣布,将在云上释放英国AI芯片创业公司Graphcore(这家企业的“成名作”是一块被称为IPU的“智能处理单元”IPU及其配套软件Poplar,专门为人工智能应用程序所需的并行计算而设计)提供的复杂图像模型处理能力……

无论商用效果如何,以上都是云服务商不得已而为之的一个选择。

2020年 仍然英伟达“稳赢”的一年

阿里2015年在张北成立的数据中心

但需要注意的是,这些云服务企业自研的大多是推理芯片。

由于神经网络模型在训练阶段需要处理大量数据,同时也要完成不同的学习任务,因此GPU具备的大量平行运算单元,能够充分满足“训练”对运算的效率与通用性要求。

但进入执行阶段,也就是“推理阶段”,一个算法模型可以根据一堆量级不大的新数据得出结论。GPU当然也可以做到这些,但多少有点“大材小用”。

没错,这就是亚马逊、阿里为何研发定制推理芯片的另一个重要原因——对于大量推理工作,通用性或许不足,但专用肯定是有余了。

但有不愿透露姓名的业内人士对这些“自研芯片”存有疑虑。因为他认为,无论是自己做,还是部署其他公司的商用芯片,难度其实不相上下。

“云服务商如果真的打算在AI加速器上花钱,那么他们想要的一定是这项工具的灵活性,而非只满足于实现单一目的。”

目前来看,只有英伟达GPU等少数几家公司具备这样的优势——让一块芯片驾驭不同的工作类型,譬如GaaS(游戏图像渲染)、高性能计算加速以及模型训练与推理。

因此,在“更专业的精英”与“全能却稍微平庸的人”之间,趋利的市场暂时会倾向于后者。

此外,即便某块专有芯片比GPGPU更擅长处理某个任务,但后续却可能需要一大批人为这块芯片开发新的人工智能代码。

说到底,这仍然少不了生态之间的较量。

在微软选择与Graphcore合作后,技术分析机构Moor Insights分析师Karl Freund曾公开表示,这种芯片虽然看起来像是“名校高材生”,但灵活性仍然让人怀疑。

“没有证据表明其具备更好的可编程性,这让工程师们不足以去开发新的应用程序。即便是可编程性能做到,但在训练和推理方面都能取得好成绩吗?对于芯片创业公司来说,这很困难。”

的确,Graphcore曾强调自己的芯片“特别适合”完成那些超大人工智能模型或时间数据的训练任务。但是,他们自己创建的软件框架Poplar,目前看起来也不太可能对抗在AI开发者群体具有极高威望的谷歌深度框架Tensorflow。而后者被英伟达的GPU产品所支持。

甚至于投资分析师DoctoRx对谷歌的TPU也心存质疑。

他认为,在部署时,谷歌构建的规范并没有他们想象的那么有效,这很大程度上是因为成本所致。

“虽然我不确定谷歌在宣布对外出租TPU能力后的接下来会实施什么样的计划,但与专业芯片供应商的方案相比,我觉得这样一个出于‘家用’目的的解决方案的确值得怀疑。”

有意思的是,他把TPU那些在业绩、效率和成就方面取得的“第一”,称为“更具有公关性质的里程碑”。

“在我看来,谷歌总是在努力追赶或超越NVDA的P100s、V100s以及T4s。根据其公布的价格,TPU的使用定价几乎对标了V100,但比T4s要贵。”

2020年 仍然英伟达“稳赢”的一年

谷歌的人工智能专用加速器TPU3.0

面对新老对手发起的密集攻势,英伟达又一次选择了“合纵连横”。

虽然在高性能计算服务器与数据中心市场,英特尔x86处理器占据着最大的市场份额, 但随着基于Arm内核CPU的崛起,传统x86 CPU产品正面临着一定威胁。

作为全球最有名的芯片知识产权(IP)供应商之一,ARM本身不做芯片,而是向芯片厂商出售芯片底层技术。截至目前,华为、苹果、三星、高通、飞利浦等芯片厂商都要被ARM授权使用底层架构才能设计芯片。

就在2019年中旬,英伟达宣布自己的CUDA平台将在年底全面支持Arm CPU,向Arm庞大的生态系统提供全堆栈的AI、HPC软件,一起开发超级计算芯片,进而扩大在数据中心市场的份额。

2019年底,在GTC中国的ARM站展台上,很多人都在围观一款由英伟达与ARM联手提供算力支持的服务器。不少人还在小声嘟囔:

“我靠,ARM现在都搞服务器了。”

不过ARM工程师一直在反复解释:“我们不做服务器,也不做芯片,这个样机只是向大家展示Marvell(服务器品牌)基于ArmV8架构的CPU处理器与英伟达GPU的配置。”

(编辑:52刷机网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

推荐文章
    热点阅读