不久的将来,我们很可能会目睹一个“暴富” 的英伟达出现。

两天前的 2017 台北电脑展上,一身黑色皮衣的 “黄教主” 再次现身,并且在独立的人工智能论坛上再次发表了主题演讲。不出意外的,演讲中的内容主要来自半个月前的 GTC:新硬件 Tesla V100、新自动驾驶架构NVIDIA DRIVE、跟丰田合作、新机器人云端平台。

这些内容雷锋网之前已经进行了相关报道,那么是否还有其他新东西呢?事实还真有——NVIDIA HGX合作伙伴计划,NVIDIA 将会和富士康、英业达、广达电脑、纬创四家 ODM 一起,推进 AI 云计算的硬件普及。

虽然听起来不复杂,但它却决定了 “人工智能龙头”NVIDIA 接下来能赚多少钱,同时还将影响人工智能改变人类生活所需要的时间。

NVIDIA,依旧 “转型中” 的 AI巨头

NVIDIA的“新金矿” NVIDIA的“新金矿” 人工智能资讯报道_AI资讯 第1张NVIDIA DGX-1内部照

“我们公司已经是一家人工智能公司了” 这样的说法早就出现过不止一次。相比其他公司,相信没几个人会质疑 “NVIDIA 已经是一家人工智能公司” 这个说法。

事实上,最大的反对 “声音” 正是来自 NVIDIA自家的财报。

NVIDIA的“新金矿” NVIDIA的“新金矿” 人工智能资讯报道_AI资讯 第2张


为了更加明显对比,雷锋网(公众号:雷锋网)也专门收集了过去 2 年间 NVIDIA的季度财报数据,在折线图中表示如下:

NVIDIA的“新金矿” NVIDIA的“新金矿” 人工智能资讯报道_AI资讯 第3张


但从折线图来看,消费级显卡所肩负“游戏” 用途依旧是 NVIDIA 整个营收中最重的部分,也决定了 NVIDIA 当下季度的财务表现。这也给很多普通投资者留下了 “话柄”:“虽然说起人工智能就会想到 NVIDIA,但是实际上连 NVIDIA 自己现在也不能完全叫做人工智能公司。”

不过单纯只看营收数据也不完全准确,尤其是上图中 “数据中心” 在最近 3个季度所表现出的强势上涨,所以我们换成整体营收百分比的方式再来看看变化:

NVIDIA的“新金矿” NVIDIA的“新金矿” 人工智能资讯报道_AI资讯 第4张


在整体百分比的视角下,虽然蓝色的游戏还是占据的绝大部分,但是灰色的数据中心增长有目共睹。相反,剩下的三个板块包括汽车在内都是稳步甚至下滑的趋势。

趋势有了,但为什么数据中心这一块业务进展的那么慢呢?这背后有着一系列的问题,比如很多人会选择高端消费级显卡而不是专业卡,又或者是专用的服务器计算模块单价太高,但是反过来这些云端设备的缺乏也会为具体应用场景的探索设下障碍。

可以说,这不仅是NVIDIA 已经要到嘴的一块肥肉,同时也是一个亟待推进的方向。于是乎,NVIDIA 再次祭出了 ODM(原厂委托设计代工)合作这招。

不起眼但野心足够大:NVIDIA HGX架构

NVIDIA的“新金矿” NVIDIA的“新金矿” 人工智能资讯报道_AI资讯 第5张NVIDIA HGX-1宣传照

作为整个计划背后的主角——NVIDIA HGX 架构主要包含两个关键 “部件”:Tesla 系列 GPU、NVIDIA NVLink,两项都值得单独拎出来说说的技术。

首先是 Tesla 系列GPU,相比普通消费级产品,前者的进化要神速不少。这一点我们可以从下面这个列表中看出:

NVIDIA的“新金矿” NVIDIA的“新金矿” 人工智能资讯报道_AI资讯 第6张

表中一共有7 款 Tesla 系列的代表性产品,当然在这份表格之前可能还有类似 Tesla K80 这样的重要产品,但这里我们暂时忽略。虽然一共 7 款产品,但是他们之间最大的发布时间间隔不过 19 个月,连两年都不到。

NVIDIA的“新金矿” NVIDIA的“新金矿” 人工智能资讯报道_AI资讯 第7张

既然是运算设备,首先关心的自然是计算能力,Maxwell、Pascal、Volta 三代架构的迭代给计算能力奠定了基础。当然这两年间 GPU 芯片的制程工艺也有所提升,让在 GPU芯片不断升级的前提下依旧能保证散热效果。

除了绝对参数之外,SXM外形和接口的引入同样重要。名字乍看与笔记本中传统使用的 MXM 规格对应(SXM 更小),但在接口方面却采用了相当 “丧心病狂” 的方案——左右两部分一共 800pin。要知道,超过 1000pin 的芯片也只剩 CPU 一种了。

这种远比常规显卡规格PCIe X16 的双面 164 个针脚多的方案一方面为未来的 GPU 运算核心升级留下了余量,另外一方面给 NVIDIA Link打下了基础。

NVIDIA的“新金矿” NVIDIA的“新金矿” 人工智能资讯报道_AI资讯 第8张
Tesla P100处理器模块的背面(两个白色长方形即插槽)

接下来简单说说 NVIDIA Link,这项技术早在 GTC2014 上就曾展示过。当时官方给出的参考性能是,NVIDIA Link 完全能够做到普通显卡 5~12 倍的传输速度。除了链接 GPU 与 GPU 之外,甚至还可以链接 CPU 和 GPU。究竟 Tela V100 的如何打造出 900GB/s的惊人显存带宽,目前没人知道。唯一可以确定的是,在高速存取数据的数据中心中,带宽宽一点总归是好的。

NVIDIA的“新金矿” NVIDIA的“新金矿” 人工智能资讯报道_AI资讯 第9张


这么强劲的技术,NVIDIA并没有打算 “藏着掖着”。今年 3 月 9 号,NVIDIA 就已经宣布了加入 OCP 开放计算计划,最终与微软合作推出的 HGX-1 超算模块,CPU 方面更是没有品牌限制,Intel 和 AMD家的产品都可以。

NVIDIA的“新金矿” NVIDIA的“新金矿” 人工智能资讯报道_AI资讯 第10张


追根溯源,OCP(开放计算项目)实际上是跨公司设计和制造数据中心产品的一个组织。其中包含了一系列知名公司,比如:英特尔、诺基亚、苹果、谷歌、微软、希捷、戴尔等等。

这个组织的目的也很简单——设计和实现最高效的服务器,同时还让存储服务器和数据中心更具有弹性。实际上,之前自己开发出另外一套HGX 架构机器 Big Basin 系统的 Facebook,直接将自己机器的主板设计图都上传了。

顶级 ODM巨头齐聚首,吹响进军号角?

NVIDIA的“新金矿” NVIDIA的“新金矿” 人工智能资讯报道_AI资讯 第11张

介绍完前面这么多相关信息,我们终于可以回到这次透露的信息中来。毕竟我们已经知道了:NVIDIA自己必然会加大自己在数据中心市场的投入,而且 HGX 架构已经相当完善,技术也足够成熟领先。

接下来问题就简单了,如何才能够让尽可能多的人来购买为数据中心打造的 GPU产品。答案实际上就两个字——价格。

NVIDIA的“新金矿” NVIDIA的“新金矿” 人工智能资讯报道_AI资讯 第12张市面销售的非公版GTX1080

对于降低成本这件事,NVIDIA 自己可谓非常有发言权。为了降低风险,同时又能够让市场内部保持一定竞争关系,主板、显卡厂商其实一直都采用同一套模式:由 Intel/Nvidia 提供核心运算芯片。其他部件如 PCB、电子元件什么的都交给这几家 ODM 之类的厂商来完成。而 ODM 除了负责生产,同时还要利用自己在生产过程中的丰富经验,帮助 NVIDIA 不断降低生产成本。

这样做法一家独大肯定不行,所以 NVIDIA 一口气找来了 4 家,这些 ODM 之间还会形成另外的竞争关系,在最终产品、经营策略、售价等方面或许都会因为竞争而产生“不同”,而这恰恰会与消费者自身的不同条件形成对应。

NVIDIA的“新金矿” NVIDIA的“新金矿” 人工智能资讯报道_AI资讯 第13张黄教主曾经专门送了一台DGX-1 给钢铁侠 Elon Musk 的 OpenAI

在雷锋网看来,由这些 ODM 和 NVIDIA 形成的全新 GPU 加速服务器大军在 2017 年内可能就会来袭,而他们的目标则是为当下所有存储在服务器或者正在产生着的数据提供处理能力。

NVIDIA的“新金矿” NVIDIA的“新金矿” 人工智能资讯报道_AI资讯 第14张

顺利的话,再造一个等同于消费级的数据中心 GPU 市场也是可能的。而后甚至有可能作为 NVIDIA 的跳板,反过来推进生活中分布式的小节点。

在一个游戏已经不是唯一甚至不是重点的 “次显卡时代”,NVIDIA 已经准备好向数据中心出击了。一旦迈出这步,NVIDIA 离业绩 “暴富”也就不远了。