但是他们希望用自己专门的AI技术架构

 新闻资讯     |      2018-05-27 19:06

  其次,NVIDIA宣布与中国的科技公司华为、浪潮和联想展开深入合作,这三家中国公司正在使用NVIDIA 的HGX架构,为超大规模数据中心提供基于Volta的加速系统,这项服务已经在中国全面开展。

  这一次,阿里云、百度和腾讯均在升级其庞大的数据中心,从基于 NVIDIA Pascal 的系统转而采用基于 Volta 的平台,从而为人工智能推理和训练提供非凡的速度和可扩展性。这次合作还有更深一层的意义在于:全中国的初创公司都可以通过公有云,受益于全世界最先进的AI架构,而不需要自己建数据中心。

  中国有个成语叫:力透纸背。重庆时时彩平台:形容的一种书法刚劲有力笔锋简直要透到纸张背面的意境。这就是今天NVIDIA的那颗AI之心,最真实的写照。

  据悉,已经有超过 1,200 家来自各行各业的公司开始采用NVIDIA推理平台,借助此从数据中获得全新洞察,并为企业和消费者部署智能服务。亚马逊、微软、Facebook和谷歌、以及阿里巴巴、百度、科大讯飞、京东、腾讯等中国领先企业均已开始采用 NVIDIA 推理平台。

  那么,随着摩尔定律的终结,计算的世界必然需要新的计算模型作为推动力,这就是黄仁勋为什么始终对深度学习情有独钟的原因。他认为,“深度学习已经彻底的改变了整个世界。它并不是一种以指令为基础、而是以数据为基础的计算模型。”这个背景,就是GPU为什么开始崛起的原因。

  我们知道,基于Volta的全新系统的核心是NVIDIA V100数据中心GPU。该GPU配备有 210 亿个晶体管,性能较早前的NVIDIA Pascal架构P100 GPU提升了5倍,同时可提供相当于 100个CPU的深度学习性能。这一性能的提升相较于摩尔定律对同一时期的预测提升了4 倍。

  “在过去50年当中,技术发展的速度其实一直在不断改善,但现在已经无法像过去一样来增加晶体管的数量,现在这种模式已经无法再延续下去了,这意味着摩尔定律的终结。”黄仁勋说。

  第二个关键,则因为晶体管技术的瓶颈。黄仁勋说,“晶体管在过去30年当中,在不断改善CPU的架构。把数据通路做的更宽、更深。架构能够不断的创新,能够执行更多的指令。这些晶体管和这些处理的技术,使得CPU的设计者能够实现更多的并行计算,但是现在晶体管无法变得越来越小,CPU的设计者也无法再通过增加晶体管的数量来增加计算能力,也就无法再进一步推动CPU性能提升了。”

  第三,在垂直领域创新上,NVIDIA宣布将与京东合作。京东正着手推出能够向客户派发包裹的 JDrover,以及能携带 30 公斤包裹的无人机 JDrone。京东的目标是在 2022 年之前建设一支拥有 100 万架无人机的机群。其中将由 NVIDIA Jetson 超级计算平台提供技术支持,且运行 TensorRT以实现导航和无人送货。

  “因为我们能够弥补CPU的不足,能够实现低能耗、高强度的计算。由于GPU强大的计算能力,我们可以将这种计算能力应用到人工智能训练当中,因为研究人员也可以去训练这些深度神经网络,原来可能训练一个神经网络需要几个月,现在可能需要一天,这也是推动了整个深度学习革命式的发展。”这些道理,其实在7年前的黄仁勋心中就十分清晰了,但真正把它推向现实,产生大规模的应用,还是拜这两年人工智能在应用端的爆发所赐。

  黄仁勋认为,现在有两个力量在推动未来计算领域的未来,第一个重要的因素就是:摩尔定律的终结。

  很多人说,是人工智能成就了NVIDIA的第二次腾飞,可是,如果没有7年前毅然决然的转型,自然也不会有NVIDIA今天的成就。在人工智能时代,NVIDIA已经做好了赋能者的角色,绿巨人还将面对更伟大的未来。返回搜狐,查看更多

  在中国,不仅有互联网公司,更有大批围绕互联网+策略飞速成长的科技公司,他们在全球科技领域的地位不断提升,也让NVIDIA加强了与中国公司的合作。

  早在1999年就发明了GPU的NVIDIA,如今正面对最好的时代。7年前,黄仁勋开始意识到人工智能对于未来人类社会的巨大影响力,他不止一次地对深度学习投注巨大的期待。而在2016年,NVIDIA正式将定位转向成为“世界上伟大的人工智能公司”。

  随着NVIDIA的水涨船高,每年的GTC也变得异常火热,同时CUDA的开发人员,在过去5年里,已经超过了65万,增长了14倍。可见,围绕GPU的开发生态也处于爆发式的增长中,尤其在中国市场,因为互联网行业的高速腾飞,让NVIDIA逐渐将重点的产品发布和目标市场投入到了中国。

  首先,中国的互联网三巨头BAT也成为了人工智能的先行者。如黄仁勋所说,“中国的最顶级的云服务提供商:阿里云、百度和腾讯这三家公司,对人工智能做了巨大投资,而且有着巨大的深度学习的能力的三家公司,我们已经合作了一段时间”。

  这是一款划时代的产品。因为,搭配NVIDIA最新GPU的一台服务器顶得上当前150台CPU 服务器。换个角度来说,采用GPU加速技术的一个数据中心所开展的推理工作相当于 13个仅采用CPU的数据中心,这是多么巨大的性能提升,通过TensorRT的大幅度加速,服务提供商能够以经济实惠的成本部署这些计算密集型人工智能工作负载。

  正如黄仁勋在9月26日的GTC CHINA上所说,“我们不会做那些每一次好一点点的通用性的处理器,而是要做在一些专门的领域,性能极好的处理器”,正是这种专注和追求完美的决心,让NVIDIA在今天这个时代更显得锋芒毕露。

  比如在这一次的GTC上,NVIDIA发布了TensorRT3 AI推理软件。该软件能够在生产环境中运行经过训练的神经网络。这款新软件能够大幅提升从云端向终端设备(包括无人驾驶汽车和机器人)的推理性能,能并降低成本。

  从这些不同维度上,NVIDIA与中国企业产生的交集,可以看出NVIDIA正在不断加强在中国市场的投入,通过AI的技术认知来帮助中国企业成长,同时以不断创新的产品,持续引领AI的时代来临。

  第四,NVIDIA将投入中国初创企业的培养计划。黄仁勋说,“我们有一个平台叫创始计划,我们和初创企业合作,支持他们努力,共同促进初创企业的工作,也希望打造下一代伟大公司。NVIDIA的创始计划覆盖1900家深度学习初创企业,其中300家是中国企业,覆盖的领域也很广泛,从交通、健康医疗到金融服务、消费者服务、无人机、制造、机器人等。”

  是GTC CHINA,还是那片绿色的海洋,依旧是那身黑色的皮装,黄仁勋就像是一枚“绿巨人”的符号,成为了人工智能海洋中最亮的那颗星。

  实际上,这并非是他一个人的看法,早在2015年起就开始有很多关于摩尔定律即将失效的讨论,而到了2016年这种趋势已经变得越来越明朗。过去50年,摩尔定律是整个计算机行业最重要的定律,它其实是一个预言:每两年微处理器的晶体管数量都将加倍——意味着芯片的处理能力也加倍。

  这些合作的意义在于:NVIDIA通过与中国科技公司的合作,可以将AI计算平台应用于交通行业、健康医疗、金融服务、各个行业,实现对中国行业的AI赋能。

  值得一提的是,TensorRT3也是造成GPU优于谷歌推出的TPU的一个核心因素。如黄仁勋所说,“正是因为我们有TensorRT 3,加上GPU的架构又是完全灵活和可编程的,所以我们可以支持世界上任何一种人工智能框架。所以GPU对比TPU,就像是智能手机和普通手机的区别那样明显。”

  全世界有很多公司,在中国也是这样,他们还用不了云的原因是他们需要进行控制,控制他们自己的AI基础架构,他们数据太多,或者有些是处于隐私、安全的考虑,使得它们没有办法用云。但是他们希望用自己专门的AI技术架构。

  另一项受人关注的细节则是Tesla V100开始在中国云服务提供商和OEM伙伴中大量采用,这是一个明显的进步。按照NVIDIA披露的信息看,目前阿里云、百度和腾讯均已在其云服务中部署Tesla V100GPU加速器。另外,包括华为、浪潮和联想在内的中国顶尖OEM均已采用NVIDIA的HGX服务器架构并使用TeslaV100 GPU来构建新一代加速数据中心。