本文作者:sukai

gpu编程语言(gpu编程指南)

sukai 04-27 30

  一年一度的GTC大会,最受人关注的无疑是NVIDIA创始人兼CEO黄仁勋的KeyNote环节。

  和往年一样,在GTC 2016上,黄仁勋依然保持着“黄氏Style”,穿着硅谷公司老板们不太常穿的皮衣现身,且在长达2个多小时的演讲中,幽默不断,引得场下观众的阵阵掌声。

  其实,黄仁勋表现得如此的自信,背后最重要的原因是NVIDIA在2016财年,全年收入创下50.1亿美元的新记录,同比2015财年的46.8亿美元增长了7%。

  与此同时,NVIDIA在纳斯达克的股价,也从2年前最低的16.79美元,增长到如今最高的36.15美元,增幅高达53.55%。

  可以说,NVIDIA如今在涉足的所有领域中,都保持着不错的增长,包括游戏业、可视化领域、数据中心以及汽车等等市场。

  但最关键的是,凭借多年来在深度学习领域的广泛布局和长期投入,让NVIDIA成为了目前市场上最为炙手可热的硅谷芯片公司。

  那么,为何NVIDIA能成为深度学习领域中的重要推手?在这其中,究竟NVIDIA做了哪些投入和布局呢?接下来,让我们通过GTC 2016大会来“一窥全豹”吧。

  制约AI发展的“三座大山”

  我们知道,机器学习是人工智能(AI)发展的核心,即机器通过算法对大量经验数据的分析总结规律来对未来进行智能预测。

  2015年是人工智能发展令人惊讶的一年

  主要包括三个方面:学习的方式即算法;学习的样本即经验数据,对应的是大数据的积累;学习的能力,对应的是计算机的运算能力。

  过去,人工智能相对发展缓慢,重要的原因即在上述三个领域一直无法实现突破。换句话说,大量的数据积累、计算机的运算能力、缺乏有效的算法是制约人工智能发展的“三座大山”。

  但这种情况近年来得到了非常大的改善,主要得益于几个方面的原因:

  第一,互联网、移动互联网乃至物联网产生的大数据,解决了人工智能的数据瓶颈,极大拓展了算法事前训练的样本容量,提高了算法的准确率。

  第二,GPU性能的快速提升和GPU加速技术应用于机器学习,解决了计算机并行计算的运算能力不足的难题,提供了人工智能发展的硬件基础。

  第三,数据量和运算能力的突破也带动了算法的进步,其中深度学习算法的出现,将人工智能的发展带上了一个新的高度。

  所谓深度学习算法,就是用多层神经元构成的神经网络,以达到机器学习的功能。这些多层的电脑网络像人类大脑一样,可以收集信息,并基于收集到的信息产生相应的行为。

  我们都知道大脑的复杂程度是不言而喻的,因此深度学习所构建的神经网络也相当庞大,运行过程中需要海量的计算能力。可以说,深度学习背后,是建立在海量计算的基础上。

  NVIDIA成深度学习重要旗手

  同样,作为深度学习研究技术的平台型厂商,NVIDIA起到的作用同样值得一提,我们可以从软硬件两个方面角度来看:

  DGX-1是首款专为深度学习而设计的系统

  首先是NVIDIA针对深度学习的SDK做了一系列的创新,特别是CUDA技术,它既是一种编程语言,也是一个全新算法架构。

  这个架构可以使用GPU来解决商业、工业以及科学方面的复杂计算问题,从而给大规模的数据计算应用提供了一种比CPU更加强大的计算能力。

  在最新的CUDA 8版本中,NVIDIA可以让开发者直接使用Pascal一系列强大的全新特性,包括统一内存和NVLink。

  该版本还包括全新的图表分析库nvGRAPH,后者可用于机器人路径规划、网络安全和物流分析,将GPU加速的应用扩展到大数据分析领域。

  举例来说,过去图像识别系统领域的识别率不高,错误率超过四分之一。但自2012年开始应用CUDA之后,这一错误率大幅降低了一半。

  在著名的ImageNet图像分类识别测试中,百度、微软和谷歌已将这一错误率降到了5%左右,接近甚至超越了人类的水平。

  其次是NVIDIA在GPU上的创新,使得运算能力大幅增强。我们知道,CPU由专为顺序串行处理而优化的几个核心组成;但GPU则由数以千计的更小、更高效的核心组成,这些核心专为同时处理多任务而设计,因此GPU非常适合深度学习平台的应用。

  例如,在GTC2016上发布的NVIDIA Tesla P100 加速器就是典型代表。相比前代Maxwell解决方案,基于Pascal的 Tesla P100 解决方案在神经网络训练方面将性能提升12倍。

  此外,Pascal架构将处理器和数据封装到一起,实现了前所未有的计算效率。包含HBM2的芯片—晶圆—基底 (CoWoS) 是内存设计的创新方法,相比 Maxwell 架构提供了3倍的显存带宽,高达720GB/s。同时,全新的半精度指令则为深度学习提供了超过21 Teraflops的峰值性能等等。

  不仅如此,最新发布的DGX-1也是NVIDIA首款专为深度学习而设计的系统,具备充分集成的硬件、深度学习软件以及开发工具,让开发者能够快速而轻松地进行开发。它是一款全套系统,包含新一代GPU加速器,吞吐量相当于250台x86 服务器。

  黄仁勋在GTC2016大会上透露的数字也反映了这一趋势。在最近三年的TOP500榜单中,96%的新系统使用了NVIDIA的加速器,加速型系统的数量更是达到了2013年的两倍。

gpu编程语言(gpu编程指南)

  另外,跟2012年相比,CUDA开发者人数也成长到了4倍,NVIDIA在不断成长,对深度学习领域的影响也越来越大。

  深度学习融入下一波科技浪潮

  众所周知,过去深度学习的应用重点主要在图像识别、分类和语音识别智能化的方向上。但从GTC 2016上了解的情况可以看到,深度学习已经拓展到了更多的领域。

  NVIDIA DRIVE产品已被汽车制造商用来强化、训练车载电脑系统

  我们知道,大数据、GPU和深度学习革新的算法,掀起了现代人工智能的革命。目前,由NVIDIA GPU提供加速,提供基于人工智能服务的厂商,大约有三分之一都来自中国。

  据阿里巴巴资深总监华先胜介绍,近年来深度学习技术在图像分析和识别领域得到了广泛应用,图像的描述(特征)有了非常大的进步,而阿里的大量商品图像数据和用户数据,包括用户使用反馈数据的挖掘和回流,也使得电商平台搜索结果的相关性不断提升,“拍立淘”就在这种背景下诞生。

  华先胜的团队的目标就是设计并实现不需要“人工标注训练数据”就能产生识别任意目标的图像识别系统。他们接下来希望攻克的,是任意图像的语义相同或相似图的检索,因此就需要和NVIDIA展开深入的合作。

  其实,不仅是电商领域,人工智能领域目前还发展到了医疗领域。据了解,NVIDIA已经成为麻省总医院临床数据科学中心的技术合作伙伴,NVIDIA将利用中心现有的100亿份医学影像,进行深度学习训练,并用于放射科的医疗研究。

  同时在自动驾驶领域,在这方面NVIDIA取得的成绩是有目共睹的。可以说,借助深度学习技术,汽车能够识别、感知周围情况并做出正确的路径规划,并学会如何解决日常驾驶中的难题等等。

  目前,NVIDIA DRIVE的产品已被汽车制造商用来强化、训练他们的车载电脑系统,使其具备识别道路情况的能力。

  具体来说,NVIDIA DRIVE包含DRIVE CX和DRIVE PX两套系统。DRIVE CX是一台和车载音响大小相当的数字座舱电脑,为汽车带来漂亮的数字仪表盘和车载信息娱乐系统;而DRIVE PX则更像是一个智能中枢,目前已被汽车制造商用于测试其自动驾驶汽车的原型产品。

  总结一下,正如凯文?凯利在《失控》中写到:“最深刻的技术是那些看不见的技术,他们将自己编织进日常生活的细枝末节之中,直到成为生活的一部分。”

  在我看来,深度学习乃至人工智能无疑将成为人们未来生活中的一部分。同时,在NVIDIA的推动之下,深度学习俨然已经融入了下一波的科技浪潮的创新之中。更关键的是,作为深度学习“旗手”的NVIDIA给了外界更多的想象空间,这非常让人值得期待。

  【申耀的科技观察】由资深媒体人申耀创办并运营,拥有13年媒体工作经验,主要致力于消费、企业级及渠道类内容的观察和思考。

  目前覆盖的渠道包括:微信公众号、QQ公众号、百度百家、今日头条、腾讯新闻、天天快报、搜狐新闻等。

阅读
分享