本篇文章主要介绍了"谷歌工智能开源项目Tensorflow预示着硬件领域的重大变革",主要涉及到索引,创业方面的内容,对于产品设计感兴趣的同学可以参考一下:
谷歌宣布将其最重要的创新项目之一 —— 人工智能引擎 ——作为开源项目发布到网上供大家免费使用,这展示了计算...

谷歌宣布将其最重要的创新项目之一 —— 人工智能引擎 ——作为开源项目发布到网上供大家免费使用,这展示了计算机软件行业正进行着什么样的变革。
最近,互联网巨头们接二连三地将自己线上核心业务所用的软件开源。项目开源加快了技术发展的进程。随着人工智能引擎TensorFlow的开源,谷歌能以各种方式为公司范围之外的机器学习研究提供支持,这些研究成果也将反馈给谷歌。
不过谷歌的人工智能引擎也反映了当今计算机硬件行业的发展趋势。在谷歌内部,处理图像识别、语音识别和语言翻译等任务时,TensorFlow依赖于配备图像处理单元(GPU)的机器,和被用于渲染游戏图像的芯片等,但对其它的任务也擅长。它对这些芯片的依赖比想象中的更多。
根据负责谷歌AI项目的工程师Jeff Dean的说法,谷歌不仅用GPU训练其AI服务,而且还运行这些服务产品 —— 将它们植入用户手中的智能电话。
那是一次重大的转变。目前,Facebook在其庞大的计算机数据中心里用GPU训练人脸识别模型,但在为用户提供服务时 —— 真刀实战地在社交网站上识别人脸 —— 还是使用传统的处理器,或者CPU。Facebook的CTO Mike “Schrep” Schroepfer近日在公司总部举行的一次简短的记者见面会上指出,这种基本配置是目前的行业标准。但谷歌为了追求更高层次的效率,某些时候在数据中心里GPU既用来训练AI模型,又用来执行模型。谷歌也并不是踽踽独行。中国搜索引擎巨头百度也正在搭建一套类似的AI系统。“这是一次巨大的模式变革”,百度首席科学家Andrew Ng说道。
这一变革对于专注于GPU的芯片巨头NVIDIA来说是件好事。而且这也是世界最大的芯片制造商Intel产品的空白区。Intel不生产GPU。一些互联网企业和研究院开始关注可编程逻辑阵列FPGA了,将它作为AI领域的GPU替代品,并且Intel最近收购了一家专门生产可编程芯片的公司。
AI在全球的在线服务业务中扮演了越来越重要的角色 —— 备选芯片架构在AI中的地位也越来越重要。目前,在我们提供线上服务的计算机数据中心里已经如此了,若干年内,同样的现象也将会在移动设备上出现,因为我们使用的服务其实是相同的。
深度学习实践
在谷歌、Facebook、微软、百度等公司,GPU被证明对“深度学习”非常有效,因为它可以并行处理许多小数据集。深度学习依赖于神经网络 —— 一种模拟人类大脑中神经元的系统 —— 这些网络是用来快速分析大量的数据。举个例子,为了教会神经网络识别一只猫,你就需要输入无数张猫的图像。GPU擅长处理这类任务。另外,它们的能耗也没有CPU这么高。
但是,这些公司在实际应用中使用深度学习技术时 —— 比如识别猫的手机App —— 这个App是由运行在CPU上的数据系统驱动的。根据在百度AI团队负责高性能计算系统的Bryan Catanzaro介绍,这是因为GPU只在持续不断输入数据的时候效率才高,而通常用来驱动手机App的数据服务器软件并不以这种方式往芯片传输数据。通常情况下,当收到手机App发来的请求后,服务器每次处理一个请求。Catanzaro解释道,如果你使用GPU分别处理收到的每个请求,“很难保证GPU有足够多的任务,让它能够有效运行。GPU从未真正发挥出作用。”
就是说,如果在执行环节你能不断地给GPU传入数据,那么它的效率比CPU高得多。百度正在其新的AI平台做这方面尝试。简单说来,就是请求发送到数据中心,然后将多个请求打包传入GPU。“我们打包这些请求,不再让处理器每次处理一个请求,而是每次处理多个请求,”Catanzaro说道。“别让GPU闲下来。”