6月23日下午消息,百度硅谷人工智能实验室近日发布了一项新的研究成果技术,该技术可以加快深层递归神经网络(RNNs)的训练速度。
该项技术于近日由百度硅谷AI实验室的科学家Jesse Engel在github上发布,Jesse Engel表示,此前已经发表过这项技术的第一阶段研发成果,关注的是Minibatch和存储配置在递归通用矩阵乘法(GEMM)的性能上所发挥的作用。本次发布的第二阶段将重点关注对算法本身的优化。
Jesse在文章中提到,Differentiable Graphs(可微图形)对于计算复杂的衍生工具是一个简单、实用又可视化的工具,同时也可以激发算法的优化。对于需要使用具有明确梯度计算功能框架的研究人员、开发新的迭代算法的研究人员以及开发应用自动分化深度学习框架的研究人员,这项新的技术将更好地提升研发能力。
近年来,随着大数据、大规模计算能力、复杂模型和高效算法的研发深入,用于深度学习的训练数据每年成倍增长,图像达到数千万训练样本、语音达到数百亿训练样本、广告达到数千亿训练样本;而与此同时,多机GPU/CPU分布式计算能力也得到显著加强,模型上则由大型线性模型演进到树模型,可把特征发到不同机器;在算法上,则应用了深度神经网络等分布式算法。深度学习技术正在逐步进入移动互联网应用的各个领域,让移动互联网的产品变得更加智能化和人性化。
未来,该项技术将可以被应用在更多的百度产品上,促进百度深度学习技术的研发及在百度各项应用服务中的应用。
值得一提的是,随着百度硅谷实验室进入稳定研发期,百度硅谷正在前“谷歌大脑之父”吴恩达的带领下,围绕用GPU提升计算效率,处理海量训练数据,语音识别,OCR识别,人脸识别,图像搜索水平等方面进行研究,而作为百度首席科学家,吴恩达本人亲自负责语音识别和无人车技术研发。
公开资料显示,百度于2013年正式成立了深度学习研究院(IDL),2014年5月挖角谷歌大脑之父吴恩达,出任首席科学家并领导百度硅谷研究院工作。