【
工控中国 名气在线】12月初,全世界的人们都被一位新晋父亲刷屏了,他就是Facebook总裁MarkZuckerberg。为庆祝女儿出生,Zuckerberg与妻子承诺将他们持有的Facebook99%股份(约450亿美元)捐赠给慈善机构,用意发展人类潜能和促进平等。这则消息引起无数网友的惊呼和赞同。
今天,黑匣想跟大家一起回顾2015年的Facebook,看看这家世界排名的照片分享站点在这一年里是如何在人工智能领域布局的。
共享:开源深度学习工具TorchTorch是一个从2002年就开始存在的开源库,它也是一个广泛支持机器学习算法的科学计算框架。它可以协助机器学习技术开发工作,包括谷歌、推特和英特尔等公司都在研究中对其广泛使用。
2015年1月,Facebook开源了一些用于在Torch上更快速地训练神经网络的模块,这些模块合称为fbcunn,它们“比默认模块快得多”。此前,Nvidia发布了cuDNN,这是一个基于CUDA的库,用于深度神经网络。然而,Torch主要面向卷积神经网络(convolutionalnets),针对GPU做了优化,构建在Nvidia的cuFFT库之上。其中包括:
使用FFT加速卷积的空间卷积模块
用于并行化多GPU上的训练数据和模型的容器
FFT/IFFT的包装器
一个更快速的临时卷积层(比cuDNN快1.5到10倍)
用于神经语言模型和单词嵌入的查找表
训练所使用的HierarchicalSoftMax模块使用了大量的分类数据
Facebook基于《FastTrainingofConvolutionalNetworksthroughFFTs》这篇论文中的想法构建了这些模块的。据称,与cuDNN相比,在卷积核较小的情况下(3x3),fbcunn的速度提升可达1.84倍;而在卷积核较大的情况下(5x5),速度提升可达23.5倍。实行速度大大加快,可以帮助科研人员在更短的时间内开发更大规模的神经网络。
通过开源Torch,Facebook希望推动整个深度学习领域的发展。
深度:开发人工智能系统
版权与免责声明:
凡本站注明“来源:智能制造网”的所有作品,均为浙江兴旺宝明通网络有限公司-智能制造网合法拥有版权或有权使用的作品,未经本站授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:智能制造网”。违反上述声明者,本站将追究其相关法律责任。
本站转载并注明自其它来源(非智能制造网)的作品,目的在于传递更多信息,并不代表本站赞同其观点或和对其真实性负责,不承担此类作品侵权行为的直接责任及连带责任。如其他媒体、平台或个人从本站转载时,必须保留本站注明的作品第一来源,并自负版权等法律责任。如擅自篡改为“稿件来源:智能制造网”,本站将依法追究责任。
鉴于本站稿件来源广泛、数量较多,如涉及作品内容、版权等问题,请与本站联系并提供相关证明材料:联系电话:0571-89719789;邮箱:1271141964@qq.com。