正在阅读:2015年Facebook在人工智能领域有何大动作?

2015年Facebook在人工智能领域有何大动作?

2016-01-04 09:03:50来源:雷锋网 关键词:Facebook人工智能Torch阅读量:33084

导读:今天,黑匣想跟大家一起回顾2015年的Facebook,看看这家世界排名的照片分享站点在这一年里是如何在人工智能领域布局的。
  【工控中国 名气在线】12月初,全世界的人们都被一位新晋父亲刷屏了,他就是Facebook总裁MarkZuckerberg。为庆祝女儿出生,Zuckerberg与妻子承诺将他们持有的Facebook99%股份(约450亿美元)捐赠给慈善机构,用意发展人类潜能和促进平等。这则消息引起无数网友的惊呼和赞同。

今天,黑匣想跟大家一起回顾2015年的Facebook,看看这家世界排名的照片分享站点在这一年里是如何在人工智能领域布局的。

共享:开源深度学习工具Torch

Torch是一个从2002年就开始存在的开源库,它也是一个广泛支持机器学习算法的科学计算框架。它可以协助机器学习技术开发工作,包括谷歌、推特和英特尔等公司都在研究中对其广泛使用。
    
2015年1月,Facebook开源了一些用于在Torch上更快速地训练神经网络的模块,这些模块合称为fbcunn,它们“比默认模块快得多”。此前,Nvidia发布了cuDNN,这是一个基于CUDA的库,用于深度神经网络。然而,Torch主要面向卷积神经网络(convolutionalnets),针对GPU做了优化,构建在Nvidia的cuFFT库之上。其中包括:

使用FFT加速卷积的空间卷积模块

用于并行化多GPU上的训练数据和模型的容器

FFT/IFFT的包装器

一个更快速的临时卷积层(比cuDNN快1.5到10倍)

用于神经语言模型和单词嵌入的查找表

训练所使用的HierarchicalSoftMax模块使用了大量的分类数据

Facebook基于《FastTrainingofConvolutionalNetworksthroughFFTs》这篇论文中的想法构建了这些模块的。据称,与cuDNN相比,在卷积核较小的情况下(3x3),fbcunn的速度提升可达1.84倍;而在卷积核较大的情况下(5x5),速度提升可达23.5倍。实行速度大大加快,可以帮助科研人员在更短的时间内开发更大规模的神经网络。

通过开源Torch,Facebook希望推动整个深度学习领域的发展。

 深度:开发人工智能系统
我要评论
版权与免责声明:

凡本站注明“来源:智能制造网”的所有作品,均为浙江兴旺宝明通网络有限公司-智能制造网合法拥有版权或有权使用的作品,未经本站授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:智能制造网”。违反上述声明者,本站将追究其相关法律责任。

本站转载并注明自其它来源(非智能制造网)的作品,目的在于传递更多信息,并不代表本站赞同其观点或和对其真实性负责,不承担此类作品侵权行为的直接责任及连带责任。如其他媒体、平台或个人从本站转载时,必须保留本站注明的作品第一来源,并自负版权等法律责任。如擅自篡改为“稿件来源:智能制造网”,本站将依法追究责任。

鉴于本站稿件来源广泛、数量较多,如涉及作品内容、版权等问题,请与本站联系并提供相关证明材料:联系电话:0571-89719789;邮箱:1271141964@qq.com。

不想错过行业资讯?

订阅 智能制造网APP

一键筛选来订阅

信息更丰富

推荐产品/PRODUCT 更多
智造商城:

PLC工控机嵌入式系统工业以太网工业软件金属加工机械包装机械工程机械仓储物流环保设备化工设备分析仪器工业机器人3D打印设备生物识别传感器电机电线电缆输配电设备电子元器件更多

我要投稿
  • 投稿请发送邮件至:(邮件标题请备注“投稿”)1271141964.qq.com
  • 联系电话0571-89719789
工业4.0时代智能制造领域“互联网+”服务平台
智能制造网APP

功能丰富 实时交流

智能制造网小程序

订阅获取更多服务

微信公众号

关注我们

抖音

智能制造网

抖音号:gkzhan

打开抖音 搜索页扫一扫

视频号

智能制造网

公众号:智能制造网

打开微信扫码关注视频号

快手

智能制造网

快手ID:gkzhan2006

打开快手 扫一扫关注
意见反馈
我要投稿
我知道了