为了应对运行深度学习算法和其他高负载人工智能应用程序所带来的挑战,有关硬件基础设施的新解决方案不断涌现。 当统计和人工智能技术的集合预示着一个自动预测分析的新时代到来时,你所处的位置将决定你应该做出的选择。 深度学习软件推动了新型的分析程序,通过使用大型的数据集,反复生产学习预测可能的结果。虽然该方式有些出乎人的意料,但选择该种方式确实经历了较长时间的酝酿。
深度学习是一个更新型的机器学习过程,进一步讲,像是一个新的神经网络——人工智能的一种早期形式,通过仿真模拟人类大脑神经元活动,衡量输出并建立语意的连接集合。 深度学习软件的标志是多处理层的使用。这些层的创建遵循等级关系,较高层逐渐的“学习……
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
为了应对运行深度学习算法和其他高负载人工智能应用程序所带来的挑战,有关硬件基础设施的新解决方案不断涌现。
当统计和人工智能技术的集合预示着一个自动预测分析的新时代到来时,你所处的位置将决定你应该做出的选择。
深度学习软件推动了新型的分析程序,通过使用大型的数据集,反复生产学习预测可能的结果。虽然该方式有些出乎人的意料,但选择该种方式确实经历了较长时间的酝酿。
深度学习是一个更新型的机器学习过程,进一步讲,像是一个新的神经网络——人工智能的一种早期形式,通过仿真模拟人类大脑神经元活动,衡量输出并建立语意的连接集合。
深度学习软件的标志是多处理层的使用。这些层的创建遵循等级关系,较高层逐渐的“学习”低层的含义,形成更为抽象的概念。
在这个过程中,使用了新的组合算法,在识别图像、语音、文本模式等领域,此类算法取得了让人满意的成果。这些数据类型迄今为止处于企业计算的边缘领域,但这种情况正在改变。
机器学习和深度学习,通常可以交替使用
区分机器学习和深度学习并不总是那么重要,甚至对于那些沉浸在AI中的人也是如此。这两个术语经常可以互换,比如最近在波士顿举办的2016年深度学习峰会上,这两个术语就经常被交替使用。
“对这两个术语做明确区分并没有什么实际价值,”软件供应商AiCur的首席科学家,同时也是会议组织者之一的Alejandro Jaimes说道,“实际上,深度学习的算法是一个集合,这个集合包含了之前已经被发现的一系列解决相关问题的算法。”
某些因素推动深度学习软件逐渐成为一种开源的技术,Jaimes 说道。深度学习算法集合在某些领域被认为是非常有效的,如图像识别,它已成为人工智能社区中共享的模型。接下来,这些模型正在其他任务领域被测试和调整。
企业使用大规模机器学习的最佳范例,包括亚马逊,Netflix,Twitter和Facebook——来自这些企业的研究人员在会议上讨论了实验策略。这项新技术可以帮助这些公司辨别活跃用户,分析用户生成的数据。
峰会上,Facebook公司的研究工程师Andrew Tulloch表示,Facebook几乎从一开始就使用了机器学习。机器学习涉及的领域包括语言技术,排名,图像和视频的理解等,Andrew说道。
深度学习的基础设施问题
对于大多数标准来说,机器学习的负担都很繁重。Tulloch 说道,Facebook每天服务于200万的广告商;每天有数万亿广告参与排名,公司每天要做4.14亿次语言翻译。
这给人的印象十分深刻,但我们还没有进入免费午餐的时代。在如此大量的数据上以如此迅猛的速度完成机器学习后台计算,这给计算基础设施带来了巨大的挑战,Tulloch 也承认这一点。
“很多挑战归结为如何让处理变得更快,让处理规模更大,”他说。Tulloch看到的是更快的算法和更深层的处理能力,但是这些对于硬件集群的能力来说是一个不小的挑战。
事实上,在芯片层面,对于机器学习,已经涌现了很多产品。商用CPU最近已经成为大数据发展不可或缺的一部分,但对于一些追求更多层次的公司,它们可能不是最好的选择
和其他公司一样,Facebook一直在研究图形处理单元(gpu),以解决机器学习的需求。其他公司正在尝试专门设计的现场可编程门阵列(fpga),为深度学习软件提供强有力的支持。
最近谷歌披露,它已经创建了完整的定制应用程序——适用于集成电路硬件,此类应用程序用于推动Google密切关注的TensorFlow机器学习技术,该技术目前是开源软件,可供任何人使用。
谷歌称其设备为TPU,Tensor处理单元,它已经被用于公司的RankBrain搜索和AlphaGo游戏项目。
现在,我们还不了解具体细节,但相对于其他处理技术来说,该芯片架构似乎采取宽松的数学精度方法。
如今的高精度gpu和cpu添加了不必要的处理开销,降低精度适用于机器学习这是很多人的看法,包括Google TPU 设计团队。顺便说一下,谷歌似乎并不太担心它使用机器学习,而其他人会则使用深度学习。
无论CPU, GPU,FPGAs还是TPU是否为深度学习应用程序铺平了道路,似乎利用商业硬件实现大数据已经陷入僵局,大数据供应商和用户必须解决这个问题。
翻译
TechTarget特邀编辑。北京邮电大学计算机科学与技术专业硕士。熟悉软件开发流程,对系统管理,网络配置,数据库应用等方面有深入的理解和实践经验。现就职于IBM(中国)投资有限公司,从事IBM服务器相关软件的开发工作。业余时间喜欢游泳登山,爱健身,喜欢结交朋友。
相关推荐
-
MicroStrategy 2019平台吹捧“零点击”分析
近日BI供应商MicroStrategy公司推出MicroStrategy 2019平台,他们希望该产品将在分 […]
-
Tibco分析功能在Spotfire X得以升级
Spotfire X是最新版本的Tibco分析和数据可视化平台,其中整合了更多人工智能和机器学习功能,可为用户 […]
-
华为丁耘:以生态和AI使能品质宽带,突破商业边界
近日,第五届全球超宽带高峰论坛在瑞士日内瓦开幕。华为常务董事、运营商BG总裁丁耘在主题演讲中表示,“全球超宽带 […]
-
利用人工智能招聘可帮助寻找最优秀求职者
很多人担心人工智能会抢走人类饭碗,从而给劳动力市场带来影响,但至少有一项工作很少人担心会被机器人取代,即就业面 […]