在训练深度学习模型时使用更多的GPU并不总是能带来更快的结果,但是IBM的新软件表明可以做到这一点。 GPU很适合深度学习,因为它们可以快速地收集大量数据,这对于训练数据饥饿模型很重要,但与此同时也存在一些问题。 将更多的图形处理单元(GPU)添加到深度学习平台不一定会导致更快的结果。虽然单个GPU可以快速处理数据,但是它们的计算速度可能比较慢,这些GPU可能会将其计算量传达给其他GPU,这限制了用户可以利用多个服务器来并行化作业的程度,并且限制了深度学习模型的可扩展性。
IBM最近解决了这个问题,提高了深度学习的可扩展性,并为它的深度学习平台编写了代码,以改善GPU之间的通信。 IBM的系统……
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
相关推荐
-
AI就是“大数据+机器学习”?答案是否定的
人工智能(AI)应用程序不是一个单一的工具,它将各种工具和技术集合在一起从而产生更加高级的功能。
-
【对话Teradata高管】人工智能(AI)大势所趋 “黑盒” 制肘深度学习
Teradata天睿公司最近在2017 Teradata全球用户大会上分享了一项最新人工智能(AI)现状的调查结果。
-
大数据时代 成功的三重境界
当数据蜂拥而至,你看到的是机遇还是挑战?无论是对传统行业还是新型行业来说,大数据是一种手段,而不是目的,如何实现数据的价值是抢占市场先机的关键。成功,来自“数据-分析-价值”三重境界。”
-
丹斯克银行:应用人工智能和深度学习创新侦测复杂欺诈
丹斯克银行正在利用人工智能和深度学习在多个领域来侦测和预防复杂的欺诈,因为这个模式正在不断地学习,所以它的效果越来越好。