要闻
您现在的位置:首页 > 要闻 > Google开源框架可将AI培训成本降低多达80%
  • 营销与经营深度一体,巨量引擎助力品牌撬动全渠道增长

    营销与经营深度一体,巨量引擎助力品牌撬动全渠道增长

    发布时间:2024/01/30

    过去十年,中国企业在数字营销上的投入快速增长。根据eMarketer的数据,2023年国内数字广告的投入将达到1361亿美元,增长14.8%。数字营销已经成为品牌方最大的经营成本之一。面对如此巨大的投入,品牌方的管理层...

  • 门窗行业复刻定制家居高光时刻,森鹰窗业上市成起点?

    门窗行业复刻定制家居高光时刻,森鹰窗业上市成起点?

    发布时间:2022/09/25

    据悉,9月26日,森鹰窗业股份有限公司(以下简称森鹰窗业)将举办上市敲钟仪式,正式登陆深交所。 森鹰窗业是目前沪深两市第一家细分行业为“C2032木门窗制造”的上市公司。 这让笔者不禁想起2011年定制家居行业首...

  • 2022年最热高端盘天坛府·九阙成首个“国脉典藏豪宅样本”

    2022年最热高端盘天坛府·九阙成首个“国脉典藏豪宅样本”

    发布时间:2022/07/25

    2022年7月15日“九阙央座,盛赋天坛”《国脉典藏豪宅样本》发布会现场,北京房协秘书长/高品质住宅综合测评中心创始人陈志先生、中国建筑北京设计研究院原副院长/总建筑师董少宇先生、攸克地产/豪宅一号出品人殷苏峰...

  • 杰尼亚集团将成为纽约证券交易所上市公司

    杰尼亚集团将成为纽约证券交易所上市公司

    发布时间:2021/07/20

      2021年7月19日,意大利米兰——享誉全球的意大利奢侈品企业杰尼亚集团(下简称“杰尼亚”“该集团”或者“该公司”)与意威基金Investindustrial七期基金旗下的特殊目的收购公司InvestindustrialAcquisitionCorp.(...

  • 浑水协助Wolfpack做空爱奇艺(IQ.US) 看空报告全文来了

    浑水协助Wolfpack做空爱奇艺(IQ.US) 看空报告全文来了

    发布时间:2020/04/08

    本文来源“腾讯网”。 划重点:1.两家中国广告公司向我们提供了爱奇艺(IQ.US)后端系统的数据,这些数据显示,从2019年9月开始,爱奇艺的实际移动DAU比该公司在2019年10月宣称的1.75亿平均移动DAU低了60.3%。2.大约3...

  • 华尔街大佬巴鲁克:特斯拉(TSLA.US)目标股价达600美元,仍有18%上行空间

    华尔街大佬巴鲁克:特斯拉(TSLA.US)目标股价达600美元,仍有18%上行空间

    发布时间:2020/04/08

    本文来自“腾讯证券”。 在券商杰富瑞(Jefferies)将特斯拉评级从“持有”上调到“买入”后,特斯拉(TSLA.US)在周一收盘上涨逾7.5%。上周五,特斯拉也因公司第一季度业绩强劲而迎来上涨。数据显示,该公司第一季度共...

  • 不满足于流媒体业务,亚马逊也要开始做游戏了

    不满足于流媒体业务,亚马逊也要开始做游戏了

    发布时间:2020/04/08

    本文来源“36氪”。为了在统治数字娱乐的战役中开辟新战线,Amazon(AMZN.US)正在投入数亿美元以成为视频游戏的领先制作商和发行商。由于卫生事件的影响数度推迟之后,这家互联网巨头表示,打算在5月发布其首款原创...

  • 刘强东“熔断”,徐雷成为京东的新“保险丝”

    刘强东“熔断”,徐雷成为京东的新“保险丝”

    发布时间:2020/04/08

    本文来自“盒饭财经”。公共卫生事件笼罩世界,全球经济遭遇重创,金融市场难以幸免,“熔断”一词频繁走入人们视野中。 作为在美股上市的企业,京东(JD.US)最近的日子也不太好过。瑞幸造假事件曝出后,京东“二号人...

Google开源框架可将AI培训成本降低多达80%

发布时间:2020/03/24 要闻 浏览次数:641

 
Google研究人员最近发表了一篇描述框架SEED RL的论文,该框架将AI模型训练扩展到数千台机器。他们说,这可以促进在一台机器上以每秒数百万帧的速度进行训练,同时将成本降低多达80%,这可能为以前无法​​与大型AI实验室竞争的初创公司提供公平的竞争环境。
在云中训练复杂的机器学习模型仍然非常昂贵。根据最近的Synced报告,华盛顿大学的Grover专为生成和检测假新闻而设计,在两周的培训中花费了25,000美元。 OpenAI每小时花费256美元来训练其GPT-2语言模型,而Google估计花费了6,912美元来训练BERT,这是一种双向转换器模型,可以为11种自然语言处理任务重新定义最先进的技术。
SEED RL基于Google的TensorFlow 2.0框架,其特点是通过集中模型推断来利用图形卡和张量处理单元(TPU)的架构。为了避免数据传输瓶颈,它使用学习器组件集中执行AI推理,该学习器组件使用来自分布式推理的输入来训练模型。目标模型的变量和状态信息保持本地状态,而观察结果则在每个环境步骤都发送给学习者,并且由于使用了基于开源通用RPC框架的网络库,因此将延迟保持在最低水平。
SEED RL的学习者组件可以扩展到数千个核心(例如,在Cloud TPU上多达2,048个),并且参与者数量(可以在环境中采取的步骤与对模型进行推断以预测下一步行动之间进行迭代)可以扩展多达数千台机器。一种算法-V-trace-预测可从中采样动作的动作分布,而另一种算法-R2D2-根据该动作的预测未来值选择一个动作。
为了评估SEED RL,研究团队在常用的Arcade学习环境,几种DeepMind Lab环境以及Google Research Football环境中进行了基准测试。他们说,他们设法解决了以前尚未解决的Google Research Football任务,并且使用64个Cloud TPU内核实现了每秒240万帧的帧数,这比以前的最新分布式代理提高了80倍。
该论文的共同作者说:“这大大缩短了挂钟时间,并且由于加速器每次操作比CPU便宜几个数量级,因此实验的成本大大降低了,”。 “我们相信SEED RL及其呈现的结果表明,在利用加速器方面,强化学习再次赶上了其他深度学习领域。”