要闻
您现在的位置:首页 > 要闻 > Google通过庞大的语言模型和数据集实现了最新的NLP性能
  • 营销与经营深度一体,巨量引擎助力品牌撬动全渠道增长

    营销与经营深度一体,巨量引擎助力品牌撬动全渠道增长

    发布时间:2024/01/30

    过去十年,中国企业在数字营销上的投入快速增长。根据eMarketer的数据,2023年国内数字广告的投入将达到1361亿美元,增长14.8%。数字营销已经成为品牌方最大的经营成本之一。面对如此巨大的投入,品牌方的管理层...

  • 门窗行业复刻定制家居高光时刻,森鹰窗业上市成起点?

    门窗行业复刻定制家居高光时刻,森鹰窗业上市成起点?

    发布时间:2022/09/25

    据悉,9月26日,森鹰窗业股份有限公司(以下简称森鹰窗业)将举办上市敲钟仪式,正式登陆深交所。 森鹰窗业是目前沪深两市第一家细分行业为“C2032木门窗制造”的上市公司。 这让笔者不禁想起2011年定制家居行业首...

  • 2022年最热高端盘天坛府·九阙成首个“国脉典藏豪宅样本”

    2022年最热高端盘天坛府·九阙成首个“国脉典藏豪宅样本”

    发布时间:2022/07/25

    2022年7月15日“九阙央座,盛赋天坛”《国脉典藏豪宅样本》发布会现场,北京房协秘书长/高品质住宅综合测评中心创始人陈志先生、中国建筑北京设计研究院原副院长/总建筑师董少宇先生、攸克地产/豪宅一号出品人殷苏峰...

  • 杰尼亚集团将成为纽约证券交易所上市公司

    杰尼亚集团将成为纽约证券交易所上市公司

    发布时间:2021/07/20

      2021年7月19日,意大利米兰——享誉全球的意大利奢侈品企业杰尼亚集团(下简称“杰尼亚”“该集团”或者“该公司”)与意威基金Investindustrial七期基金旗下的特殊目的收购公司InvestindustrialAcquisitionCorp.(...

  • 浑水协助Wolfpack做空爱奇艺(IQ.US) 看空报告全文来了

    浑水协助Wolfpack做空爱奇艺(IQ.US) 看空报告全文来了

    发布时间:2020/04/08

    本文来源“腾讯网”。 划重点:1.两家中国广告公司向我们提供了爱奇艺(IQ.US)后端系统的数据,这些数据显示,从2019年9月开始,爱奇艺的实际移动DAU比该公司在2019年10月宣称的1.75亿平均移动DAU低了60.3%。2.大约3...

  • 华尔街大佬巴鲁克:特斯拉(TSLA.US)目标股价达600美元,仍有18%上行空间

    华尔街大佬巴鲁克:特斯拉(TSLA.US)目标股价达600美元,仍有18%上行空间

    发布时间:2020/04/08

    本文来自“腾讯证券”。 在券商杰富瑞(Jefferies)将特斯拉评级从“持有”上调到“买入”后,特斯拉(TSLA.US)在周一收盘上涨逾7.5%。上周五,特斯拉也因公司第一季度业绩强劲而迎来上涨。数据显示,该公司第一季度共...

  • 不满足于流媒体业务,亚马逊也要开始做游戏了

    不满足于流媒体业务,亚马逊也要开始做游戏了

    发布时间:2020/04/08

    本文来源“36氪”。为了在统治数字娱乐的战役中开辟新战线,Amazon(AMZN.US)正在投入数亿美元以成为视频游戏的领先制作商和发行商。由于卫生事件的影响数度推迟之后,这家互联网巨头表示,打算在5月发布其首款原创...

  • 刘强东“熔断”,徐雷成为京东的新“保险丝”

    刘强东“熔断”,徐雷成为京东的新“保险丝”

    发布时间:2020/04/08

    本文来自“盒饭财经”。公共卫生事件笼罩世界,全球经济遭遇重创,金融市场难以幸免,“熔断”一词频繁走入人们视野中。 作为在美股上市的企业,京东(JD.US)最近的日子也不太好过。瑞幸造假事件曝出后,京东“二号人...

Google通过庞大的语言模型和数据集实现了最新的NLP性能

发布时间:2019/10/28 要闻 浏览次数:775

 
转移学习,或一种在数据丰富的任务上先对AI模型进行预训练,然后再对另一任务进行微调的技术,已成功地应用于从机器人到对象分类的领域。但是它在自然语言处理(NLP)子领域中具有特殊的希望,在自然语言处理(NLP)子领域中,它产生了多种基准测试方法。为了进一步完善它,谷歌的研究人员开发了一个新的数据集-巨大的干净爬行语料库-以及一个统一的框架和模型,称为“文本到文本转换器”,可以将语言问题转换为文本到文本格式。他们说,在使用有史以来提交给通用语言理解评估(GLUE)基准的最大模型之一进行的实验中,他们在基准上获得了最新的结果,涵盖了问题解答,文本分类等等。
一般而言,训练模型以执行NLP任务涉及确保模型开发出使其能够“理解”文本的知识-知识的范围从低级(例如单词的拼写或含义)到高级(例如大号太大,无法容纳大多数背包。 Google小组研究了一种方法,该方法将文本作为输入并产生新的文本作为输出,并将相同的目标,训练过程和解码过程应用于所考虑的每个任务。
他们编写的通用知识训练语料库中的片段(即上述的“巨大的干净爬行语料库”)来自Common Crawl项目,该项目每个月从网络上刮掉大约20 TB的英文文本。为了过滤出乱码,样板菜单和错误消息,它们仅保留以终端标点符号(句点,感叹号,问号或结束引号)结尾的文本行,同时删除带有明显填充文本和重复项的页面。所得到的集合比大约用于预训练的大多数数据集大了一个数量级,约为750 GB。
研究人员在语料库上训练了几种基于Transformer的模型,以评估其文本到文本方法的有效性。对于初学者来说,“变形金刚”是一种新型的神经体系结构,由Google AI研究部门Google Brain的科学家共同撰写,于2017年发表。与所有深层神经网络一样,它们包含排列在相互连接的层中的神经元(数学功能),这些层传输来自输入数据的信号并缓慢调整每个连接的突触强度(权重)。这就是所有AI模型提取特征并学习进行预测的方式,但是Transformers的独特之处在于,每个输出元素都连接到每个输入元素。它们之间的权重是动态,有效地计算的。
最大的模型包含多达110亿个参数,或进行预测时所需的模型内部配置变量。该小组说,他们对各种语言任务进行了微调,并在GLUE和阅读理解基准SQuAD和CNN / Daily Mail上取得了最新平均分数(89.7)。并在SuperGLUE上进行了测试,该软件包含的任务超出了当前NLP系统的范围,但可以由受过大学教育的演讲者解决,它以89.8的得分几乎与人类表现相当。
团队承认,他们的模型在诸如翻译之类的语言任务中不尽人意,他们将此归咎于特定任务数据的相对缺乏和培训规模的不足。因此,他们提倡研究使用较小的模型实现更强性能的方法,以便将转移学习应用于影响最大的地方。
该论文的合著者写道:“我们的研究得出的令人惊讶的但重要的结果是,较大的模型往往表现更好。” “用于运行这些模型的硬件一直在变得越来越便宜,功能越来越强大,这一事实表明,扩大规模可能仍然是实现更好性能的有前途的方法[Sutton,2019]。但是,在某些应用程序和场景中,总是存在使用较小或较便宜的模型有帮助的情况,例如在执行客户端推断或联合学习时。”

姓 名:
邮箱
留 言: