- 
                  
                                       AIX Exchange携手币安生态矩阵,揭幕“Web3版纳斯达克”发布时间:2025/10/23 10月24日20:00,全球知名区块链媒体非小号(Feixiaohao.ai)、TalkingWeb3将携手AIXExchange和全球百大KOL举办华语区线上首秀特别直播,正式揭开“Web3版纳斯达克”的序幕。本次活动将在X、币安广场、币安Live、火... 
- 
                  
                                       撒钱十个亿,只做真公益!振东制药诠释现代公益新范式发布时间:2025/06/11 如果说慈善事业是企业责任感的一个缩影。那么振东制药的慈善“侧写”便是大爱无疆。山西振东健康产业集团自太行山深处诞生,稳扎稳打、守正创新,跻身中国药企中流砥柱行列。引导旗下公益扶贫办凝聚共识、加强合作... 
- 
                  
                                       创客匠人联合主办第二届中国心理学应用发展大会,深耕“AI+心理学”应用发布时间:2025/05/30 导语: 2025年5月24日,第二届中国心理学应用发展大会在杭州水博园盛大开幕。作为联合主办方,创客匠人通过“AI+心理学应用”圆桌论坛和“心理人的破局发展”工作坊两大核心活动,为3000余名参会者带来前沿的数字化解决方... 
- 
                  
                                       纳斯达克‖飞兔商联启航全产业链聚合生态重构行业格局发布时间:2025/05/27 在互联网行业爆发式增长的浪潮中,贵州飞兔商联云信息技术有限公司(以下简称“飞兔商联”)以“科技+线上+线下”三位一体的合伙人创新模式,成为资本市场瞩目的焦点。作为中国互联网全产业链聚合生态的构建者,公司... 
- 
                  
                                       浑水协助Wolfpack做空爱奇艺(IQ.US) 看空报告全文来了发布时间:2020/04/08 本文来源“腾讯网”。 划重点:1.两家中国广告公司向我们提供了爱奇艺(IQ.US)后端系统的数据,这些数据显示,从2019年9月开始,爱奇艺的实际移动DAU比该公司在2019年10月宣称的1.75亿平均移动DAU低了60.3%。2.大约3... 
- 
                  
                                       华尔街大佬巴鲁克:特斯拉(TSLA.US)目标股价达600美元,仍有18%上行空间发布时间:2020/04/08 本文来自“腾讯证券”。 在券商杰富瑞(Jefferies)将特斯拉评级从“持有”上调到“买入”后,特斯拉(TSLA.US)在周一收盘上涨逾7.5%。上周五,特斯拉也因公司第一季度业绩强劲而迎来上涨。数据显示,该公司第一季度共... 
- 
                  
                                       不满足于流媒体业务,亚马逊也要开始做游戏了发布时间:2020/04/08 本文来源“36氪”。为了在统治数字娱乐的战役中开辟新战线,Amazon(AMZN.US)正在投入数亿美元以成为视频游戏的领先制作商和发行商。由于卫生事件的影响数度推迟之后,这家互联网巨头表示,打算在5月发布其首款原创... 
- 
                  
                                       刘强东“熔断”,徐雷成为京东的新“保险丝”发布时间:2020/04/08 本文来自“盒饭财经”。公共卫生事件笼罩世界,全球经济遭遇重创,金融市场难以幸免,“熔断”一词频繁走入人们视野中。 作为在美股上市的企业,京东(JD.US)最近的日子也不太好过。瑞幸造假事件曝出后,京东“二号人... 
微软的CodeBERT提取公共GitHub存储库以帮助您查找代码
发布时间:2020/02/24 要闻 浏览次数:907
 
大型的经过预先训练的语言模型改进了一系列自然语言处理任务的最新技术,主要是因为它们能够在无需监督的情况下从文本中学习上下文表示。在预印本论文中,Microsoft Research Asia的一组研究人员利用它的优势创建了一个系统-CodeBERT-用于编程语言(例如Python,Java,JavaScript等),以支持自然语言理解任务(例如代码搜索)和生成任务(例如代码文档生成)。
CodeBERT(“ BERT”的首字母缩写,指Google用于自然语言处理的BERT架构),建立在多层双向Transformer神经框架上。与所有深层神经网络一样,变形金刚包含排列在互连层中的神经元(数学功能),这些层传输来自输入数据的信号并缓慢调整每个连接的突触强度(权重)。这就是所有AI模型提取特征并学习进行预测的方式,但是Transformers的独特之处在于,每个输出元素都连接到每个输入元素。实际上,它们之间的权重是动态计算的。
在预训练阶段,研究人员向CodeBERT提供了两个带有特殊分隔符的段:(1)自然语言文本和(2)某种编程语言的代码。该模型使用双峰数据和单峰数据进行训练,双峰数据是指自然语言代码对的并行数据,单峰数据是指没有成对自然语言文本的代码。
培训数据集包含从公共GitHub存储库中捕获的数据点-特别是包含Python,Java,JavaScript,PHP上的210万个双峰数据点(具有成对文档的单个函数)和640万个单峰代码(无成对文档的函数)的数据集。 ,Ruby和Go。他们先对CodeBERT进行微调,然后再在CodeSearchNet中查找代码,CodeSearchNet是GitHub与Weights&Biases合作发布的开源数据集,并为预训练步骤中未遇到的代码生成文档。
研究人员说,CodeBERT在自然语言代码搜索和代码到文档生成方面都达到了最先进的性能。在未来的工作中,他们计划研究更好的一代和更复杂的神经体系结构,以及与新一代有关的学习目标。






