新闻
您现在的位置:首页 > 新闻 > 微软开源ONNX运行时模型以加速Google的BERT
  • 第三批专项债六月底发完 项目完成审核

    第三批专项债六月底发完 项目完成审核

    发布时间:2020/04/06

    财政部副部长许宏才4月3日在新闻发布会上表示,今年以来,根据全国人大常委会授权,财政部提前下达了2020年部分新增专项债券额度12900亿元。截至2020年3月31日,全国各地发行新增专项债券1.08万亿元,占84%,发行...

  • 国美零售转型加速 携拼多多“迎战”零售业大考

    国美零售转型加速 携拼多多“迎战”零售业大考

    发布时间:2020/04/06

    随着国内疫情初步得到控制,零售消费市场也在逐渐恢复运转。日前,国务院联防联控机制举办新闻发布会。商务部消费促进司负责人王斌在会上指出,将千方百计促进消费回补和潜力释放,壮大新型消费和升级消费,扩大...

  • 美新冠疫情蔓延,建霖家居等IPO企业受累

    美新冠疫情蔓延,建霖家居等IPO企业受累

    发布时间:2020/04/06

    编者按: 随着疫情蔓延,全球新冠肺炎确诊病例已突破百万,累计死亡超5万例,其中,美国确诊超过23万例,欧洲确诊超过50万例。作为全球经济重要力量的欧美地区,其疫情将对IPO企业产生什么影响? “有一天美国将成...

  • 信托代销哪家强?招行去年赚64亿

    信托代销哪家强?招行去年赚64亿

    发布时间:2020/04/04

    证券时报记者 杨卓卿 随着银行年报密集披露,一些行业巨头代销信托产品的情况也浮出水面。 证券时报记者注意到,“零售之王”招商银行2019年代销的信托产品规模超过3000亿元,借此实现64.32亿元的手续费及佣金收入...

微软开源ONNX运行时模型以加速Google的BERT

发布时间:2020/01/24 新闻 浏览次数:972

 
微软研究院AI今天表示,它计划开源Google流行的BERT自然语言模型的优化版本,该模型旨在与ONNX运行时推理引擎配合使用。在为Bing搜索引擎提供语言表示功能时,Microsoft使用相同的模型来降低BERT的延迟。去年秋天的一篇文章中详细介绍了该模型,该模型“为Bing用户带来了最大的搜索体验改善”。
公司发言人在一封电子邮件中对VentureBeat表示,这意味着开发人员可以使用ONNX Runtime和Nvidia V100 GPU大规模部署BERT,而延迟只有1.7毫秒,这以前只适用于大型科技公司。
微软于2017年加入Facebook,创建了ONNX,以推动跨AI硬件(如半导体)和软件(如机器学习框架)之间的互操作性。经过BERT优化的工具加入了许多ONNX运行时加速器,例如Nvidia TensorRT和英特尔的OpenVINO之一。使用ONNX标准意味着优化的模型可以与PyTorch,TensorFlow和其他流行的机器学习模型一起运行。
这项工作是Azure AI与Microsoft AI and Research之间合作的结果。
“由于BERT模型主要由堆叠的变压器单元组成,因此我们通过将多个基本运算符的关键子图融合到CPU和GPU的单个内核(包括自我注意,LayerNormalization和Gelu层)中来优化每个单元。微软高级程序经理艾玛·宁(Emma Ning)今天在博客中说。
对于微软来说,这是自然语言方面的最新飞跃,但这并不是其使Google的BERT更好的首次尝试。大约一年前,Microsoft AI研究人员还发布了MT-DNN,这是一种基于Transformer的模型,为GLUE语言模型性能基准设定了新的高性能标准。
与VentureBeat谈过2020年机器学习趋势的机器学习顶尖人士称,通过使用基于BERT和MT-DNN等基于Transformer的模型生成文本等任务,自然语言模型取得了进步,这是2019年AI最重要的故事之一。
在Microsoft的其他自然语言开发中,上个月在温哥华的NeurIPS上,Microsoft和浙江大学共享了FastSpeech,该模型旨在提高与人对话的文本到语音模型的性能和速度。在2019年夏季,微软推出了Icecaps,这是一个工具包,可帮助创建具有多个角色的对话式AI助手。