新闻
您现在的位置:首页 > 新闻 > 微软开源ONNX运行时模型以加速Google的BERT
  • 振东制药达霏欣创新推出“内服外治”方案:焕活毛囊新生

    振东制药达霏欣创新推出“内服外治”方案:焕活毛囊新生

    发布时间:2025/07/24

    近年来,随着生活压力加剧、作息不规律及环境因素影响,脱发、白发问题呈现年轻化趋势,成为困扰现代人的普遍健康难题。面对庞大的市场需求,传统单一治疗手段逐渐显露出局限性。近日,专注毛发健康领域22年的达...

  • 和平精英上线具有长期记忆的AI明星队友

    和平精英上线具有长期记忆的AI明星队友

    发布时间:2025/07/14

    《和平精英》六周年新版本限时模式推出的“绝地指挥”玩法,凭借玩家与AI队友组队的创新体验,收获了如潮好评。如今,“绝地指挥2.0”迎来重磅升级!腾讯游戏首位具有长期记忆能力的明星AI队友——“花傲天”正式登场!7...

  • 振东集团的”本草革命”:让中药材跳出药罐子,闯出大健康新天地

    振东集团的”本草革命”:让中药材跳出药罐子,闯出大健康新天地

    发布时间:2025/06/10

    红球纷飞传三晋,大爱无边漫九州。5月25日,由中国红十字会总会主办,山西振东健康产业集团赞助的“红气球挑战赛”(晋中站)在山西省高校新区(山西大学城)鸣笛开赛。该赛事汇聚了来自全国各地及山西大学城高校的...

  • 振东集团:32年慈善长跑背后的“共富密码”

    振东集团:32年慈善长跑背后的“共富密码”

    发布时间:2025/06/03

    在商业与公益的天平上,山西振东健康产业集团选择了后者——即便负债也要坚持的”变态慈善”。这家从太行山走出的民营企业,用32年时间构建起一套独特的公益生态系统,累计捐赠超10亿元,将”与民同...

  • 第三批专项债六月底发完 项目完成审核

    第三批专项债六月底发完 项目完成审核

    发布时间:2020/04/06

    财政部副部长许宏才4月3日在新闻发布会上表示,今年以来,根据全国人大常委会授权,财政部提前下达了2020年部分新增专项债券额度12900亿元。截至2020年3月31日,全国各地发行新增专项债券1.08万亿元,占84%,发行...

  • 国美零售转型加速 携拼多多“迎战”零售业大考

    国美零售转型加速 携拼多多“迎战”零售业大考

    发布时间:2020/04/06

    随着国内疫情初步得到控制,零售消费市场也在逐渐恢复运转。日前,国务院联防联控机制举办新闻发布会。商务部消费促进司负责人王斌在会上指出,将千方百计促进消费回补和潜力释放,壮大新型消费和升级消费,扩大...

  • 美新冠疫情蔓延,建霖家居等IPO企业受累

    美新冠疫情蔓延,建霖家居等IPO企业受累

    发布时间:2020/04/06

    编者按: 随着疫情蔓延,全球新冠肺炎确诊病例已突破百万,累计死亡超5万例,其中,美国确诊超过23万例,欧洲确诊超过50万例。作为全球经济重要力量的欧美地区,其疫情将对IPO企业产生什么影响? “有一天美国将成...

  • 信托代销哪家强?招行去年赚64亿

    信托代销哪家强?招行去年赚64亿

    发布时间:2020/04/04

    证券时报记者 杨卓卿 随着银行年报密集披露,一些行业巨头代销信托产品的情况也浮出水面。 证券时报记者注意到,“零售之王”招商银行2019年代销的信托产品规模超过3000亿元,借此实现64.32亿元的手续费及佣金收入...

微软开源ONNX运行时模型以加速Google的BERT

发布时间:2020/01/24 新闻 浏览次数:1197

 
微软研究院AI今天表示,它计划开源Google流行的BERT自然语言模型的优化版本,该模型旨在与ONNX运行时推理引擎配合使用。在为Bing搜索引擎提供语言表示功能时,Microsoft使用相同的模型来降低BERT的延迟。去年秋天的一篇文章中详细介绍了该模型,该模型“为Bing用户带来了最大的搜索体验改善”。
公司发言人在一封电子邮件中对VentureBeat表示,这意味着开发人员可以使用ONNX Runtime和Nvidia V100 GPU大规模部署BERT,而延迟只有1.7毫秒,这以前只适用于大型科技公司。
微软于2017年加入Facebook,创建了ONNX,以推动跨AI硬件(如半导体)和软件(如机器学习框架)之间的互操作性。经过BERT优化的工具加入了许多ONNX运行时加速器,例如Nvidia TensorRT和英特尔的OpenVINO之一。使用ONNX标准意味着优化的模型可以与PyTorch,TensorFlow和其他流行的机器学习模型一起运行。
这项工作是Azure AI与Microsoft AI and Research之间合作的结果。
“由于BERT模型主要由堆叠的变压器单元组成,因此我们通过将多个基本运算符的关键子图融合到CPU和GPU的单个内核(包括自我注意,LayerNormalization和Gelu层)中来优化每个单元。微软高级程序经理艾玛·宁(Emma Ning)今天在博客中说。
对于微软来说,这是自然语言方面的最新飞跃,但这并不是其使Google的BERT更好的首次尝试。大约一年前,Microsoft AI研究人员还发布了MT-DNN,这是一种基于Transformer的模型,为GLUE语言模型性能基准设定了新的高性能标准。
与VentureBeat谈过2020年机器学习趋势的机器学习顶尖人士称,通过使用基于BERT和MT-DNN等基于Transformer的模型生成文本等任务,自然语言模型取得了进步,这是2019年AI最重要的故事之一。
在Microsoft的其他自然语言开发中,上个月在温哥华的NeurIPS上,Microsoft和浙江大学共享了FastSpeech,该模型旨在提高与人对话的文本到语音模型的性能和速度。在2019年夏季,微软推出了Icecaps,这是一个工具包,可帮助创建具有多个角色的对话式AI助手。