新闻
您现在的位置:首页 > 新闻 > 从黑盒子到白盒子:在人工智能中回收人力
  • 第三批专项债六月底发完 项目完成审核

    第三批专项债六月底发完 项目完成审核

    发布时间:2020/04/06

    财政部副部长许宏才4月3日在新闻发布会上表示,今年以来,根据全国人大常委会授权,财政部提前下达了2020年部分新增专项债券额度12900亿元。截至2020年3月31日,全国各地发行新增专项债券1.08万亿元,占84%,发行...

  • 国美零售转型加速 携拼多多“迎战”零售业大考

    国美零售转型加速 携拼多多“迎战”零售业大考

    发布时间:2020/04/06

    随着国内疫情初步得到控制,零售消费市场也在逐渐恢复运转。日前,国务院联防联控机制举办新闻发布会。商务部消费促进司负责人王斌在会上指出,将千方百计促进消费回补和潜力释放,壮大新型消费和升级消费,扩大...

  • 美新冠疫情蔓延,建霖家居等IPO企业受累

    美新冠疫情蔓延,建霖家居等IPO企业受累

    发布时间:2020/04/06

    编者按: 随着疫情蔓延,全球新冠肺炎确诊病例已突破百万,累计死亡超5万例,其中,美国确诊超过23万例,欧洲确诊超过50万例。作为全球经济重要力量的欧美地区,其疫情将对IPO企业产生什么影响? “有一天美国将成...

  • 信托代销哪家强?招行去年赚64亿

    信托代销哪家强?招行去年赚64亿

    发布时间:2020/04/04

    证券时报记者 杨卓卿 随着银行年报密集披露,一些行业巨头代销信托产品的情况也浮出水面。 证券时报记者注意到,“零售之王”招商银行2019年代销的信托产品规模超过3000亿元,借此实现64.32亿元的手续费及佣金收入...

从黑盒子到白盒子:在人工智能中回收人力

发布时间:2019/11/13 新闻 浏览次数:704

 
很难想象在我们目前发现自己处于AI炒作高峰之前的生活是什么样的。但是就在几年前,也就是2012年,苹果公司向世界推出了iPhone 4S上第一个集成的Siri版本,人们过去常常通过问它平庸的问题来打动他们的朋友。谷歌刚刚开始在内华达州对其自动驾驶汽车进行测试。麦肯锡全球研究所最近发​​布了“大数据:创新,竞争和生产力的下一个前沿”。
在发布下一个大型AI驱动的竞赛的起点上,没有人谈论可解释的AI。即使没有人真正了解它是如何工作的,首先进行此操作也是至关重要的。麦肯锡全球研究所(McKinsey Global Institute)的报告进行了少量的预埋,预测美国经济几乎所有领域的企业平均至少拥有200 TB的存储数据。那时,有些公司甚至还在处理这些数据,但是这些应用程序大多是幕后或极为专业的。它们是项目-在很大程度上与核心职能隔离开来-也许是那些被称为数据科学家的新人所担心的项目,但肯定不是企业的核心。
在随后的几年中,事情开始发展。到2012年底,数据科学家被称为21世纪最性感的工作,这是迄今为止大多数人不愿听到的数据科学家,并且数据团队开始疯狂地处理公司存储的大量数据。实际上,尽管(或者也许是因为)在事物的宏伟计划中,实际上很少有人真正理解数据科学或机器学习的基础,但当今AI运动的根源却丝毫没有阻力。
如今,人们被拒绝或提供贷款,接受或拒绝进入大学,为汽车保险提供更低或更高的价格,甚至更多,而这些通常都是由AI系统提供的,这些系统通常不提供任何解释。在许多情况下,为这些公司工作的人甚至无法解释这些决定。这就是黑匣子AI,越来越多的消费者(常常是在不知不觉中)发现自己处于摆布状态。这个问题引起了人们的广泛关注,以至于Gartner将可解释的AI列入2019年十大数据和分析技术趋势。
需要明确的是,“黑匣子”不是“恶意”的同义词。黑匣子系统有很多很好的例子,例如分析医疗保健中的图像以检测癌症或其他情况。关键是,尽管从技术角度来看,这些系统可能更准确,但是如果模型无法使人们解释结果(无论他们要预测什么),那么这些模型可能会对消费者和企业造成伤害。除了危害,人们只是很难相信无法解释的内容。前面提到的医疗保健示例在这里很有启发性,因为AI系统通常具有很高的技术准确性,但是人们不相信机器生成的结果。
幸运的是,AI范式正在以两种方式转变。一个是在消费者方面-越来越多地关注和审查有关AI法规,隐私,道德,信任和可解释性的问题,并将其推向了最前沿。消费者开始要求公司对其做出的基于AI的决策负责—这是一件好事。
另一个转变是企业的方法,这些企业被迫改变其战略,部分原因是由于消费者的偏好或立法的增加,而且还因为以可持续的方式扩大AI的工作量(即,将继续为企业提供价值的方法)。未来且不存在风险)从根本上要求采用白盒方法。
换句话说,公司开始注意到将AI转变为业务资产的过程是跨部门和用例大规模,透明地采用,而不是通过聘请数据科学家来挑选最前沿的模型并将这些模型抛在脑后企业使用的谚语墙。
人工智能的力量不再是谁可以通过手头的数据制作最复杂或最准确的黑匣子模型。这是关于创建可以满足业务需求的白盒模型,并具有可接受的准确性水平,以及从业人员,管理人员和客户可以解释和理解的结果。从那里开始,要教育与这些模型进行交互的人们去做人类最擅长的事情以及AI系统无法做的事情:判断输出是否在上下文中有意义以及它们是否按预期工作-理想情况下,公正而公正的方式
毕竟,仍然由人们来决定构建模型;他们选择数据和应用哪种算法。人类(幸运的是)不是机器,但这也意味着他们可以引入自己的偏见,从而最终影响该模型在实际业务场景中的行为。
从实际的角度来看,可解释的AI发生在多个级别。一切都始于建立模型。有些算法在本质上比其他算法更具可解释性,而可解释性正逐渐成为机器学习研究的主题。但是最终,客户服务代表(CSR)可能不容易解释可由数据科学家或机器学习研究人员解释的模型。这就是数据民主化理念发挥作用的地方。
企业社会责任如何向客户解释为什么他们要为汽车保险支付一定的价格?它再次通过透明性重新获得信任-不仅信任与CSR交互的系统正在为他们提供正确的数据,而且信任数据本身。最重要的是,信任模型。为此,CSR不仅需要了解将哪些数据输入模型,还需要了解数据来自何处,其含义以及对模型结果的影响。
显然,大规模的可解释的AI要求组织从上至下,也从下至上的方法在数据科学和AI方面发生重大转变。这是关于提高所有员工的技能,以便他们了解数据及其支持的系统。这是关于设置允许白盒系统民主化并由所有人使用的过程。这是关于对技术人员和非技术人员都可以与之交互的正确技术和工具进行投资。
只有这样,企业才能开始创建消费者可以信赖并会继续使用的产品和系统。在与客户,数据,流程和其他人员合作时,这将需要高级管理人员的支持和向前线和战those中的人员学习。而且,当然,诸如AI平台之类的技术可以填补空白,并鼓励各方合作。
也许更重要的是,正是由于这种转变,每个人都将开始对AI及其拥有的力量有更广泛的了解。如果每个工作的每个人,无论他们的技术能力或背景如何,都可以与AI系统互动并且对他们的工作方式有基本的了解,那么我们的生活将会比今天更好。人们将能够在重要的事情上更聪明地工作,而不是在重复性过程上更努力地工作,这将实现AI的最大诺言之一。
最终,组织变革将导致更广泛的公众变革,使人们有能力使企业对他们构建的机器学习支持的系统负责。数据和AI的民主化不仅在工作场所和建立明天的业务中必不可少,而且也要使AI驱动的世界成为我们所有人都想生活的世界。
Florian Douetteau是Dataiku的首席执行官。

姓 名:
邮箱
留 言: