项目经济到来(《哈佛商业评论》2021年第11期)
上QQ阅读APP看书,第一时间看更新

人人都要
了解AI道德

碧娜·阿马纳特(Beena Ammanath)

里德·布莱克曼(Reid Blackman) |文 刘隽 |编辑

许多企业已经认识到人工智能(AI)道德风险计划的商业需要。不计其数的新闻报道——从出错的和歧视性的面部识别到侵犯隐私,再到造成生活改变之后果的黑箱算法——都称其已列入董事会、首席执行官(CEO)以及首席数据与分析官的工作日程。然而,多数领导者不明白的是,解决这些风险需要提高整个企业对这些风险的认识,而那些明白这一点的领导通常不知道如何推进。

对于使用AI的企业来说,这需要成为头等要务。超过 50%的高管报告称,鉴于公司目前在识别和减轻AI风险方面的准备水平,他们对其企业中AI的道德和声誉风险表示“重大”或“极端”担忧。这意味着制定一个人人都参与的AI道德风险计划成为部署AI的必要之举。如果做得好,提高意识既可以降低战术层面的风险,也有助于成功实施更全面的AI道德风险计划。

树立这种意识通常可以分为三个重要问题。

首先,采购官员是AI道德风险的最大——也是最受人忽视的来源之一。

AI供应商几乎将产品销售到你公司中的每一个部门,尤其是人力资源、营销和财务部门。比如,如果你公司人力资源部的采购官不知道如何提出正确的问题来审查AI产品,那么他们可能会在招聘过程中带来歧视受保护亚群体的风险。

其次,高管通常不具备发现自己企业AI道德缺陷的必要知识,从而使公司在声誉和法律上均面临风险。比如,如果一个产品团队准备部署AI,但首先需要一位对该产品的道德风险知之甚少的高管的批准,那么品牌的声誉(更不用说那位高管)可能会面临极高的风险。

第三,AI道德风险计划需要学识渊博的数据科学家和工程师。如果他们不了解AI的道德风险,他们要么无法理解计划中明确表述的新职责,要么可能理解这些职责,但却无法理解其重要性,这反过来导致他们不认真对待这些职责。另一方面,如果你的企业了解AI的道德、声誉和法律风险,他们就会理解实施一项跨组织系统解决问题的计划有多重要。

创建这种跨组织的意识需要付出努力。它需要传达统一的信息,但这一信息会针对每个群体具体关注的问题加以调整。毕竟,最高管理层的关注点和责任与产品所有者和设计师不同,而产品所有者和设计师的关注点和责任又与数据科学家和工程师不同——用同一种语言对所有人说话,其结果是没有对任何人说话。信息不能肤浅,否则会导致人们认为AI道德要么是公共关系问题,要么是小众问题。它需要一个明确的最高层领导负责设计并监督执行一种能提高全公司意识的战略——如果信息不是来自最高层,这一问题就得不到认真对待。以下是企业应该开始着手的地方。

如何树立意识——并获得认可

确保每一位员工都了解风险,人人感觉企业内AI的成功有自己一份功劳,这一点至关重要。他们不仅需要意识到这些问题存在,而且还需要知道这些风险如何影响他们的特定工作,以及这如何符合他们的工作职责要求。人力资源部的人知道他们需要雇用适合这份工作的人以及这事可能会给人什么感觉,同时还能意识到AI的道德风险,这是一回事。而要让那个人认识到尽心履职包括要求招聘软件的AI供应商提供必要资料,证明他们如何识别和减少他们AI中的偏见,从而将识别和减少这些风险视为其工作的一部分,这又是另一回事。

弄清如何以安全且道德的方式开发、采购和部署Al对于持续增长和保持竞争优势至关重要。

以下是你可以采取的六种措施,以便以正确的方式树立企业意识并获得认可。

1. 消除对AI和AI道德的恐惧。企业面临的一个障碍是,IT之外的人可能会被这个话题吓住。“人工智能”“机器学习”和“歧视性算法”看上去可能就像令人生畏的概念,导致人们完全回避这个话题。对于树立企业意识一事,至关重要的是,人们对这些概念(如果不是技术基础的话)要熟悉并应对自如。

从某种意义上说,具备基本的AI素养并不十分困难。毕竟,机器学习本质上就是通过样本学习,这是每个人都熟悉的。同样,因为没有足够的例子而不擅长某件事也是大家都熟悉的。如果你正在向人们通报歧视性算法可能是如何创建的,你可以解释说,有些是由于软件没有足够的样本可供学习,因此软件会出错(比如,你的面部识别软件没有足够的黑人女性面部样本,导致该软件在辨识黑人女性面孔方面非常糟糕)。更普遍而言,AI的许多道德风险及其各种来源可以向非技术受众明确说明,并使员工树立处理这些问题所需的信心。

要求你的人力资源和营销部门员工基本熟悉AI的工作原理以及AI道德风险的产生过程似乎是一项艰巨的任务。然而,多数企业围绕网络安全风险已树立了大量的认识,而网络安全风险也需要具备网络安全知识。在公司致力于实现这一目标之前,这或许看似一件几乎不可能的事。但是,如果你的员工不懂得基本知识,他们就不知道在关键时刻问正确的问题(例如向AI供应商提问)。

2.针对你的受众调整你的沟通方式。视自己为品牌声誉管理员的高管对避免威胁品牌声誉的危险很感兴趣。对他们来说,用“道德和声誉风险”的语言说话对于让他们看到AI道德与他们的关注点和责任具有相关性十分重要。另一方面,相比于规避风险,产品设计师更关心的是制造“酷”和有用的产品。解释AI道德如何通过设计改进其产品是一种非常有效的方式来接触受众,尤其是对于越来越多受价值观驱动的消费者和公民而言。最后,数据科学家和工程师需要强劲有效的模型。讲他们的语言意味着解释有偏见的算法和黑箱问题如何降低了这种工具的效力以及/或者这种工具的采用。没有人希望建立一个不准确或未用过的模型。

提供每个受众都能联想到的AI出错的例子和故事也很重要。这不仅仅需要牵涉公关危机,还可能包括,比如,亚马逊无法充分减少其AI驱动的招聘软件中的偏见,令人钦佩的是,这导致亚马逊终止了该项目,而不是部署可能对求职者和品牌有害的东西。此外,在可能的范围内,你应该使用自己行业的特有事例。以下情况确实存在,也就是说,AI已经意识到医疗服务中的某些道德风险,但如果你是在与一家金融科技公司的成员交谈,员工会更多联想到的是某同行公司的故事。

3. 将树立企业意识的努力与你公司的使命或宗旨联系起来。如果你的企业文化中已植入了你的使命/宗旨,那就请将你针对AI道德的讨论与此结合起来。要解释AI道德/道德风险管理是对这一使命的进一步延伸,是在你追求使命的过程中围绕你(不)愿意做之事的一套护栏。

比如,你的使命可能是提供最好的理财建议,但你只有在人们信任的前提下才能提供这种建议,而如果你在部署AI时疏忽大意,人们就无法信任你。当AI出错时,它会大规模出错,因此要向你的企业传达,提供最佳理财建议的部分工作就是必须保护你的客户,而保护客户的部分工作需要部署有道德的、负责任的或值得信赖的AI,AI道德不再被视为与运营相关联的东西。相反,你要传达的是,它是对你的使命和核心价值观的进一步延伸。

4. 以可操作的方式定义AI道德在你企业中的意义。声称你“赞成隐私”或你“尊重隐私”是一回事,而对其做点实实在在的事又是另一回事。为确保你的AI道德价值承诺不被人视为仅在公关,请将这些承诺与道德护栏联系起来,比如“我们永远不会将您的数据出售给第三方”或“对于与第三方共享的数据,我们始终会进行匿名化处理”。

如果你有一份精心拟定的AI道德声明,那它要包括那些起双重作用的护栏。首先,它们会向你的团队传达你针对AI道德风险正在做(或计划要做)的事情。其次,它会立即传达出:这不是公关或含混模糊的东西。当价值观以一种与行动相联系的方式表达和传达时,这些传达出的信息就是可信且令人难忘的。

一种让你的受众明白AI道德何以不模糊且可以执行的方法是解释医疗服务中面临的非常真实和棘手的道德问题,以及他们解决这些问题的方法。与此相关的是,你可以讨论医疗行业如何将道德风险的消减纳入基础设施和流程中,以便让他们能够看到此事可以做到。

5.邀请各职能部门受信任和有影响力的成员加入你的努力。微软等一些企业已经建立了一个“AI道德捍卫者(AI Ethics Champions)”系统。这是一些在整个企业中负责提高团队的AI道德风险意识的人。AI道德捍卫者计划的一个重要特点是,它赋予那些已经获得团队信任和支持的领导者权力。此外,他们比首席学习官或首席数据官或负责企业意识战略的任何人更了解各自的团队。

6. 持续教育。树立企业意识不是你在周三下午或周末休息时做的事情。它需要来自内部和外部的演讲家、研讨会、时事通讯等持续、多样的接触点。事实上,AI和新兴技术通常在发生快速变化和演变,伴随这些变化而来的是新的道德风险源。为了确保你的企业不会落后太多,不断教育员工将是抵挡不断高涨的技术进步浪潮的重要屏障。

企业领导者们明白,弄清如何以安全且道德的方式开发、采购和部署AI对于持续增长和保持竞争优势至关重要。重要的是,这一目标不能与数据科学家和工程师要实现的技术目标混为一谈。负责任地部署AI——无论是用于内部还是外部目的——都需要意识到AI的道德风险以及企业对降低这些风险的战略的认同。

碧娜·阿马纳特是全球性的德勤AI研究所(DeIoitte AI Institute)执行董事,也是非营利机构Hu mans For AI的创始人,同时也是德勤可信和道德技术的负责人。她是一位屡获殊荣的高级管理人员,在AI和数字化转型方面拥有丰富的全球经验,涉及电子商务、金融、营销、电信、零售、软件产品、服务和工业领域的HPE、通用电气、汤森路透、英国电信、美国银行、e*trade和许多硅谷初创企业。她还在加州州立理工大学工程学院顾问委员会任职,并一直担任多家初创企业的董事会成员和顾问。里德·布莱克曼士是道德风险咨询公司Virtue的创始人和CEO。他与诸多企业合作,将道德风险消减整合到新兴技术产品的开发、部署和采购中。他还任职于许多顾问委员会,是电气与电子工程师协会(IEEE)“道德化设计行动计划”(EthicaIIy AIigned Design Initiative)的成员。在创立Virtue之前,里德是科尔盖特大学(CoIgate University)和北卡罗来纳大学教堂山分校(Univer sity of North CaroIina, ChapeI HiII)的哲学教授。