Redian新闻
>
​对AI不够信任的高管们,究竟在想什么?

​对AI不够信任的高管们,究竟在想什么?

职场


尽管当今的企业对人工智能(artificial intelligence, AI)的投资不断增加,但是最高管理层对AI提供的见解是否信任就要碰运气了。高管们只是在抵制一种新的、未知的、尚未被证实的技术呢,还是说他们的犹豫源于更深层次的东西?高管们长期以来一直抵制将数据分析用于更高层次的决策,他们总是青睐依靠基于现场经验的直觉层面的决策,而不是AI辅助的决策。

       

AI已在许多行业被广泛用于战术性、低级别的决策——信用评分、超额促销建议、聊天机器人或管理机器性能都是成功部署AI的例子。然而,它在更高层次的战略决策中的作用尚待证明——比如重组产品线,改变企业战略,在各职能部门重新配置人力资源,或与新的合作伙伴建立关系。

       

无论是AI还是高级分析,企业领导者仍然还没有做好准备,以深刻的方式将他们的业务完全押在机器做出的决策上。瑞士国际管理发展学院商学院(IMD Business School)的阿米特·乔希(Amit Joshi)和迈克尔·韦德(Michael Wade)对金融和零售企业中的AI活动开展的研究发现,“AI现在主要被用于战术性而非战略性目的——事实上,很少能够找到一个完整的长期AI战略愿景。”

       

在接受德勤(Deloitte)的一项调查时,三分之二以上的高管(67%)表示,他们在访问或使用先进分析系统的数据时感到“不自在”。在拥有强大数据驱动文化的企业中,37%的受访者仍然表达了不适。同样,在毕马威(KPMG)开展的一项类似调查中,67%的CEO表示他们通常更喜欢根据自己的直觉和经验来做决定,而不是通过数据分析产生的见解。该研究证实,许多高管对其公司的数据、分析和AI缺乏高度信任,而且不确定谁该对错误和滥用AI负责。数据科学家和分析师也看到了高管们的这种不情愿——SAS最近的一项调查发现,42%的数据科学家表示他们的结果没有被企业决策者使用。

       

高管们何时才能做好准备,将AI推向下一步,对AI足够信任,以至于会按照那些影响他们业务的更具战略性的建议而采取行动?虽然存在许多挑战,但是现在可以采取四项行动,以增加高管在AI辅助决策方面的信心。



创建可靠的模式


高管的犹豫可能源于负面的经历,比如某AI系统提供了误导性的销售结果。几乎每个失败的AI项目都有一个共同点——缺乏数据质量。在旧的企业模式中,结构化的数据占主导地位,它在数据从源头到达时就对其进行分类,使得数据相对容易立即投入使用。

       

虽然AI可以使用高质量的结构化数据,但它也使用大量的非结构化数据来创建机器学习(machine learning, ML)模型和深度学习(deep learning,DL)模型。这些非结构化数据虽然很容易以原始格式收集,但如果不对其进行适当的分类、标记和清理,它们是无法使用的——视频、图像、图片、音频、文本和日志——都需要进行分类、标记,以便AI系统创建和训练模型,然后才能将这些模型部署到现实世界。因此,输入AI系统的数据可能是过时、不相关、多余、有限的或不准确的数据。输入AI/ML模型的片面数据只会提供企业的局部视野。AI模型的构建可能是为了反映企业一直以来的经营方式,并没有能力适应新的机会或现实,例如我们看到的因全球疫情的影响而造成的供应链中断。这意味着数据需要实时输入,这样才能实时创建或改变模型。

       

难怪,许多数据科学家把一半的时间花在数据准备上。在创建能提供适当结果的可靠AI模型的过程中,这仍然是唯一的重要任务。要获得高管的信任,背景和可靠性是关键。有许多AI工具可以用来帮助进行数据准备——从综合数据到数据去偏,再到数据清理,企业应该考虑使用其中一些人AI工具在合适的时间提供合适的数据,以创建可靠的AI模型。

     


避免数据偏见

       

高管的迟疑态度可能是出于持续、合理的担忧,认为AI结果会在其企业内部导致歧视或影响客户。同样,固有的AI偏见可能会将企业决策引向错误的方向。如果不采取谨慎的措施清除数据中的任何偏见,所产生的AI模型始终会带有偏见,结果造成“输入垃圾,输出垃圾”的局面。如果某一AI模型是用有偏见的数据进行训练的,它就会影响该模型的准确性并产生有偏见的建议。

       

模型和决策只有在数据不存在偏见的情况下才算是好的模型和决策。糟糕的数据,无论是有意还是无意,都可能包含隐性偏见信息——比如种族、性别、出身、政治、社会或其他意识形态偏见。此外,对企业有害的其他形式的偏见也可能是固有的。现在大约有175种已认定的人类偏见需要关注。这需要通过分析找出输入数据的偏见和其他负面特征来解决。如上所述,AI团队花了过多的时间准备数据格式和质量,但没花多少时间来消除偏见数据。

       

高层决策中使用的数据需要进行彻底审查,以向高管们保证这些数据经过验证、有权威性、经过鉴定,并且来源可靠。它需要从已知的歧视性做法中清理出来,那些做法会影响算法的准确性。

       

如果数据来自有问题的或未经审核的来源,它要么应该完全根除,要么应该得到较低的信任分数。另外,通过控制分类精度,歧视可以以最小的增量成本大幅减少。这种数据预处理的优化应该集中在控制歧视、限制数据集的失真和保持效用上。

       

人们通常假设——错误地假设——AI的数学模型最终可以滤除人类的偏见。其风险在于,这种模型,如果不受限制地运行,可能会导致额外的不可预见的偏见——原因还是输入的数据受限或准确性受到影响。

     


做出符合伦理和道德的决策

       

高管的迟疑态度可能反映了这样一个事实:企业正面临着前所未有的压力,要确保企业的运营符合道德和伦理,而AI辅助的决策也需要反映伦理观和道德观。部分原因是他们希望以具有伦理和道德价值观的公司形象出现并诚信经营,部分原因是做出错误的决定可能引起法律责任,而这些错误决定可能会在法庭上受到质疑——尤其是考虑到决定如果是由AI做出的或由AI辅助的,它将经历额外一层的审查。

       

研究和教育机构正在进行研究,将人类的价值观应用于AI系统,将这些价值观转换成机器可以理解的工程术语。比如,加州大学伯克利分校的计算机科学教授斯图尔特·拉塞尔(Stuart Russell)率先提出了人称“价值对齐原则”(Value Alignment Principle)的有用想法,该想法实质上是“奖励”AI系统从事更可接受的行为。AI系统或机器人可以被训练来阅读故事,从这些故事中学习可接受的事件序列,并更好地反映成功的行为方式。

       

至关重要的是,拉塞尔开展的这种研究被引入商业领域,因为AI极有可能影响到涉及生活与事业的决策的准确性。企业需要确保有足够的制衡,以确保AI辅助的决策符合伦理和道德。



能够解释AI决策

       

如果缺乏透明度,高管们在接受AI决策时可能会有戒心。大多数AI决策都没有内在的可解释性。当做出的决定和采取的行动会给企业带来数百万美元的风险,或涉及人们的生命/工作时,如果声称是AI做出了这个决策、所以我们是在按此决策行事,这样做不太好。

       

AI产生的结果和在此基础上采取的行动不可能不透明。直到最近,大多数系统都被编制了程序,可以清晰识别和处理预先确定的情况。然而,传统的非认知型系统在遇到它们程序中未设定的情况时就会碰壁。另一方面,要置入一定程度的批判性思维能力,旨在更接近地模仿人脑。随着新情况的出现,这些系统可以学习、理解、分析情况并根据情况采取行动,无需另外编程。

       

用于训练算法的数据需要以负责任的方式进行维护——通过安全存储、验证、审核和加密。区块链或其他分布式账本技术之类的新兴方法也提供了一个永恒不变且可审核的存储方式。此外,需要设立一个第三方管理框架,以确保AI决策不仅可以解释,而且是基于事实和数据。在一天结束时,应该有可能证明,人类专家如果被提供了同样数据集,是否会得出同样的结果——AI没有操纵结果。

       

AI基于数据的决策几乎总是以概率(概率性相比于确定性)为基础。正因为如此,当AI做出决定时,总是存在一定程度的不确定性。对结果的可靠性必须要有相应程度的信心或评分。正是由于这个原因,大多数系统不能、不会、也不应该实现自动化。在近期的未来,人类需要在决策圈中发挥作用。这使得在涉及医疗卫生等敏感行业时,依赖基于机器的决策难度更大。在医疗卫生行业,决策不够好的概率是98%。

       

随着系统之间的相互作用,事情变得复杂和不可预测。据隶属于哈佛大学伯克曼·克莱因互联网与社会中心(Berkman Klein Center for Internet and Society at Harvard University)的戴维·温伯格(David Weinberger)博士称:“我们开始接受这样的事实:世界的真正复杂性远远超过了我们设计来解释它的法则和模型”。无论决策变得多么复杂,今天的企业仍然需要来自人类的批判性思维来运营。高管们仍然需要有能力否决或质疑基于AI的输出,尤其是在一个不透明的过程中。

 


提高高管信心的任务

       

在寻求提高高管对AI方面的舒适度时,请考虑以下行动步骤:

       

● 提升IT部门之外接触到AI流程的任何人对AI的主人翁和责任感。为促进合乎道德的决策,在数据经济中生存,需要进行文化变革。

       

● 认识到AI(在大多数情况下)只是根据先前的数据和模式做出决定并对未来进行一些猜测的代码。每位企业领导——以及与他们共事的员工——仍然需要批判性思维能力来质疑AI的输出。

       

● 将AI瞄准其影响力最大的领域,并首先完善这些领域,这将增加最大的商业价值。

       

● 调查并推行最具影响力的技术。

       

● 通过提高透明度,并最大限度实现决策提供链的能观性,确保AI中的公平性。

       

● 在各个级别促进对公平、可操作AI的更多认识和培训,并将激励措施与AI的成功采用挂钩。

       

● 定期、系统性地审视或审查AI结果。

       

● 负起责任,自主决策,如果做出了错误的决定,请纠正方向——不要怪罪于AI。

      

不可避免的是,出于战略目的,更多的AI辅助决策将出现在高管办公室。目前,AI将在决策方面协助人类表现出更强的智能,而不是按一个按钮就能提供独角兽式的正确见解。确保这些AI辅助决策的输出是基于可靠、无偏见、可解释、符合伦理、道德且透明的见解,这将有助于企业领导者现在及在未来几年对基于AI的决策充满信心。


安迪·图赖(Andy Thurai)乔·麦肯德里克(Joe McKendrick)| 文

安迪·图赖是Constellation Research公司的副总裁兼首席分析师。他是IBM云平台的前首席策略师。乔·麦肯德里克是一名作家、独立研究员和演讲家,探究的是创新、信息技术趋势和市场。

时青靖 | 编辑



被焦虑框住的人,该如何走出来?


普利策奖获得者裘帕·拉希莉:用旁观者的角度探索生活


为什么你很难进入“心流”状态?


《哈佛商业评论》中文版 联系方式

投稿、广告、内容和商务合作

[email protected]



公众号ID:hbrchinese
长按二维码,订阅属于你的“卓越密码”

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
女明星都爱的“一块布”,究竟有什么魔力人生應該信個教钟薛高“高温不化”背后,究竟是什么杀死安倍的前自卫队成员,究竟什么来头?中国气候异常背后的底层地理逻辑,究竟是什么?句号还是省略号录取国外名校的“二代”们,究竟凭借实力还是运气?【妈妈分享】当闺女挖出鼻屎然后吃掉了,我在想什么……丙二醇,究竟是个什么东西?遇见疑难病的时候,神经内科医生的脑子都在想些什么?——医学思维演讲文字稿(节选)叛逆不听话的孩子心里在想什么?90%的父母都猜错了...智商不够,平行宇宙。还是不够,道歉来凑。「玩鸡鸡」「摸私处」面对​孩子这些「羞羞的癖好」千万不要这样做全球最牛保姆学院,刚毕业就年薪百万:让乔治小王子离不开的女人,究竟有多厉害?今日聚焦:他,他们,拼命救人!平凡的他们,平凡的我们,点赞并坚守!戴珊在想什么:淘宝天猫新一号位的经营方法论​四十岁的金融男们,每天都在想些什么?震撼世界!曾让以色列血流成河的日本女人,关押20年后最近出狱:她到底在想什么?自认“荡妇”的余秀华,究竟有多酷?RISC和CISC,究竟有何不同?每周硅闻 | 收购可口,是口嗨还是动真格;特斯拉市值蒸发千亿,究竟是谁在躺赢?普京现在想什么?胜利日讲话透露端倪​对话王晓岩:大汖村的消亡与永生|财经影像·光刻系列之九价值3W的彩平,究竟长什么样子?扒一扒科颜氏的王牌产品,究竟好在哪?对话 | AI与教育的深度融合,究竟什么是核心问题?不会跳芭蕾舞的斯坦福学生不是好博主——当你关注名校博主时,究竟在看什么?只做一个户型,这个项目在想什么从喜剧演员到战时领袖为什么总有人能捡到流浪猫?全都在夸她,究竟是因为……漂木孩子身边的“隐形人”,究竟有多可怕?孩子的脑袋里究竟在想什么?这3部关于孩子的纪录片不能错过!学文言文,孩子究竟在学什么?
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。