当前位置:广州总裁班首页 >> 中大MBA >>教育资讯 > 正文(wén)

人工智能(néng)(AI)系统对人类决策的未来影响

日期:2023-02-16 16:22:06

人工智能(néng)(AI)系统是否会发展到人类决策变得过时的地步?我们应该准备好保护自己免受杀手机器人的侵害吗?“冬天”来了吗?
虽然这些重要问题已经存在了几十年,但回答(dá)这些问题的努力并没有(yǒu)达成共识,在散布恐惧和合理(lǐ)关注之间划清界限已成為(wèi)公众的一项复杂任務(wù)。评论员分(fēn)為(wèi)两个阵营:
第一个阵营认為(wèi)围绕人工智能(néng)的技术发展是一场具有(yǒu)积极影响的革命。它们强调了人工智能(néng)可(kě)以為(wèi)各个领域的有(yǒu)效决策带来的许多(duō)好处。人工智能(néng)工具有(yǒu)助于文(wén)件的翻译、自动驾驶汽車(chē)的可(kě)靠性、疾病的诊断,以及许多(duō)其他(tā)应用(yòng)。这种观点的支持者甚至超越了这些好处,将人工智能(néng)设想為(wèi)灵丹妙药,并描述了一幅夸张的充满人工智能(néng)的未来美好图景。例如,谷歌首席执行官桑达尔•皮查伊(Sundar Pichai)将人工智能(néng)描述為(wèi)“人类有(yǒu)史以来最重要的事情”和“比電(diàn)或火更深刻的东西[1]”。
然而,第二阵营的评论员描绘了一幅不那么乐观,有(yǒu)时甚至是可(kě)怕的人工智能(néng)未来图景,并警告人工智能(néng)可(kě)能(néng)给现代社会带来的负面影响。例如,他(tā)们共同担心在一个由人工智能(néng)系统主导的世界中大规模失业,这些系统超越了人类。他(tā)们还强调了人工智能(néng)系统可(kě)能(néng)在人类社会中产生的偏见和不平等,并警告人工智能(néng)工具通过创建虚假但逼真的图像或视频可(kě)能(néng)产生的操纵性宣传的危险。在其他(tā)情况下,这些合理(lǐ)的担忧演变成对人工智能(néng)工具相关风险的过度夸大预测,这些风险可(kě)能(néng)被居心叵测的恐怖分(fēn)子滥用(yòng),或者出现智能(néng)但无情的杀手机器人,这将消灭文(wén)明。
在这篇文(wén)章中,目的不是在这场激烈的辩论中偏袒任何一方。相反,我专注于人类决策者的决策过程,以超越支持和反对人工智能(néng)的论点,并强调人类决策者和人工智能(néng)系统之间可(kě)能(néng)的协同伙伴关系。通过拒绝对人工智能(néng)未来的过度夸张的正面和负面预测,我想强调的是,人工智能(néng)和人类的决策过程虽然有(yǒu)其自身的优势和劣势,但可(kě)以被视為(wèi)决策过程中的补充,而不是替代品。

什么是人工智能(néng)?
数据扩散(例如大数据)和算法进步(例如机器學(xué)习)的融合导致了人工智能(néng)的普及,并引起了公众对该主题的极大兴趣。虽然人工智能(néng)一词是在1956年左右创造的,但它最近已成為(wèi)一个流行语,与大数据和机器學(xué)习等术语一起,在许多(duō)专业和學(xué)术界被抛弃。从广义上讲,人工智能(néng)是指一组具有(yǒu)从数据中學(xué)习能(néng)力的非人类智能(néng)系统或算法的异构。从媒體(tǐ)到医疗保健,从时尚到运输,各种各样的人工智能(néng)工具和技术正在以惊人的速度在每个行业中增長(cháng)。Alexa和Siri等数字助理(lǐ)使用(yòng)AI根据与用(yòng)户的面部特征或语音模式相关的数据分(fēn)析来识别用(yòng)户,并根据用(yòng)户的位置和先前的偏好提出有(yǒu)用(yòng)的建议。在一个更高级的例子中,基于机器學(xué)习的人工智能(néng)算法帮助Emotech开发了机器人助手OLLY,它有(yǒu)能(néng)力进化其个性并逐渐变得类似于其所有(yǒu)者。它學(xué)会检测所有(yǒu)者的“面部表情,语音变化和语言模式”,然后发起对话或对用(yòng)户的感受做出反应[2]。尽管人工智能(néng)系统之间存在技术差异,但它们中的大多(duō)数都具有(yǒu)相同的目的:促进将现有(yǒu)数据转化為(wèi)有(yǒu)用(yòng)的见解、决策和结果。

人工决策
当涉及到决策过程时,人类倾向于依靠两种方法来做出选择:分(fēn)析和/或直觉。这两个主要的信息处理(lǐ)系统在性质上是不同的,代表了思维和解决问题的不同方面。在下文(wén)中,我将详细解释这些方法中的每一种,并讨论它们与AI分(fēn)析的相关性。
分(fēn)析决策和人工智能(néng)。分(fēn)析决策需要在做出选择之前进行系统和有(yǒu)意识的数据收集和分(fēn)析过程。作為(wèi)许多(duō)现代组织中行之有(yǒu)效的决策方法,分(fēn)析决策需要一种有(yǒu)条不紊的方法收集和分(fēn)析相关的内部和外部信息,设计替代行动方案,并在做出选择之前根据特定标准(例如,决策目标和目的)比较替代方案。分(fēn)析方法最适合解决复杂问题,以及当有(yǒu)足够的数据与现象或任務(wù)相关时。然而,当涉及到大量数据时,这种深思熟虑的数据收集和分(fēn)析过程对于人类决策者来说变得艰巨,他(tā)们通常受到认知能(néng)力和注意力限制的限制。
基于人工智能(néng)的决策支持工具和系统可(kě)以通过提高收集和处理(lǐ)结构化(例如,表格)和非结构化(例如语音和视频)数据的速度和准确性来為(wèi)分(fēn)析决策过程做出贡献。例如,基于机器學(xué)习的人工智能(néng)算法可(kě)以根据当前和过去的业務(wù)相关数据促进对未来未知状态和事件的预测。模式发现和趋势分(fēn)析是人工智能(néng)可(kě)以為(wèi)分(fēn)析决策提供价值的其他(tā)途径之一。人工智能(néng)工具可(kě)以翻译、驱动和识别人脸。它们可(kě)以帮助医生诊断疾病或為(wèi)战略决策者提供决策的可(kě)能(néng)结果。简而言之,这些系统可(kě)以从过去學(xué)习,以增强分(fēn)析决策。同时,与人类决策者类似,人工智能(néng)工具容易出现基于数据现实的错误和偏见。
直观的决策和人工智能(néng)。 直观的决策需要基于对先前事件和经验的整體(tǐ)理(lǐ)解,轻松自动地做出决策。与分(fēn)析方法相反,直觉决策是自发的,不遵循系统的方法。以前通过经验获得的人类知识使直觉决策者能(néng)够感知决策周围的机会和威胁。基于这种感觉或隐含的理(lǐ)解,她继续做出选择,尽管没有(yǒu)明确的推理(lǐ)。直观的决策方法适用(yòng)于以压倒性的模糊性為(wèi)特征的情况,或者当决策没有(yǒu)先例时。在这种情况下,没有(yǒu)关于过去类似情况的相关数据;也没有(yǒu)时间系统地收集适当的数据。
现有(yǒu)的基于机器學(xué)习的人工智能(néng)算法在直观决策方面无法提供太多(duō)见解。事实上,根据设计,当前的人工智能(néng)算法只能(néng)系统地从数据馈送中學(xué)习,而没有(yǒu)过去的相关数据(例如,在极其模糊和前所未有(yǒu)的情况下),即使是最复杂的人工智能(néng)工具也只不过是几行无用(yòng)的代码。这些工具如果提供不相关的数据,将最好地體(tǐ)现垃圾进出的概念。简而言之,虽然人工智能(néng)工具可(kě)以极大地促进驾驶、翻译和疾病诊断等分(fēn)析任務(wù),但它们在独特的情况下无法发挥创造力。“自动驾驶汽車(chē)可(kě)以行驶数百万英里,但它最终会遇到一些它没有(yǒu)经验的新(xīn)事物(wù)[3]。另一个例子是,人工智能(néng)无法為(wèi)前所未有(yǒu)的组织危机找到解决方案,经验丰富的首席执行官可(kě)能(néng)会想出一个直观的答(dá)案。总的来说,人工智能(néng)无法以整體(tǐ)、创造性或抽象的方式思考或理(lǐ)解。然而,与此同时,人工智能(néng)研究(例如机器學(xué)习算法)已经成為(wèi)一种炼金术。“炼金术士发现了冶金、玻璃制造和各种药物(wù)......但未能(néng)治愈疾病或将基本金属转化為(wèi)黄金“ [4]。同样,人工智能(néng)工具试图模仿人类的直觉,但一再失败,但产生了强大的工具作為(wèi)副产品:可(kě)以“击败人类围棋选手,从图片中识别物(wù)體(tǐ),识别人类声音”的工具。

務(wù)实的范式:人与人工智能(néng)的伙伴关系
考虑到人工智能(néng)系统在直观决策方面的缺点,以及直觉对现实生活中决策的重要性,可(kě)以肯定的是,在不久的将来,人类仍将是人工智能(néng)算法背后的策划者。在这种情况下,将人工智能(néng)系统视為(wèi)补充和增强人类智能(néng)以促进更好、更快的决策的合作伙伴是合理(lǐ)的。这样,我们设想的人工智能(néng)未来看起来就不像终结者式的场景,而更像是人类决策者和“决策支持工具”之间的协同合作[5]。基于这种人与人工智能(néng)关系的伙伴关系概念化,人类社会将受益于人工智能(néng)工具的拥抱,并使其更加准确、有(yǒu)效和可(kě)靠。為(wèi)实现这一目标,资本投资和适当的政策考虑可(kě)以进一步推动人工智能(néng)技术的发展,并使全球更多(duō)的受益者普遍受益于这些技术的好处。在这方面,為(wèi)工人提供与人工智能(néng)系统建立认知伙伴关系所需的技能(néng)和能(néng)力可(kě)以减缓一些负面影响,例如工作流离失所。

结束语
先进的人工智能(néng)系统等新(xīn)兴技术带来了一些好处和一些负面后果(例如,错误、低效率和副作用(yòng))。考虑到人工智能(néng)在处理(lǐ)直观决策方面的缺点,人工智能(néng)机器不会完全取代人类决策者,至少在不久的将来是这样。人类决策者需要利用(yòng)人工智能(néng)的好处来促进决策和解决复杂问题。然而,更重要的是,他(tā)们需要继续投资于他(tā)们最擅長(cháng)的事情:批判性思维、直觉分(fēn)析和创造性地解决问题。最后,虽然很(hěn)难对人工智能(néng)的未来做出任何结论,但人类决策者似乎继续垄断这些能(néng)力,这将有(yǒu)助于他(tā)们保持上风,為(wèi)“冬天来临”做好准备。
也就是说,忽视人工智能(néng)能(néng)力的提高会对劳动力市场产生负面影响并导致收入不平等加剧这一事实是幼稚的。遵循前面概述的人工智能(néng)-人类伙伴关系范式,解决这个问题的直接行动项目是政策制定。為(wèi)改善人工智能(néng)系统并确保弱势工人群體(tǐ)获得人工智能(néng)相关教育的适当政策制定,不仅会减缓大规模的技术失业,还有(yǒu)助于防止由此产生的财富分(fēn)配偏差可(kě)能(néng)产生的不平等。

本文(wén)转载于:http://www.mba-cs.com/News/shanghaimba3203.html


分(fēn)享到:
广州总裁班 中大博雅EMBA 资本经营 投融资 企业上市 PE私募股权 金融投资与资本运营 商(shāng)业模式 广州EMBA 广州MBA 博研管理(lǐ)哲學(xué)DBA 华商(shāng) 时代 中大博雅MBA CEO总裁班