人工智能的影响及商业问题

Kay Firth-Butterfield访谈,世界经济论坛(WEF)

从研发、投资、创新、人力资源和生产力方面来看,人工智能(AI)对各公司当前和潜在的影响有哪些?

尽管目前只有少数公司能真正称得上是AI公司,但无论是简单的操作系统,还是从汽车到家庭医疗到娱乐的机器人发展前景来看,人工智能将无处不在,所有公司都需要制定自己的AI战略。

如果对AI的使用决策失误,公司的品牌价值可能遭受重大损失。因此,现在必须考虑各种监管和其他治理机制。

Kay Firth-Butterfield

各公司或许都应加大在研发和AI上的投资,目前投资仍不足,其原因主要有三方面:对AI技术及其能力不够了解;一些技术仍处于萌芽阶段,无法广泛使用;不清楚监管将从何而来以及对AI发展会造成哪些影响。结果,我们看到一些有前瞻视野的公司试图在没必要使用AI的地方使用AI,如空调中的面部识别功能,而有些公司则犹豫不前,直到看到明确的创新空间和政策支持后才敢行动。

许多公司还有一个担忧,那就是缺乏引导的AI使用会在短期内造成大量失业。有社会意识的公司希望找到一种方法,尽可能降低AI对其劳动力和所在地区政治稳定的影响。在世界许多地区,由于再培训未能减缓失业状况,从而导致地缘政治变化,市场不稳定通常对公司没有好处。有些公司已经开始在人力资源中使用AI,这就需要他们意识到在该领域及其他领域使用AI的潜在问题,问题主要分为四大类:偏见、透明度、问责和隐私。

如果对AI的使用决策失误,公司的品牌价值可能遭受重大损失。因此,现在必须考虑各种监管和其他治理机制,AI技术变革速度之快,不容我们等待。

技术趋势报告指出了正在进行创新的诸多领域。在哪些领域,AI最具破坏性、影响最大呢?

AI最具破坏性的领域和AI影响最大的领域不一定一致,取决于我们谈的是正面还是负面影响。我来举两个例子:

(1) 人工智能玩具——我们的孩子将越来越多地使用机器人。因此,可以说从小有一个或几个AI玩具是对未来劳动力的有益准备。同样,为全世界所有儿童提供个性化教育的好处也是巨大的,但有些基本问题需要先解决。我们如何处理隐私?如果要从孩子开始说话的那一刻起收集他们的话和想法,要分析他们的学习方式,我们如何保护这些数据?谁拥有这些数据,它能货币化吗?如果玩具正在家中“听”,那收集到的便不止孩子的数据。如果一个孩子有很多设备在听,其他孩子也带来自己的设备,隐私问题就凸显出来了。政府或那些试图施加影响者,如影响选举的人,滥用权力的可能性很大,而且面临风险的是人的自主权。父母如何选择他们希望孩子学习的课程?大多数家长都想决定选哪所学校,但目前AI提供的教育不存在这个选项。在许多国家,禁止向儿童做广告,但如果一个AI玩具说它感觉冷,然后孩子帮它要件外套,这等同于向孩子做广告吗?如果玩具自带背景故事,不用孩子为玩具编故事,这对孩子的创造性游戏有什么影响,如果你的隐形朋友顶嘴,那你就没有运用想象力。这会不会不仅改变我们的自主权,还改变我们的思维方式?有许多AI玩具相伴长大的孩子会如何应对自己的同龄人呢?如果我们的设备能满足我们的需求,从不与我们意见相左,我们还会需要彼此吗?AI玩具是我们的终极传声筒吗?世界经济论坛与联合国儿童基金会(UNICEF)、各国监管机构、学者、民间社会和企业合作,正开展一个项目,旨在回答以上问题以及不断出现的更多新问题。

(2) 汽车中使用AI——在《星球大战》、《星际迷航》这样的科幻电影中,人类还在“驾驶”宇宙飞船,而自动驾驶汽车则无需驾驶,AI让人不再需要这项技能。与人类相比,AI能更好地计算距离、速度和目的地,因此放弃驾驶技能,把车交给AI是说得通的。然而这会带来隐私问题,提供AI技术的公司需要掌握位置数据,可以让汽车驶过为这项服务付费的地方,鼓励汽车用户使用他们的商店。同样,也会从车上的设备中收集到关于汽车用户的数据:我们如何维护隐私?德国已经开始研究此问题,并颁布法令规定,车内对话的数据应属于用户,而非汽车制造商或AI公司。此外,使用自动驾驶汽车可能会造成严重的失业,麦肯锡估计,每周可能会影响多达25,000名卡车司机。随着个人汽车拥有量的下降,越来越多的人在需要时租车使用,这可能会对汽车制造及其辅助服务产生重大影响。另一方面,自动驾驶汽车对环境有着巨大的积极影响,能减少道路上的死亡人数,这点也很重要。

对于强人工智能(AGI)/超级智能带来的风险和狭义的人工智能带来的风险,哪种更令您担忧?

许多人对控制AGI和超级智能有担忧,他们都在这些领域工作,有理由担心。此外,我们还要关注狭义的AI及其偏见、隐私、问责和透明度问题。这四方面问题在狭义AI的使用中,无论是在预测性警务和判决中,还是在获得就业和贷款的能力中都反复出现。随着越来越多的AI物品(如汽车和机器人)进入市场,这些问题将会成倍增加。这就是为什么在现阶段考虑治理问题十分有必要。

AI的规范化和标准化有多重要?为什么?

治理有多种形式,政府监管仅是其中之一。但由于监管耗时很长,尤其在民主国家,监管总是滞后于AI这样快速发展的技术。

在WEF,我们知道某些情况下监管是必要的,但我们认为AI治理要想成功,最佳方式是使用敏捷的治理措施,包括:制定和使用标准(IEEE和WEF协议)、出现约束或支持的社会规范、私人激励计划、认证、专业机构的监督、各组织与在竞争对手、供应商、合作伙伴和客户的关系中自愿或通过合同实施的行业协议和政策。因此,作为敏捷治理倡议一部分的全球人工智能(AI)与自治系统(AS)伦理考虑倡议,这项工作意义重大。

我们有众多体现此法的项目,其中一个是“开放公共部门人工智能”(Unlocking Public Sector AI)。我们已经确认AI有大幅改进政府运营,通过新的方式满足公民从交通管理到医保服务到处理纳税申报表等各种需求的潜力。但许多公共机构由于担心偏见、隐私、问责、透明度和整体复杂性问题,对使用这种强大的技术持谨慎态度。在刑事判决、执法,甚至就业机会等领域正在出现因使用AI导致的负面影响。政府无法奢求使用正日益成为行业部署AI的一大特征的高深莫测的“黑盒”算法。公民对政府服务水平的要求不断提高,希望政府提供与创新私营企业同等水平的服务,政府官员必须确定这项复杂技术所能带来的具体好处,也要了解使用AI所创建的工具的负面可能性。

此项目召集各部门的利益相关者共同设计指导方针,使政府能够自信、负责地获得AI,并指导他们自己在内部开发可以利用AI的技术。许多国家的政府承诺试行这些指导方针,来测试关于其效力和影响的假设、重复基于此学习的指导方针,并公开分享其最新版本以鼓励国际采用。由于各国政府预算有限,常常难以将新的AI产品的炒作与实质内容分开,因此本项目还将收集政府内部最有效AI使用案例以及不成熟、未经证实、充满不确定性或风险的案例信息,并提供指导。

这些指导方针能让政府为公民的利益负责地部署和设计AI技术。同时,政府的巨大购买力能推动私营部门即使针对政府外销售的产品也采用这些标准。业界正讨论对AI技术设定自己的标准,政府的道德权威和信誉可为讨论设定基准。这些影响AI轨迹的间接方法为监管提供了一个较为温和的替代方案,尤其在面对日新月异的技术变革,传统治理措施过于缓慢的领域(尤其是AI领域)中。尽管企业普遍对政府采购上更严格的指导方针持谨慎态度,但该项目以众多案例研究为基础,其中的常识框架可帮政府克服不愿采购复杂新技术的心态,真正为企业打开新的市场。

AI监管如何赶上技术发展?多边/国际监管和标准化有多重要呢?

我们相信,与企业、政府、民间社会、政府间国际组织(IGO)和学者合作,论坛可以帮助共同建立AI治理机制,这意味着不会出现逐底竞争。世界上许多国家政府都愿意与论坛合作,目前论坛在旧金山、中国、东京和印度设立了第四次工业革命中心(C4IR)办事处,2019年在世界范围内还会多开设7家。AI治理需要我们共同努力,只有这样我们才能获得AI的好处,减轻其负面影响。

WEF正致力于一个帮助企业考虑AI治理的项目,叫做“人工智能董事会工具包”(AI Board Toolkit)。

AI日益成为跨界商业模式的当务之急,企业领导者需要确定这种复杂技术可为其业务带来哪些切实的好处,关注对负责地设计、开发和部署AI的需求。在第四次工业革命中,达到正确的平衡会带来可持续的企业发展,但如果不能做到负责地设计、开发和使用AI,则会损害品牌价值,可能造成客户的强烈不满。

所有公司的董事会成员都有责任在当前这一前所未有的技术变革期及其社会影响中对公司进行管理。一套实用的工具可使董事会成员提出正确的问题,了解关键的权衡,满足不同利益相关者的需求,懂得如何考虑和优化方法,例如任命首席价值官、首席人工智能官,或设立人工智能伦理咨询委员会。

该工具包的设计围绕四个支柱:AI的技术、品牌、治理和组织影响,每个支柱围绕创造、营销和AI的长期维护提供一个伦理视角。工具包还会支持公司决定是否以及如何采用特定的方法,帮助公司理解技术推动公司发展的力量。

工具包由AI专家与来自不同公司和行业的董事会成员和主要利益相关者合作设计,确保工具包满足企业领导者的特定需求,能产生实际行动和具体影响。