人工智能已经离开实验室,以新的方式进入人们的生活。
一份有关该领域现状的新报告称,人工智能已经离开实验室,以新的方式进入人们的生活。
来源:尼克·丹塔马罗/布朗大学

人工智能的进展和风险

一个国际专家小组对该领域的现状进行了评估,他们在一份新报告中称,人工智能已经达到了其发展的一个关键转折点。

实质性的进步语言处理计算机视觉模式识别这意味着人工智能每天都在影响人们的生活——从帮助人们进行医疗诊断到帮助人们选择电影。然而,随着这一成功,理解和减轻人工智能驱动系统的风险和缺点(如算法歧视或使用人工智能进行蓄意欺骗)变得更加紧迫。计算机科学家必须与社会科学和法律专家合作,以确保将人工智能的陷阱降至最低。

这些结论来自一份题为“《聚集的力量,聚集的风暴:人工智能(AI100)百年研究》2021年研究小组报告该报告由来自计算机科学、公共政策、心理学、社会学和其他学科的专家组成。AI100是由斯坦福大学以人为中心的人工智能研究所主持的一个正在进行的项目,旨在监测人工智能的进展,并指导其未来的发展。这份新报告是AI100项目发布的第二份报告,评估了2016年至2021年期间人工智能的发展。

布朗大学(Brown University)计算机科学教授、该报告小组主席迈克尔•利特曼(Michael Littman)表示:“在过去五年里,人工智能已经实现了飞跃,从主要发生在研究实验室或其他高度控制环境中的事情,发展到影响社会生活的事情。”“这真的很令人兴奋,因为这项技术正在做一些我们在5年或10年前只能梦想的惊人的事情。但与此同时,该领域正着手应对这项技术的社会影响,我认为下一个前沿领域是思考如何在最小化风险的同时从人工智能中获益。”

该报告将回答14个问题,探讨人工智能发展的关键领域。这些问题是由AI100常务委员会提出的,该委员会由一群著名的人工智能领导者组成。委员会随后召集了一个由17名研究人员和专家组成的小组来回答这些问题。这些问题包括“人工智能领域最重要的进步是什么?”以及“最鼓舞人心的开放挑战是什么?”其他问题涉及人工智能的主要风险和危险、对社会的影响、公众的看法和该领域的未来。

“尽管许多报道已经写过关于人工智能的影响在过去的几年中,AI100报告是独一无二的,它们都是由人工智能insiders-experts创造人工智能算法或研究广告对社会的影响作为他们的主要职业活动持续的一部分,纵向,同研究中,“德克萨斯大学奥斯汀分校计算机科学教授、索尼人工智能美国公司执行董事、AI100常务委员会主席彼得·斯通说。“2021年的报告对AI100的这一纵向方面至关重要,因为它与2016年的报告密切相关,评论了这五年期间发生的变化。它还为未来的研究小组提供了一个很好的模板,通过回答一系列问题,我们希望未来的研究小组每隔五年重新评估这些问题。”

微软(Microsoft)首席科学官、“人工智能百年研究”(One Hundred Year Study on AI)联合创始人埃里克·霍维茨(Eric Horvitz)赞扬了该研究小组的工作。霍维茨说:“不同的人工智能专家小组在这份里程碑式的报告中分享的见解给我留下了深刻的印象。”“2021年的报告很好地描述了人工智能的现状和发展方向,包括评估了我们目前的理解的前沿,并就未来人工智能对人类和社会的影响所面临的关键机遇和挑战提供了指导。”

在人工智能的进展方面,该委员会指出了人工智能各个子领域的重大进展,包括语音和语言处理、计算机视觉和其他领域。这一进步在很大程度上是由机器学习技术的进步推动的,尤其是深度学习系统。近年来,深度学习系统从学术环境向日常应用实现了飞跃。

例如,在自然语言处理领域,人工智能驱动的系统现在不仅能够识别单词,还能够理解它们在语法上是如何使用的,以及在不同的语境中含义是如何变化的。这使得更好的网络搜索、文本预测应用、聊天机器人等成为可能。这些系统中的一些现在能够产生难以与人类产生的文本区分开来的原始文本。

在其他地方,人工智能系统正在诊断癌症和其他疾病,其准确性可与训练有素的病理学家匹敌。使用人工智能的研究技术对人类基因组产生了新的见解,并加快了新药物的发现。虽然人们长期承诺的自动驾驶汽车尚未得到广泛应用,但车道偏离警告和自适应巡航控制等基于人工智能的驾驶员辅助系统是大多数新车的标准设备。

利特曼表示,人工智能最近取得的一些进展可能会被外部观察人士所忽视,但实际上反映了基础人工智能技术的巨大进步。一个相关的例子是在视频会议中使用背景图像,在COVID-19大流行期间,背景图像成为许多人在家工作生活中普遍存在的一部分。

利特曼说:“要把你放在背景图像前面,系统必须把你和你后面的东西区分开来,这是不容易的,仅仅从像素集合中就能做到。”“能够很好地理解一张图像,从而区分前景和背景,这在五年前可能会发生,但肯定不可能在每个人的电脑上发生,在实时和高帧率的情况下。这是一个相当惊人的进步。”

至于人工智能的风险和危险,该小组并没有设想超级智能机器接管世界的反乌托邦场景。人工智能的真正危险更微妙一些,但同样令人担忧。

报告中提到的一些危险来自于故意滥用人工智能deepfake图像和视频,用于传播错误信息或损害人们的声誉,或用于操纵公共话语和舆论的网络机器人。其他危险源于“一个光环与人工智能相关的中立和公正的决策在一些角落公共意识,导致系统被公认为目标,尽管他们可能有偏见的历史决定的结果,甚至明目张胆的歧视,”该委员会写道。在执法领域,这是一个特别值得关注的问题,犯罪预测系统已经被证明会对有色人种社区产生不利影响;在医疗领域,保险算法中嵌入的种族偏见可能会影响人们获得适当的医疗服务。

随着人工智能应用的增加,这类问题可能会变得更加普遍。利特曼说,好消息是,该领域正在认真对待这些危险,并积极寻求心理学、公共政策和其他领域的专家的意见,以探索减轻这些危险的方法。利特曼说,撰写这份报告的小组的组成反映出该领域的视野正在扩大。

利特曼说:“这个小组几乎一半由社会科学家和一半的计算机科学人士组成,我非常惊喜地发现,社会科学家对人工智能的了解如此之深。”“我们现在有在各种不同领域工作的人,他们理应被视为人工智能专家。这是一个积极的趋势。”

展望未来,该委员会的结论是,政府、学术界和工业界将需要发挥更大的作用,以确保人工智能发展为更大的利益服务。

订阅我们的时事通讯

相关文章

研究人员对人工智能进行心理分析

研究人员对人工智能进行心理分析

我们可以进行测试和实验,但我们不能总是预测和理解为什么人工智能会做这些事。

医疗保健中的人工智能——炒作、希望和现实

医疗保健中的人工智能——炒作、希望和现实

目前,我们过于关注人工智能这个话题。然而,为了利用人工智能技术,必须掌握几个挑战,并建立一个适当的框架。

AI Eve增强了基因测试

AI Eve增强了基因测试

一种名为EVE的人工智能模型显示出非凡的能力,可以解释人类基因变异的意义是良性的还是致病的。

深度学习帮助x射线数据在三维可视化

深度学习帮助x射线数据在三维可视化

科学家们利用人工智能训练计算机来跟上先进光子源所采集的大量x射线数据。

“Liquid”机器学习系统能够适应不断变化的环境

“Liquid”机器学习系统能够适应不断变化的环境

机器学习系统在工作中学习。通过不断适应新的数据输入,这种“液体网络”可以帮助医疗诊断的决策。

神经网络在不应该被信任的时候进行学习

神经网络在不应该被信任的时候进行学习

研究人员已经开发了一种深度学习神经网络的方法,以快速估计他们输出的信心水平。

心理健康游戏改变者

心理健康游戏改变者

通过一个简单的电脑游戏和人工智能技术,研究人员能够识别出抑郁症和双相情感障碍患者的行为模式。

人工智能能够识别结直肠癌的突变

人工智能能够识别结直肠癌的突变

深度学习算法比现有方法更准确地提取分子路径和关键突变的发展。

像人类一样“思考”的人工智能

像人类一样“思考”的人工智能

创造类似人类的人工智能不仅仅是模仿人类的行为——如果要完全依赖这种技术,技术还必须能够处理信息或“思考”。

受欢迎的文章

订阅简报
Baidu