当前位置: 首页> 职业导航> 正文

“芯”变“心”?AI也能读懂人类价值观?

admin 2024-12-25 79

不久前,在莫斯科国际象棋公开赛上,对弈机器人因为小棋手犯规,竟折断其手指,这个新闻引起公众一片哗然。

尽管官方解释这并非机器人的自主判断,而是机器误将小孩的手指判断成棋子,属于程序错误。

但很多网友还是觉得实在太可怕了,惊呼机器人革命开始了,让我们欢迎新的机器人世界。

自人工智能火热起,关于其威胁论从未平息。

比尔盖茨,马斯克、霍金等科技界巨头都曾公开发表言论,告诫人们应该警惕人工智能技术。

马斯克和霍金还因此获得过IT与创新基金会颁发的“阻碍创新”奖。

霍金此前在《独立报》上概括人工智能的威胁:“尽管人工智能的短期影响取决于控制它的人,但长期影响却取决于它究竟能否被控制。”

从霍金的言论至今已过多年,AI究竟能否被人类控制呢?

01

AI朝适配人类价值观奋进

在7月14日,国际顶级学术期刊ScienceRobotics发表了北京大学朱松纯团队的最新研究成果——实时双向人机价值对齐(Bidirectionalhuman-robotvaluealignment)。

团队提出了一个可解释的人工智能系统——XAI,拥有一套机器实时理解人类价值观的计算框架,并展示了机器人如何与人类用户通过实时沟通完成一系列复杂人机协作任务。

无独有偶,同样在今年7月,DeepMind开发出了一套“民主AI”,用于经济政策的制定。相比于人类制定的“平等主义”法和“自由主义”法,AI制定的新型经济机制获得了更多的选票。

当我们再一次为AI击败人类而唏嘘之余,不难发现,AI一直在朝着“适配人类价值观”的方向发展和突破。这也就是我们要谈的价值对齐(ValueAlignment)。

02

缘起

随着进入元宇宙时代,人工智能慢慢地渗透到我们生活的各处。

但是人工智能带来的负面影响也不断地引起人们的担忧,不仅有非危言耸听的人工智能威胁论,还有“黑箱”的不可跟踪问题等等。

特别是在AlphaGo打败李世石的时候,许多人为人工智能迅猛发展感到开心,但是同时也会对其未来发展感到紧张不安。

电影《黑客帝国》、《机械公敌》等更是将人们的担忧生动地刻画在了大荧幕上。

当人工智能突破“三定律”时,谁都会不寒而栗。

早在人工智能方兴未艾之时,控制论之父诺伯特·维纳(NorbertWiener)便提出了人机协作的基础:

“如果我们使用一个机器来实现我们的目标,但又不能有效地干预其运作方式,那么我们最好能笃定,输入给机器的目标是我们真正所预期的。”

这便是价值对齐。也就是说,为推动实现人安全自由且全面的发展,人工智能的发展也应以增进人类福祉为目的,与人类的价值标准和道德规范相符合。

03

发展

浙江乌镇举办的世界互联网大会上,苹果公司首席执行官库克(MartinCooper)提出了要把更好的人性与价值观嵌入到人工智能技术中的想法。

人工智能技术不应该是冷冰冰的,人工智能设计人员应强调程序设计和算法的人文情怀,将算法背后的价值观体现在程序设计的整个过程。

设计过程包含着设计者的价值理念与价值判断。

这种价值观,从根本上说,是人类价值观对智能体的拓展和延伸,是人类意志和价值诉求在智能体与环境交互和智能决策过程中的具体体现。

如何将人类规范化的价值理念和价值标准转化为形式语言,实现价值算子嵌入到智能体系统中呢?

据美国石英财经网站2016年11月1道,加利福尼亚大学伯克利分校计算机学教授斯图尔特·拉塞尔认为:

“理性机器植入道德元素,如程序规则的行为,可能构成人工道德主体所需的理性。”

复旦大学哲学学院教授徐英瑾认为:

“康德对于人工智能科学家的启发就在于:知觉的‘自上而下’进路(‘知性’或‘高阶知觉’)和‘由下而上’进路(‘感性’或‘低阶知觉’)都是不可或缺的。

因此一个更全面的人工认知模型将囊括这两者。”即遵循自下而上的机器学习方式和自上而下的逻辑嵌入方式。

北京大学的朱松纯团队为了完成人与机器之间价值目标的双向对齐,他们认为需要一种人类价值主导的、动态机器-动态用户的交流模式。

在这样一种新的模式中,机器人除了揭示其决策过程外,还将根据用户的价值目标即时调整行为,从而使机器和人类用户能够合作实现一系列的共同目标。

他们采用通讯学习取代了传统数据驱动的机器学习方法,使得机器具有心智理论(ToM),而后机器将根据所推断出的用户的价值目标进行合理解释,即理解他人的心理状态(包括情绪、信仰、意图、欲望、假装与知识等)的能力。

设计拥有心智理论的系统不仅在于解释其决策过程,还旨在理解人类的合作需求,以此形成一个以人类为中心、人机兼容的协作过程。

04

未来

科技发展的路上必然存在着担忧。

在面对DeepMind开发的“民主AI”时,有人认为强调民主目标不应该作为一种价值校准的方法,即“以牺牲少数人为代价赋予多数人权利”。

人们担心人工智能的部署方式可能会加剧社会中现有的偏见、歧视或不公平。

在2016年召开的首届“国际人工智能选美大赛”上,机器人专家组依据“准确评估人类审美与健康标准”对参赛选手的面部进行评判。

令人意想不到的是,最后比赛的获胜者都是白人,这就是技术权贵设计的算法未能考虑到其他肤色人种的评判需要所造成的歧视。

“梅赛德斯-奔驰”无人驾驶汽车的程序设计中也存在着不平等的价值标准。

针对在遇到紧急情况下智能系统会优先选择救路人还是保乘客的两难问题,奔驰无人驾驶汽车的智能系统会优先选择保护驾驶员和乘客,但这并不能充分体现平等性原则。

人工智能价值观的构建并不会在短期内完全实现,而是需要一个长时间的认知过程和技术发展过程。

但我们必须相信,价值观引领的人文技术在未来人工智能应用中。人文技术在确保未来人工智能的安全、可靠、可控以及实现人机和谐过程中必将发挥重要作用。

展望元宇宙时代,随着人类认知水平的大幅提高和智能技术的飞速发展,人们对智能机器的依赖程度不断加深,人机融合将进入新的阶段。

人机和谐发展必将成为后人类时代发展的主题。因此,实现人机的“价值对齐”也将会成为人工智能研究的重大课题之一。

参考资料:

Koster,R.,Jan,B.,Tacchetti,(2022).

Yuan,Luyao,etal.“InSituBidirectionalHuman-RobotValueAlignment.”ScienceRobotics,,,2022,.

包彦征,邓辉文.后人类时代人工智能体的价值观何以可能[J].内蒙古社会科学,2021,42(01):59-66.DOI:10.14137/

图片源于Q仔互联网冲浪所得,若有侵权,后台联系,Q仔滑跪删除~

同类文章
  • 最新文章
  • 热门文章
  • 随机阅读
友情链接