admin 2025-10-07
57
算法信任隶属于传统意义上的人与技术之间的信任关系,是技术信任的一种。但算法与数据、智能的合力将这种技术信任推向了前所未有的境界。在数据被作为一种新型的生产要素的当下,作为数据核心动力之一的算法因其不透明性、偏见等技术不确定性问题所引发的算法风险构成了对算法信任的挑战。对此的应对,需要从算法信任的缘起及其所蕴含风险的解析中找寻出路。有效的算法信任应当是算法自身的技术的鲁棒性与人类理性的契合。
在2020年4月中共中央国务院发布的《关于构建更加完善的要素市场化配置体制机制的意见》中指出:“加快培育数据要素市场”“充分体现技术、知识、管理、数据等要素的价值。”[1]数据与土地、劳动力、资本、技术一样被视为生产要素类型的一种。数据、算法和算力三者的融合与整合是未来社会发展的必备。
一、算法信任的缘起
在人类历史发展过程中,信任与协作占据着极为重要的位置。在数据时代,信任依然是人类所面临的不可逃避的重要问题之一。波兰社会学家彼得·什托姆普卡(PiotrSztompak)在“一些作者认为‘人际信任’”是信任的经典类型,通常在‘社会信任’的标签下的其它类型的信任都只是派生的”[2](P55)的这一观点的探讨中,指出“现代技术,特别是电视,产生了对这种信任的一个有趣的种类——虚拟(virtual)个人的信任”[2](P56)、程序信任[2](P59)、系统信任、[2](P61)对象化的信任(targetedtrust)[2](P67)等。在开放的网络信息环境中,信任被认为是一个特定的主观概率,用来评估另一个代理或一组代理将执行的一个特定行动。[3](P217)在智能化背景下,信任被引入计算机安全和云安全等相关领域,算法信任作为新的信任类型悄无声息地对我们生活的各个环节产生了重要的影响。伴随人类历史的发展,信任被不断地赋予新的内涵和意义,技术信任就是对技术在人类社会中作用的一个表达。
(一)数据时代:算法信任缘起的语境
在人与技术共存的历程中,技术信任作为一个整体的概念出场。面对不同的技术,派生了不同的具体类别性的技术信任。在技术对人类社会日益渗透的过程中,技术信任与人际信任一样成为了哲学反思的对象。
近年来,莫瑞奥萨瑞·塔迪欧(MariarosariaTaddeo)与卢西亚诺·弗洛里迪(LucianoFloridi)提出了与什托姆普卡、尼克拉斯·卢曼(NiklasLuhmann)、拉塞尔·哈丁(RussellHardin)等学者不同的信任范畴---“电子信任”(e-trust)。这种信任是在新技术背景下出现的一种信任类型,其与传统人际信任最根本的区别是,其产生在“没有直接的、物理的接触的环境之中。”[4](P25)此处的环境由数据科学与数据技术所构建。算法信任的出场,与“电子信任”如出一辙,都是发生在由数据科学与数据技术所构建的环境中。
算法信任与电子信任一样,都没有像人际信任中委托者(人)与受托者(人)之间双方在物理上的直接接触作为基础,都是“行动者的交互虽然并非都是直接的物理接触,但却真实存在,并可识别;在数字环境中,共同的规范和伦理价值观由来自不同区域的不同文化形成。”[4](P26)算法信任与电子信任在数字化环境中的实现方式是相近的。一方面,随着各大互联网平台的兴起以及平台规范的制定,各大平台之间已经形成了一种互相可参考的普遍性互联网文化规范,在这样的情况下,清楚说明,算法信任无需以双方在物理上的直接接触作为基础。“一个能动者能够形成这样一种信念,这种信念允许其在未曾与受托者之间进行直接互动的情景下去相信一个能动者或客体(如,自动服务);”[4](P26)另一方面,在数字化环境中,委托人甚至可以便捷快速地获得比通过信任双方直接接触更可信的信息。例如,我们可以根据官方邮箱的后缀来判定个人是否所属这一机构,可以通过各类失信查询平台查询他人有过的被执行失信信息,可以通过大数据搜索获得个人的相关新闻报道、社交联系方式以及可公开的知识成果。相比而言,在现实环境中,一般而言,除非受托者主动呈现,委托者对受托者信息获取的便捷性及全面性较逊色于数字化环境。在数字化环境中,不论是作为人或者物的受托者都有自己的各类电子化证明,极少有能成功逃离数字化环境的记录和监督而存在的特例。
(二)算法信任缘起的两个维度
算法信任主要源自于算法本身作为技术所蕴含的可信度和人们自身的信任倾向这两个维度。算法信任隶属于技术信任,其所涉及的对象与技术信任一样,包括算法背后的人(算法技术的用户、设计者)和算法技术本身。
一般来说,信任来自委托者的给予与受托者的可信度。就算法信任而言,从委托者的视角来看,这往往有两种情况:
一是从算法技术的用户和设计者出发,算法信任以信任者的态度和期望为基础。在数字化环境中,算法技术的用户和设计者对于算法产品的熟悉度越高,这种信任就越容易产生,本质上来说,这是基于“经验”的信任。但当算法处理复杂性问题越来越得心应手并展现出一定的可行性之后,信任者对于算法信任的基础由熟悉的“经验”转向对未来情况不确定的“期望”。
二是从信任本身的功能出发,“信任作为一种资本积累起来,它为更大范围的行为开放了更多的机会”。[5](P85)在卢曼那里,不管是人还是社会系统,赢得信任有利于处理和适应更加复杂的条件。同样地,作为数据时代特殊信任形式的算法信任也是如斯,人们选择信任算法可以使得自身拥有更多的可能性。如帮助从事自身力所不能及的对社会事件和决策的复杂计算,实现其完成某项任务的目的。
从受托者的视角来看,即算法技术的角度来看,算法技术及算法产品的可信度是其获得信任的关键所在。虽然每一项技术都蕴含着潜在的风险,但技术发展本身恰恰是对风险的自我消解。因此,技术自身的鲁棒性催生着算法信任。与此同时,委托者与受托者之间的信任也是一个相互调节的过程。
(三)算法信任缘起的三个层次
从算法信任缘起的两个维度出发,又可分为必要性信任、期望性信任和算法可信任三个层次。三者关系密切,互相影响,任何一方面的失衡都会影响算法信任的规范性和安全性(如图1所示)。
第一,必要性信任。信任是社会系统运行的必要组成部分。“信任是系统成员之间相互作用的促进者,无论这些成员是人类代理、人工代理还是两者的组合(混合系统)。”[6](如果把正常的社会看作是一个运作系统,人们对医生、教师和司机的信任应该是自觉的并且也是必要的。这种必要的信任构成社会系统运行的关键。如果缺乏必要的信任,那么,授权就会遇到很多的阻碍,因为需要调配大量的时间和资源来对受托者进行监督。
因此,按照这个逻辑,任何执行任务的过程(包括监督的过程)也应该受到监督。然而,这就会影响大多数系统运行所必须的任务分配效率,限制系统整体的发展。在现实生活中,这种全方位的监督也是无法达到的。算法的应用涉及社会经济生活的方方面面。例如,匹配算法应用于网约车打车系统,推荐算法应用于信息个性化定制,决策算法应用于自动驾驶和机器控制等。信任是基于算法强大的工具性和计算性而建立的,同时,我们也需要信任来激发算法对于人类社会的巨大作用。但需要注意的是,这里的必要性信任不是意指对任何事物的无条件盲目信任,而是从系统运作的层面来看,必须有信任出场。
第二,期望性信任。信任是一个跨学科的概念,它“是一种心理状态,包含了接受脆弱性的意愿,这种脆弱性是指基于对他人意图或行为的积极预期。”[7](P395)委托者的经验和背景、以及受托者的能力是建立信任的重要方面。在这里,算法可被视为有能力成为受托者的角色。委托者对受托者的感知可信度是下意识的行为而非准确可靠的评估,委托者可以根据自身的直观感受来选择值得信任或不值得信任的受托者。也就是说,信任在某种意义上,可以被断定为一种主观性行为,甚至还有可能是无充分理性的主观性行为,即理性并非是期望性信任的充分必要条件。
当人们期望凭借算法给出的建议来进行公共决策和参与国家治理,以提升生活水平时,事实上就是一种算法信任。这种信任从本质上反应了人们对技术抱有的乐观态度。但与此相对应,由此也必然出现技术悲观主义者,如“人工智能威胁论”“算法陷阱”等消极观点。拉塞尔·哈丁认为“信任是一种不道德的观念”,“潜在的信任者对信任的失败负有道德上的责任。”[8](P28)实际情况是,信任往往经常会出现在不确定和危险的环境中,如果行动可以在完全确定或者零风险的状态下进行,那么此时的信任就没有任何意义。在算法时代,面对算法黑箱,我们需要保持谨慎并且乐观的期待,不断调节对于算法的信任来尽量规避不可预见的技术风险。
第三,算法可信度。必要性信任和期待性信任究其本质而言都属于从人本身出发的以主观性倾向为主的信任,而算法可信度则是基于强大的技术背景作为背书的以客观性倾向为主的信任。“一个人在特定的场合信任一个特定的人,其原因并不在于信任自身的价值、重要性或必要性,而是在于这个特定的人的可信任度。”[9](P213)从目前的算法应用来看,我们越来越多地把信任给予算法系统,然而我们并不理解其用于决策的方法,即所谓的算法黑箱普遍存在,输入与输出均已知,但是输入如何被转换成输出却未知。在医疗判别、图像识别等领域算法的可解释性与性能依旧无法兼得,这导致算法可信度更多地是出于算法的历史信用而非透明的可解释的技术验证。在人工智能领域,算法可信度体现在基于提高人工智能透明度和安全性的安全对抗测试技术和形式化验证技术的不断更新进行。

算法信任缘起的两个维度和三个层次
二、算法信任的风险及其后果
当算法在实际应用当中出现重大决策失误的时候,“算法黑箱”和算法的不可解释性特征总是免不了被媒体和行业专家所聚焦。在现代计算机科学当中,“一个正确的算法是有用的,因为它可以解决给定的计算问题,一个不正确的算法也可以是有用的,与一般人认为的相反,不正确的算法在其错误率可以被控制的情况下甚至可能是很有用的。”[10](P2)算法的这一特征在使用伪代码运行过程中可能会输出更好的结果,但是在实际场景的运用中却加剧了算法的复杂性和不可解释性。
然而,在市场竞争的过程中,算法的不可解释性并不会削弱计算机算法软件市场的蓬勃发展。普通的人们已经无法忽视算法,拒绝使用算法几乎将大大影响人类的生活。实际上,任何技术都是一把双刃剑,是利弊同在的产物,但最终把握算法利弊走向的还是人类自身。“我们有可能把信任问题阐述为冒险,一种风险投资。”[5](P31),算法信任同样如此。算法信任的风险与算法风险相比更多地是透过算法技术直指向信任、安全等伦理问题,算法风险更侧重于技术风险,其重在技术自身,而算法信任的风险则与委托者息息相关。
(一)算法信任程度过高导致盲目信任
在技术信任中,我们相信技术以及设计和操作技术的人。这种信任一旦过度,技术的权力将会大大增加,因为过度的信任意味着委托者(信任者)将要求更少的证据和付出更少的监督。
当对算法的信任高达一定程度的时候,由信任初期带来的技术便利将会走向另一端。“数字技术(包括算法及其产品)与环境和人类代理一样都是“信息有机体”,[6](P2)我们通过数字技术与互联网世界中的人和事产生互动、共享信息,久而久之技术成为一个我们足够信任的无形界面,在正常的日常生活中被我们使用着但却又被遗忘着,只有在出现非人为事故的时候,我们才会想起平台、程序应用中最隐蔽的技术部分。当算法被嵌入进关键系统,如自动驾驶、人脸识别、安防监控等日常安全设备当中时,我们常常会将其背后所蕴含的的技术手段及其所存在的风险遗忘。
2016年1月20日,一辆处在自动驾驶Autopilot状态的特斯拉在京港澳高速行驶过程中出现道路安全情况误判,导致车辆发生追尾致人员伤亡的严重后果。这是全球首起特斯拉自动驾驶致死案。[11]智能技术的失控引起人们的反思,“算法黑箱”存在已久,之所以仍无法阻挡技术试跑,很大一部分归因于人们的信任。流血的错误将人们对自动驾驶技术的信任短暂回收,但这种不信任不会一直持续下去,因为科技公司绝不可能因此终止自动驾驶技术的研发,放弃该技术带来的商业红利。自动驾驶技术的目标设定本身是给驾驶员提供技术便利的驾驶辅助,但是由于特斯拉官方的不当宣传和驾驶者对于技术不恰当的信任,从而导致了事故的发生。“信任构成了复杂性简化的比较有效的形式”[5](P10),但在数字时代无实体接触且仍不可解释的算法技术背景下,盲目的信任无异于是在随意掩埋威胁人类安全的技术地雷。这是算法信任最大的也是最不可预测的风险。
(二)算法信任程度过低阻碍算法发展进程
在智能时代背景下,算法越来越具有高度的复杂性和自主性,以学习算法为例,“我们把经验数据提供给学习算法,它就能基于这些数据产生模型;在面对新的情况时,模型会给我们提供相应的判断。”[12](P1)学习算法本身不像传统的算法模型一样固化和简单,在发展的过程中也越来越不偏重以人工先在设计为主,学习算法根据数据自主定制模型的自由程度也越来越高。
目前,学界对于算法的自主性和复杂性特征有着较大的争议。不同的人群对于算法信任的程度也有所不同。一般而言,哲学、伦理、法学、管理等方面的专家会对算法信任更加谨慎,认为算法智能程度有可能冲击到人类决策和人类福祉。如阿里尔·扎拉奇力(ArielEzrachi)和莫里斯·E·斯图克()指出:“在复杂的计算机算法、人工智能和大数据技术的辅助下,共谋、行为歧视与竞合场景将改变市场竞争范式并有可能恶化市场竞争环境。”[13](P305)因此,他们呼吁政府和执法者发挥作用,投入资源以更好地理解数据与算法所发挥的作用以及其对社会福利的影响,增加执法部门对算法的管控;而计算机技术专家多对算法格外青睐,尽管出现AlphaGo等人工智能制胜的案例,但从整体上认为算法目前还远不能及人类智能并且仍然是安全可控的。
如果把算法比喻成一个西瓜,那么人文社科学者更多地是从西瓜的生长土壤和培养环境以及它初显的皮相来判断西瓜是否是甜的,而计算机技术专家的判别逻辑则比较简单直接,采用“先尝一口”的方式,在技术可以实现的环境下先运行起来,允许算法有一定的容错率。哪怕存在若干复杂的不确定因素,也依然可以试运行,因为算法应用对于算法技术的持续发展是至关重要的。“曾经在科学史上风靡一时的‘奥卡姆剃刀原则’在学习算法领域也有很多的追随者。奥卡姆剃刀原则主张选择与经验观察一致的最简单假设,该原则在机器学习和学习算法领域一直存在着争议。需要注意的是,这并非科学研究中唯一可行的假设选择原则。”[12](P17)因此,算法本身的复杂性和不可解释性不应该导致算法信任清零。信任程度一旦过低时,人和技术之间的关系往往会以合作的方式呈现,信任程度越低,人工干预所需要的成本越大。
(三)不可拒绝的算法信任削弱人的主体性
鉴于算法信任的不可解释性,或许可以将其称为不可拒绝的裹挟式信任。在某种意义上,算法信任恰恰是源自于算法对人类的规训。算法拥有并且处理大量的数据,算法所触及到的视角比任何个人的视角都要广阔。福柯在《规训与惩罚》一书中阐述了现代社会中的一种新的权力形式:规训权利。书中提到的“全景敞式主义”[14](P236)不禁让人联想到数字化时代人的境遇,后台与用户有关的数据几乎全部暴露在算法之下。
迄今为止,算法在日常的实践和观念中不断规训人们养成新的信任习惯。当你下载使用某一个APP时,必须先接受其规定的技术设定和使用条款,否则将无权使用;当你搜索信息的时候,必须先输入符合搜索条件的关键词,否则将很难获取到符合条件的有效信息;当你在网络上生产内容时,算法通过自动化指标对生产内容加以严格筛选和控制以引导用户产出符合平台预期的结果。出于商业需求、技术竞争和社会便利而被设计者训练出来的算法在长时间发挥作用的过程中向人们传递了一个重要的信号,即权力信号。算法技术裹挟着规训与强制,在日常应用中以强植入性的方式来获取人们的信任。比如特殊时期的“健康码”应用,不可否认的是“健康码”在很大程度上防止了病毒携带者将病毒跨区域传播扩散,但是它获取人们信任的方式是强制性的和不可拒绝的。一方面人为的设计和制度的规定导致了这种强制性,更重要的是算法技术自身带有的长期以来的说服效应,它规训着人们对其养成习惯性的信任,俗称“口碑”或者“信誉”。思维习惯和行为习惯一旦养成,那么将很难改变,人的主体性也会逐渐丧失。
当算法越来越成为程序应用中最隐蔽的部分时,便产生了如下几个后果:首先,算法完全脱离了人们日常可感知的领域,进入到抽象意识的模糊领域;其次,算法的效力逐渐源自于技术带来的必然性,而非可公开透明的算法模型和程序设计;最后,算法信任的确定性将算法效力发挥到极致从而阻止人们对算法本身产生质疑,进而当事故发生的时候,算法不会被推到第一责任方的位置。
因此,算法信任的风险是多种形式并且难以预测的,但从信任的角度出发,算法风险往往集中在两个方面。第一,算法信任的结果是不确定的,过分信任与缺乏信任都会导致技术发展过程当中对自身要求的调整和改变,从而产生不可预计的后果;第二,算法信任遮蔽了算法自身的缺陷即算法的复杂性和不可解释性等问题,给算法找了一个掩盖缺陷的借口。
信任的本质是允许不确定性的存在,算法信任也同理。伴随着技术研发的不断前进,一些不可解释的技术疑点会被信任搁置,带来潜在性的风险。不可否认的是,技术想要继续前进,必须要建立足够的信任,在计算机的世界当中,“数据”即为“经验”,对复杂的经验进行理性分析和了解其中规律对于规避信任的风险是必要的。
三、有效算法信任的构建路径
伴随着数字化进程的不断深入,算法已经成为构建未来世界的基础性原则,近几年,旨在加快发展人工通用智能的类脑计算系统发展很受重视。智能算法处理的行径与人类思维相似,呈现出生物性特征。在快速发展的需求和趋势下,算法技术不断实现突破,但是在实际应用中却产生了歧视、偏见和黑箱等问题。这些问题在算法伦理的研究中常常被提及,并且被视为是人工智能发展对人类产生威胁的一大隐患。
算法信任的偏颇会引发自动驾驶安全问题、市场竞争公平性问题和人的主体性逐渐丧失等一些列重要的伦理问题,阻碍数字社会的健康发展。因此,我们需要携手政府、企业等重新构建正确的算法信任,解决算法伦理困境,以便更好地服务于数字经济和人工智能未来的发展。关于此,本文将基于调节理论,从信任的缘起与风险出发,结合算法特性、运行逻辑以及它的实现(技术、程序)与配置(参与人工设计的应用程序),从如下四个方面构建有效的算法信任。
(一)设置适度的信任阈值
算法信任需要设置适度的阈值。适度的算法信任是算法安全发展的保障。适度的算法应该是“好”的、向善的,是以保护社会公共利益为前提的。如果信任仅仅从某个企业或者某个平台的角度出发,那么很容易因为利益的驱使而出现信任的背叛,从而导致一些不可避免的公平性问题和隐私问题,影响社会秩序。例如:作为虚拟助手的苹果的Siri等,目的是使人们的生活更加便利。这些助手是通过所收集数据的研析,做出对用户行为的预判或导引。但是,不容忽视的是,在基于海量的数据分析和训练之后,虚拟助手会在其雇主超级平台的要求下,分析人们的消费能力和偏好之后进行精准营销,这实际上限制了用户的自由选择以及发现更低价的商品的存在,进行了市场遮蔽。
现实中,人们往往要经过很长一段时间才能从平台这种由算法驱动的共谋场景中醒过神来。在计算机系统中,信任影响授权与合作,违背信任必定导致其收回。为了避免上述情况,及时地回收信任也是规避风险的有效途径。因此,算法信任需要设置一个适度的阈值并且定期评估信任的成效。鉴于算法拥有一般技术所不具有的超越物理极限的能力如存储和计算能力,因此,人类要确保算法的风险可控性永远把握在人类手中,避免因失控而对人类道德和社会秩序产生巨大冲击。
(二)调节算法信任以规避风险
算法迭代更新快速,人们对于算法信任的反应普遍落后于算法技术演变的进度。因此,我们需要根据实际,从运行效果、训练难易、是否稳定等方面来评估进行给予算法的信任程度,在形成适度的信任阈值的基础上对算法信任进行动态调节。
为了公平地对待算法技术,我们将其看作与人接近的道德主体。这一观点在彼得·保罗·维贝克(Peter-PaulVerbeek)那里有所体现,“技术不再调节人类行动与决策,而是与人类主体混合在一起,导致了有时候被成为‘赛博格’的混合实体。”[15](P172)维贝克对技术物物的道德维度解析,开启了对人和技术的关系进行了规治的新路径。算法是数据时代的关键技术,当我们在某些场景中把算法看作是具有道德主体特质的人工物的时候,因此我们对待算法技术的态度将会更加审慎一些。“智能技术的发展将会使得人工道德主体界定的模糊性增加,进而造成其权利与权益的混乱。”[16](P15)人与技术的关系需要根据实际情况不停地改变,技术的权利与责任认定也需要不断更新。
当今算法技术的发展恰恰正是人类在不确定性中积极寻求安全,以确保人与技术之间保持良好的关系。信任调节与“道德调节”相同,强调技术本身的自主性、意向性,利用调节的手段将信任内嵌于算法当中,以便算法性能与德性得到更好地发挥。算法信任调节以算法信任阈值为基础,不断将适度的信任植入到算法技术当中,推动算法在有监督有规范下健康发展,规避算法带来的技术风险和伦理风险。
(三)完善算法设计者的责任机制
算法信任实际上是对设计和训练算法的人的一种信任。在复杂的架构和场景应用中,用户的选择和判断能力是有限的,算法能否进行正确的道德决策在很大程度上取决于算法设计师。当算法偏见问题产生的时候,我们需要对其进行追责以避免算法风险的重复发生和扩大化。例如,在美国刑事司法中“COMPAS”系统的应用中,“COMPAS是一种基于机器学习的软件,用于评估刑事被告再次犯罪的可能性,并已被证明提供对美国黑人有强烈偏见的预测。”[6](P2)COMPAS系统的可信度受到了强烈的质疑,算法信任危机由此产生。
算法偏见的产生应该是可察的,应将公平一开始就嵌入算法设计的环节。“算法注入偏见的主要有三个环节——数据集构建、目标制定与特征选取(工程师)、数据标注(标注者)。算法工程师和数据标注者是影响算法偏见产生的重要涉及者,数据集是偏见产生的土壤。事实上,几乎每一个机器学习算法背后的数据库都是含有偏见的。”[17]想要避免算法偏见获得算法信任,应该强调数据收集和标注时的公平性,及时消除数据本身存在的偏见,将公平一开始就嵌入算法设计的环节。
设计者应有权获悉算法用途、做出伦理判断、明确开发责任和后果,防止能力与责任的背离。如果算法尚未能够完全确保如自动驾驶决策的安全等,那么就应该在设计上明确强调提醒用户该算法产品的不确定性以确保用户的知情权和选择权。算法在执行公平、隐私、透明度等社会规范时将以算法成效和企业利润作为直接的代价,进而无法确保企业在关乎利益的关键选择上会偏向于消费者。因此,一方面,我们应该强调算法设计责任和伦理规则;另一方面,应该提醒用户对算法产品保持理智和有效的信任。完善算法设计者的责任机制可以有效助推算法信任。
(四)算法信任应联动道德与法律
信任是带有个人偏好的,个人针对同样的算法技术在某些应用场景下选择信任,在其他应用场景下则选择不信任,个人的选择标准也不尽相同,正因为如此我们才需要规范算法信任以发挥其正向作用。
算法信任在数据时代下涉及很多新的伦理问题,“信任不可能是无一例外、全然有效的行为准则。”[5](P113)算法信任作为一种推动力想要有效影响技术的研发和使用,就需要与法律和道德一起协同合作,共同应对算法和应用系统引起的危机。如果说道德在算法设计和应用中起到了先行者的作用,那么法律法规则对算法安全起到了最后的坚守作用。在法律规范方面,国内外政府、国际组织已经积极采取行动制定了算法技术相关发展规范,例如:2019年4月,欧盟AI高级别专家组发布了《可信任人工智能的伦理框架》,提出了四项伦理准则:尊重人自主性、预防伤害、公平性和可解释性[18]。2019年6月,中国科技部成立了国家新一代人工智能治理专业委员会,并发布了《新一代人工智能治理原则——发展负责任的人工智能》强调了和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八条原则[19]。
算法是人工智能的灵魂,对人工智能的伦理规范其中也包括对算法技术的伦理规范。显然,道德与法律法规的联动规范是人类应对算法危机提出的切实有效的方案。与此同时,算法信任应该配合法律法规和道德规范一起对算法实施作用,成为算法危机解决的有效工具。有效的算法信任应该尽可能摒弃个人偏好,与法律道德实现配合联动,督促算法技术健康长足的发展。
有效的算法信任是在长期熟悉算法及其应用的过程当中建立的,算法因其透明性、偏见等技术不确定性问题所引发的算法风险构成了对算法信任的挑战,算法信任问题的解决有利于推动算法危机的解决。
综上所述,算法信任应该设置一个正确的阈值,根据实际情况进行信任的动态调节,落实对算法设计者和操作者相关的责任机制,尽快建立算法技术发展相关法律规范,防止与算法技术发展相伴而行的巨大风险挑战。
结论
信任问题是确保社会正常运转的重要问题。在智能化社会背景下这一问题的研究意义更为突出,算法可信度以及我们对于算法的信任程度决定着我们在当下开放网络的生活中所承担的风险大小。信任需要有明确的边界,在边界内,算法对人类产生的作用是增强;超出边界,算法对人类的作用变成操纵。
数据、算法、算力是数字经济的基础支撑,智能计算将会是未来技术发展的重心。随着工业互联网的快速发展,智能计算需求的呈指数型增长,我们应该尽快建立对于算法以及人工智能技术的有效信任机制,缓解算法危机,防范技术风险,形成伦理规范,进而确保技术发展的方向是向善的并且符合大众的利益需求。
参考文献
[1]中共中央国务院关于构建更加完善的要素市场化配置体制机制的意见[M].北京:人民出版社,2020.
[2][波兰]彼得·什托姆普卡.信任:一种社会学理论[M]程胜利译.北京:中华书局,2005.
[3][R].Trust:,BasilBlackwell,1998:217
[4]Taddeo,:FromOldTheoriestoNewProblems[J].InternationalJournalofTechnologyandHumanInteraction,2009(2):25.
[5][德]尼古拉斯·卢曼.信任[M]翟铁鹏,李强译.上海:上海人民出版社,2005.
[6][J].MindsandMachines,2017,27(4):2
[7],,,:ACross-DisciplineViewofTrust[J].TheAcademyofManagementReview,1998,23(3):395.
[8][J].Ethics,1996,107(10):28.
[9][J].AustralasianJournalofPhilosophy,2008,86(2):213.
[10]潘贵金,顾铁成,曾俭,滕远方等.现代计算机常用的数据结构和算法[M].南京:南京大学出版社,1994:2.
[11]观察者网.邯郸特斯拉事故致死案:公司承认案发时处“自动驾驶”状态[EB/OL].(2018-2-27)[2020-02-10].
[12]周志华.机器学习[M].北京:清华大学出版社,2016.
[13][英]阿里尔·扎拉奇,[美]莫里斯·E·斯图克.算法的陷阱[M]余潇,译.北京:中信出版社,2018:305.
[14][法]米歇尔·福柯.规训与惩罚[M]刘北成,杨远婴译.北京:三联书店,2003:236.
[15][荷]彼得·保罗·维贝克.将技术道德化——理解与设计物的道德[M]闫宏秀,杨庆峰译.上海交通大学出版社:上海,2016:172.
[16]李旭,苏东扬.论人工智能的伦理风险表征[J].长沙理工大学学报(社会科学版),2020,35(01):15.
[17]腾讯研究院.算法偏见:看不见的“裁决者”[EB/OL].[2019-12-19](2020-04-04)
[18]〔EB/OL〕.https:///futurium/en/ai-alliance-consultation/guidelines..
[19]中华人民共和国中央人民政府.发展负责任的人工智能:我国新一代人工智能治理原则发布[EB/OL]..
HowCanEffectiveAlgorithmTrustbePossible?
YANHong-xiuSongSheng-nan
(SchoolofHistoryandPhilosophyofScience,ShanghaiJiaoTongUniversity,Shanghai200240,China)
Abstract:Algorithmtrustisakindoftraditionaltechnologytrust,,,,,theanalysisoftheoithmtechnologyandhumanrationality.
KeyWords:algorithm;algorithmtrust;mediation;ethics
【本文为国家社科基金规划项目:数据记忆的伦理问题及治理研究】
宋胜男(1996-),女,浙江金华人,硕士研究生,主要从事技术哲学研究。】
【本文首发于《长沙理工大学学报(社会科学版)》2020年11月第六期】