核心咨询网,国内外期刊推荐与投稿指导的专业指导服务平台

人工智能的心灵哲学解释与价值规范

来源:核心期刊咨询网 发布时间: 咨询:

摘要:人工智能的迅速发展促使人们从认知理论和思维科学的视角对其本质和研究进路进行哲学解释和阐发。图灵主义理论从运作的实际效果看待人与机器思维之间的关联性。符号主义的进路和联结主义的进路从不同的角度概括人工智能的主要研究机制。塞尔关于人工智能的哲学观则试图

  人工智能的迅速发展促使人们从认知理论和思维科学的视角对其本质和研究进路进行哲学解释和阐发。图灵主义理论从运作的实际效果看待人与机器思维之间的关联性。符号主义的进路和联结主义的进路从不同的角度概括人工智能的主要研究机制。塞尔关于人工智能的哲学观则试图否认强人工智能的可能性,但也有人持与此不同的观点,他们基本支持图灵主义的思路。人工智能的发展和利用需要尊重政治哲学中的平等、公正和权利观念,不得在人们之间制造偏见和歧视。操作人工智能系统需要遵守技术伦理规范,人们利用大数据操作导航、搜索引擎、视频监控、智能识别和动态识别,收集个人全面的行动信息都必须尊重个人隐私,确保安全可靠。严格防范和惩治利用图像、音视频仿真等深度伪造技术进行欺诈,加强监管利用人工智能创造出来的新的DNA聚合物、电脑病毒等产品。生成式人工智能需要尊重知识产权,对于具有很强自主学习和选择能力的通用人工智能更需要设置严格的人文价值规范,应遵循以人为本的原则,维护人的整体利益,不得伤害人也不得在人受到伤害时不予救助。

  关键词:人工智能;心灵哲学解释;价值规范

  论文《人工智能的心灵哲学解释与价值规范》发表在《社会科学辑刊》,版权归《社会科学辑刊》所有。本文来自网络平台,仅供参考。

  一、引言

  人工智能在近年取得了惊人的成就,从作为人操作设备辅助工具的人工智能,到可以直接产生大量智慧成果的生成式人工智能,从执行单一任务的专业人工智能(AI)到综合性自主性强的通用人工智能(AGI),人工智能成果不断深入各个领域。尤其在创新思维方面,人工智能也取得了惊人的进步,正在创造出许多新的成果。

  如同机器取代或延展人在工农业生产中的体力和脑力综合活动一样,人工智能的功能从实质上说是代替或延展人脑的智力工作。这也促使人们从认知理论和思维科学的视角对人工智能的本质和研究进路进行哲学解释和阐发。人工智能的哲学对其科学观念的前提和实际运作的方法进行了哲学的反思,因而属于自然科学的具体学科的哲学范畴,也是心灵哲学的一个分支,并与认知科学的哲学密切相关。由于人工智能的发展和应用直接关涉社会的科学技术建制的运作,其操作的社会成效直接关涉人际关系的处理,进而涉及根本的社会价值观,与政治哲学、人文价值观、社会的伦理规范和治理相关联。对于人工智能,我们确实需要尽快建立能够与之相匹配的道德价值规范。

  二、人工智能的心灵哲学解释

  对于人工智能的心灵哲学解释涉及对人的智能本质的认知,已经历了较长时间的发展。关于人工智能学科的起源,不能不提到英国逻辑学家、数学家和计算机科学家阿兰·图灵的原创性贡献,他在《心智》上发表的《计算机科学与智能》一文中,独创性地提出了“图灵测试”思想。关于如何判断一台人造机器是否具有人类智能的问题,他提出的充分条件是视其言语行为能否成功地模拟人类。在人机对话中,一台机器若能刻意训导人类认定它是真的人,它就通过了“图灵测试”。基于此,图灵预计50年以内可以造出这样的机器。〔1〕这是对于计算机器乃至人工智能发展的可能性和方向的经典论述,也提出了如何回应“智能的本质是什么”这个哲学问题。图灵在此以一种行为主义的心智理论,克服了心理学研究与机器编程之间的鸿沟,并反驳了对此持否定态度的观点。

  人工智能研究的目的究竟是什么?那就是最终通过模拟人的智能在人造机器上实现机器智能。为达此目的,就需要回答“何为智能”这一根本性问题。对此问题的不同答案,通常会采取不同的技术发展路径。其一,认为“智能”的本质是解决具体问题的实际能力,这种思路会为智能机规制解决各种问题的路径,并且每一路径有相应的问题;其二,主张实现“智能”本质上就是尽可能地模拟自然智能体的生物学硬件,这种联结主义的思路会致力于研究人脑的基本结构,以数学模型重建简化的神经元网络;其三,主张智能的本质只在行为层面上使智能体产生类似于人的行为,这种思路会竭尽全力填补理想中的智能机器的“心智黑箱”,并由此发展出行为主义的进路。可见,对于智能的实质的哲学阐释会影响人工智能发展的技术路径。

  人工智能的哲学思维可以分为若干种进路,主要是符号主义、联结主义和行为主义,其思想发展的起源和脉络可以回溯到西方哲学史。这里重点阐述符号主义和联结主义两大进路以及塞尔关于人工智能的哲学观。

  (一)符号主义进路

  这一进路是通过符号化的规则来编制人工智能程序,因而高度依赖符号表征的明确意义,低度容忍自然语言的歧义。这可以追溯到古希腊哲学的形式主义传统,即通过刻画来澄清自然语言推理的歧义。毕达哥拉斯、苏格拉底、柏拉图和亚里士多德都为此作出了重要的贡献。毕达哥拉斯把“数”视为世界的本原,开创了此后数千年科学对于数学语言及一般意义上的形式语言的推崇。亚里士多德则第一次系统地构建了完整的形式逻辑体系,为此后人们形式化地整编自然语言提供了可靠的技术依据。法国哲学家拉·美特利关于“人是机器”的著名论断则提出了关于人的生物属性与心理属性之间关系的局域性论点,论述了人与机器之间的本质联系,肯定了机器实现模拟人的思维的可能性。近代英国唯物主义哲学家霍布斯着迷于抽象的几何学,力图抽象地刻画人类的思维。他在《利维坦》中论述道:

  当一个人进行推理时,他所做的不过是在心中将各部相加求得一个总和,或是在心中将一个数目减去另一个数目求得一个余数……人们在数字等方面虽然除开加减以外还用乘、除等其他运算法,但这些运算法实际上是同一回事……这些运算法并不限于数字方面,而是所有可以相加减的事物全都适用,因为正像算术家在数字方面讲加减一样,几何学家在线、形(立体与平面)、角、比例、倍数、速度、力与力量等等方面也讲加减,逻辑学家在语词系列、两个名词相加成为一个断言、两个断言相加成为一个三段论法、许多三段论法形成一个证明以及从一个三段论证的总结或结论中减去一个命题以求出另一个命题等等方面,也同样讲加减运算。政治治学著作家把契约加起来以便找出人们的义务,法律学家则把法律和事实加起来以便找出私人行为中的是和非。总而言之,不论在什么事物里,用得着加减的地方就用得着推理,用不着加减法的地方就与推论完全无缘。〔2〕

  这段话预言了符号主义人工智能的主要思路,这就是以“物理符号假设”为哲学前提的关于人工智能研究的观点。这个假设的主旨是,一方面,可以把任一展示智能行为的系统分析为一个物理符号系统;另一方面,只要具备充足的组织规模和恰当的组织形式,任一物理符号系统都可以展示智能。〔3〕

  具体来说,这个“物理符号系统”是一种由三要素构成的理论模型。一是一个内置符号识别子系统(以便将某个特定物理印记解读为某符号);二是一个内置的句法规范子系统,用以剔除不合句法的字符串;三是一套表达式操作程序,以便规定在怎样的条件下,向机器的某一内部状态输入怎样的表达式,机器会输出怎样的新表达式。这类操作程序归根结底都能在抽象的层面上被还原为一台图灵机①的操作。

  霍布斯并未预言后世关于图灵机的人工智能思想,但他提出,可以将貌似复杂的人的理性思维还原为加和减的机械操作。这已经相当接近图灵机的思想。按照其观点,加和减这样的机械操作只要被赋予了特定的计算形式,就会成为理性存在的充分必要条件。由此来看,若认为这种广义的加减实现机制不光涵盖人脑,也涵盖人造机器,则霍布斯有关“理性存在”的充分必要条件的论述就接纳了机器智能的可能性。此外,从霍布斯的这段话来看,关于哪些知识领域存在加减运作的问题,其范围相当广泛,不光涵盖算术和几何学,也涵盖政治学和法律学。也就是说,加减运作包含了从自然科学到社会科学的广大知识领域,人的推理活动依据同一个机械模型。这就相当接近当今人工智能专家有关“通用问题求解器”的设计理路。霍布斯在此主要论述人的理性推理与底层机械操作之间的关联,而没有论述理性以外的心智活动,包括感知、想象、意志、情绪等活动与加减等机械操作之间的关联。因此可以说,霍布斯是人工智能符号主义进路的思想先驱者。

  (二)联结主义的进路

  这一进路不关注在符号层面上对人类信息处理过程进行逻辑重构,而注重如何在亚符号的层面以数学方式模拟人类神经网络的运作方式,并通过对此类神经元网络的训练,使其能够给出用户所期望的合格输出。这一进路把机械的心灵观从理性领域扩展到感性领域,英国近代哲学家休谟是其思想先驱者。他持有经验主义的认知理论,诉诸联想主义的心理学来解释物理的因果关系。他倡导的认知心理学的主要思想可以用一种更全面的心智理论来填补前符号表征层次与符号表征层次间的差距,不这样做就会丧失其该有的统一性。为此,他采取了还原论式的弥补差距的策略,也就是将符号表征系统地还原为前符号的感觉原子。休谟在《人性论》中系统地阐述了这种心智理论。

  休谟指出,人的感官在物理刺激下产生的印象不具备表征的功能,其强度、活跃度与物理刺激的强度成正比。而将感觉印象的单个个案输入心智机器就使该机器的第一个核心机制运作起来,此即抽象和记忆。在心智机器的后续运作中,记忆把印象的原始输入保存了下来。记忆机制为此先要对印象个例进行抽象,以便减少系统信息的存储空间。如此产生的感觉观念借助想象力这个心智的第二核心机制的作用而进一步得到加工。对感觉观念进行组合和分解便是想象力的基本操作方式,其所遵循的基本规律的性质是统计学的,比如说,观念A与观念B联想在一起的概率之所以比观念A与观念C之间联想的概率更高,乃是因为系统记录的统计数据显示,A与B示例联结的实例比A与C示例联结的实例来得多。因此,一个观念表征的含义实质上可以被看作对原始输入的物理性质的统计学抽象,也可将观念表征间的联系看作对输入项间真实联系的统计学抽象。在这里,休谟使用的是联想主义的心理解释,即两个物理事件先后相继发生建立的联系,是人的心理习惯所致,即通过归纳法总结这种联系的反复出现,当出现的次数足够多,便形成这种习惯,从而确认两个事件间的因果联系。〔4〕

  休谟虽然没有直接讨论人工智能系统的可能性,但上述他的心灵哲学的论述可以说预言了当今人工智能联结主义的研究进路。这一进路拒绝符号人工智能所持有的下述重要的观念,即可以把智能系统所有底层机械操作映射到一个统一的符号层面上,并赋予该符号层面上的事物以一定的实在性。休谟则肯定,上层的符号(观念)只是前符号的感觉材料(印象)在心理学规则(尤其是联想机制)作用下产生的心理输出项。亦即智能系统的输入史对其最终形成的符号体系的结构具有至关重要的影响。不同的输入史会导致不同的观念表征系统。这样一来,不同的智能系统在不同的环境中执行不同的底层运作就很难将其结果映射到一个统一的符号层面,从而导致符号层取得一定的实在性和自主性。由此来看,当今人工智能的联结主义模型的构建者认为,人工神经元网络的拓扑学构架的运作在很大程度上也是在前符号表征的层面上进行的,而整个网络“收敛”前训练者所施予它的原始输入的性质在根本上决定了被输出表征的性质。也就是说,若有两个识别任务相同但训练史不同的人工神经元网络,其输出的结果通常也不会指向同一个语义对象。此外,休谟强调人的习惯观念产生了观念之间的联系,这种想法也与人工神经元网络进路有关,并与人工神经元节点间联系权重的赋值方式部分地吻合,因为这种联系权重取决于节点之间的信息交流历史,恰如两个观念表征之间的联结概率取决于其示例在历史上的联结次数一样。这种联结主义的人工智能学说的一种延伸发展就是关于深度学习的理论。

  (三)行为主义的进路

  行为主义主张人工智能建基于感知和行动,让机器在与环境的互动中进行学习和优化其行为。这一进路侧重于实时响应和适应性,多应用于机器人导航、操作控制和自动驾驶等领域。行为主义最初是一个心理学的流派,立足于行为的客观研究,强调环境对行为的影响。该学派代表人物包括罗德尼·布鲁克斯。研究者通过观察和分析智能体的行为来理解其智能,试图通过让机器人在实际环境中进行试错学习来实现自主行为和决策。

  (四)塞尔关于人工智能的哲学观

  当代人工智能哲学理论随着该项科学的发展而演变,哲学家们从心灵哲学的视角,进一步探讨了智能的本质,人工智能的本性及其能否真正得到实现,以及人工智能的发展需要遵循的根本价值观和应用伦理的许多问题。其中约翰·塞尔对于人工智能本质的论述代表了否定强人工智能的观点,与图灵主义的人工智能学说存在明显的差别。

  塞尔在其论文《心灵、大脑与程序》中作出了强人工智能与弱人工智能概念的区分。强人工智能的观点认为,计算机不仅是人用以研究心灵的一种工具,而且适当编程的计算机本身就是一个心灵。弱人工智能的观点则主张,计算机至多是人研究心灵的一种工具,或只是对心智活动的一种抽象模拟。塞尔通过论证否定了前者,支持了后者。他先诉诸常识进行三段论推理:(1)大前提:每一个真正的心灵/智能都必须有能力在符号与对象之间建立起一种语义关系;(2)小前提:这种语义关系无法仅仅通过任何一台恰当编程的计算机所获取;(3)结论:计算机本身不可能具有真正的心灵,因此强人工智能无法实现。〔5〕

  塞尔还以“中文屋思想实验”来支持他关于强人工智能无法得到实现的观点,尤其是上述小前提的观点。这个思想实验内容如下:一名受试者会讲英语,他被关在一个房间里,可以借助传递字条与屋外的测试者交流。已知的条件是:(1)只能用中文写字条;(2)受试者不懂中文;(3)测试者懂中文;(4)测试者不知道受试者是不是懂中文,故其任务是与受试者交流来核实这一点;(5)在房间里,受试者无法获得任何汉语与英语间的词典,他只能获得:a. 一只装满卡片的盒子,其中每张卡片都写有一个汉字,卡片数量巨大,不会遗漏任何一个已知的汉字;b. 一本以英语为工作语言的规则书,告知读者如何在看到由汉字表达的问题时从盒子取出相关的汉字来构建恰当的答案。这种规则书是纯粹句法性质的,不涉及汉语的语义。

  如果给定上述五个条件,再假设受试者成功地通过了中文测试(也就是测试者没法判定受试者的言行与一个真正懂中文的人之间有什么区别),那么,是否可以得出“受试者真的懂中文”的结论呢?塞尔的答案是否定的,因为被试者根本无法把任何一个中文表达式独立翻译成英语,他只能根据规则书机械地搬运符号。塞尔因而断言,任何一台被恰当编程的计算机都无法获得语义关系。在他看来,中文屋系统中的规则书对应计算机程序,被试者就对应于计算机的中央处理器,每一个送进来的问题对应计算机的“输入”,而每一个送出去的答案对应计算机的输出。如此来看,计算机即便能恰如其分地回答用人类语言提出的所有问题,也不能建立起有关任何一种人类语言表达式的语义关系。因为人的意向性是大脑因果特性的产物,它是一种经验事实,反映了精神过程与人脑之间真实的因果关系。而计算机程序示例全然不构成意向性的一个充分条件。〔6〕

  正因如此,塞尔的中文屋论证否认了强人工智能的可能性,恰好把图灵测试的人工智能哲学观颠倒了过来。因为图灵坚信,只要测试者无法辨识出一台机器与一个人之间在语言行为上的区别,机器就可以被赋予智能。他只考虑到智能系统从输入到输出得出的实际结果,至于主体是否理解语义关系和具有意向性,则并不需要考虑。而塞尔则坚持机器没有能力建立起恰当的语义关系,因此,人工智能专家按程序来设计此类计算机,并不能实现强人工智能。

  对于塞尔的这种观点和论述,也有学者提出反驳意见。其一是对于中文屋论证的“他心答案”。这个反驳意见认为,“你如何知道他人理解中文或其他事情?只是依据他们的行为。计算机能够就其能力而言(在原则上)通过行为测验的测试,因此你如果准备将认知赋予他人,你就必须在原则上也将此认知赋予计算机”〔7〕。也就是说,只要你认为中文屋里的人能够通过中文测试,则在屋外人看来,他就算懂中文了,这就是从行为的效果来论证理解本身。其二是系统答案。该反驳意见声称,“被锁在中文屋中的人确实不能理解整件事情,但事实上他只是整个系统的一部分,而该系统是理解这件事情的。这个人面前放着一个大的分类账本,上面列出各种书面的规则,他还有许多用来进行计算的便笺和铅笔,以及中文字符集的‘数据库’。这样,理解就不被归因于仅仅是个人,而是归因于他所属的整个系统”〔8〕。由于包含被试者在内的整个中文屋系统是懂汉语的,因而作为其部分的个人也就是懂汉语的。其三是“机器人答案”。该反驳意见指出,“假设我们在一个机器人内部安装了一台计算机,而这台计算机不仅输入形式符号作为输入项,并且输出形式符号作为输出项,而且以这样的方式操作该机器人,使其做出像感知、行走、四处移动、钉铁钉、吃饭、喝水等各种各样的事情。例如,机器人会装上电视摄像头,使它可以‘看见’,它有手臂和腿脚使它能够‘行动’,以及所有由其计算机‘大脑’控制的行为”〔9〕,这样的机器人就拥有真正的“理解”和其他精神状态,以此构建的机器人就可以建立起中文符号与外部世界之间的语义关系,并由此懂得和理解中文。

  这里的描述正是人工智能如今正在大力发展的功能,使其具有感知、推理、行动、处理大量的数据、应对环境的各种偶发情况等,更像是一个能动的主体。诸如此类对于人工智能的哲学解释上的分歧,涉及如何理解人工智能的本质。人工智能在当代的飞速发展,正在超越塞尔对于强人工智能的否定性论证。

  三、人工智能的平等、公正和权利等政治哲学意涵

  对人工智能的哲学解释,不可回避其价值规范的问题。人工智能的广泛应用和快速发展,影响到社会生活的各个方面,自然也涉及人际关系的处理,甚至还会发展出新型的人际关系。这就与政治哲学中的公民权利、自由、平等、公正等核心价值观息息相关,也直接涉及人工智能的伦理规范和治理。围绕这些问题的讨论对于人工智能的健康发展具有重要的理论和现实意义。

  (一)关注公民平等与自由权

  现代社会的公民拥有平等的权利,包括平等的自由权,他们在人格、各项权利和政治参与上是平等的,应当避免各种形式的歧视。社会不能因为人的性别、族群属性、教育和家庭背景等方面的差别而将人们区别对待。个人在进入市场、从事交易、就业、兴办企事业、接受教育、担任公职的机会应当是平等的,不应当对其施加人为的歧视。人工智能的发展也应当避免干涉公民的平等自由权利,防止其被利用来制造对人的各种偏见和歧视。

  数字技术促进了媒体和网络的发展,网络技术在促使社会的生产和分配更有效率的同时,也促成不平等的增长。从全球来看,它促成了不同国家之间共同的和不平衡的发展。从各地来看,这有可能导致两种经济的对立。其一是与全球信息基础建设直接联系的经济,其二是不与其相联系的经济。〔10〕仔细分析数字技术发达的社会与数字鸿沟社会之间的发展差距,就可以看出这种不平等的发展。人工智能的发展与数字社会密切相关。经济发展的多样性造成了不同发展速度的社会。一些人群和国家从这些技术和媒体中获得更多的益处。以机器人技术为主体的人工智能的广泛采用有可能造成更多的人失业,从而产生更多的不平等。人工智能使自18世纪末开始的自动化进程迅速加快,造成少数拥有人工智能和机器人技术的人获益很多,而让许多人失业。这种经济收入上的巨大差异是社会管理者需要认真考虑、设法解决的问题。

  与人工智能特别相关的平等与公正的问题是对特定人群的偏见或歧视。像许多技术一样,人工智能也具有其开发者未曾期待的后果。例如,机器学习式的人工智能有可能导致并扩大对特定个人或群体的偏见、劣势处境和歧视。偏见可能以各种方式表现出来,比如体现在培训的数据和算法中,在算法所应用的数据中,以及在进行编程的团队中。

  正如尤班克斯(Virginia Eubanks)所指出的,像人工智能这样的信息技术和新数据体制对于社会经济的平等和公正具有负面的影响,因为这些技术往往不利于穷人和劳工阶层,反而给他们制造更多的困难。新技术被用来控制、监视和惩罚穷人和弱势群体,例如以自动决策的形式来确定各种福利及其结果的合法性,从而导致了“数字贫民院”。通过自动决策和数据的预测分析,穷人被管控、说教甚至受到惩罚。数字贫民院阻碍穷人取得公共资源;监视他们的劳动、消费、性活动和抚育子女;试图预测他们的未来行为;惩罚那些不听从其指令的人,让其承担刑事责任。〔11〕在此体制下,一些人(穷人)被视为较少具有经济或政治价值,从而加剧了人际不平等。在线信息的获得和使用上的不平等(数字鸿沟)使得劣势者更少获得政治、经济和社会的机会,延续了已有的偏见和歧视。

  人工智能产品日益普及并渗入人生活的各个方面,其规模和速度都是惊人的。例如,人们利用搜索引擎可以获得大量的信息,但搜索引擎对这些信息及信息源的处理却存在公正和反歧视的问题。如在搜索某名人时,可能会跳出大量负面的甚至是捏造的信息,对其人身名誉造成伤害。这固然是网络系统中众多人为制造的谣言和错误信息的追责和清理的管理问题,但也反映了搜索引擎系统本身处理方式中存在的隐忧。如搜索引擎在信息筛选和排序上就存在责任问题,还有如何过滤掉造谣和诽谤人的错误信息等责任问题。伴随搜索而来的大量无关甚至夸大不实的产品和服务的广告,正是如今搜索引擎需要整治和清理的严重问题。

  有学者从社会正义的视角论述搜索引擎可能的负面影响。如诺贝尔(Safiya Umoja Noble)论辩道,像谷歌等搜索引擎加剧了种族主义和男权主义,应当将此视为“压迫的算法”,这源于人们作出的、大公司控制的各项决定。诺贝尔指出,算法和分类系统植根于且反过来也影响了社会关系,包括地方和全球的种族权力关系。例如,谷歌搜索引擎的算法自动把“猿猴”的标签贴到非洲裔美国人甚至美国总统奥巴马身上,这些案例不只具有侮辱和冒犯性质,而且显示种族主义和男权主义何以成为该技术的建构和语言的一部分〔12〕。虽然程序的设计者并非有意制造诸如此类的歧视和偏见,他们和算法的使用者都断言算法和数据是中性的,声称这些都是非情境化和非政治的,个人在自由市场上作出自主的选择,但在实际运作中,这些技术与社会中的现有等级结构及其主导的观念和意识形态相互作用和强化。尽管使用者意识不到这些,但这些技术已然支持了特定的社会、政治和商业逻辑,并以特定的方式构造社会的建制。因此,人工智能有可能导致某些观念的边缘化以及对一些人的歧视和压迫。

  (二)尊重个人各项权利和知识产权,确立以人为本的根本价值观

  人工智能的发展与大数据技术的进步,涉及如何保护个人权利包括知识产权的问题。大数据以前所未有的规模掌握个人的各种信息资料,包括个人所有方面的活动。人工智能技术的广泛应用降低了大数据统计和应用的成本,摄像头遍布各处,采集巨量的信息;移动通信设备随时跟踪人们的通话、聊天和通讯记录;计算机和海量存储器准确地记录人们的浏览记录。人工智能用于收集个人信息的手段是前所未有的。

  人工智能应用中的数据来自多方面,如来自权力部门和工商企业收集的个人数据,个人用户在智能应用软件中输入和提供的资料,以及智能手机使用所产生的大量数据。所有这些经过监控和多渠道收集到的个人信息,可以被应用程序整合起来刻画出个人行为和心理的完整图像。现有十分发达的无线网络通信,加上多媒体的同步直播、小视频播放,有可能侵犯个人的隐私权。这些大数据信息连同人脸、声音等各种特征识别技术的运用,如果被违反伦理规范的人和机构掌握,就可能成为侵害个人权利、监督和控制人的工具。尤其是利用这些技术监控、跟踪甚至威胁个人的行动,就会造成对个人权利的严重侵犯。有鉴于此,一些国家颁布严格限制和控制这些技术使用的立法,惩罚那些利用这些技术来非法监控个人、限制人身自由的人和机构。比如对于公路上设置摄像头的数量、指向和信息处理的安全性,都作出了限制性的规定。

  社会需要为公民提供自由发展的空间,促进信息的自由流动。这是人的思想进步和科学技术创新发展的重要建制条件。利用人工智能来限制信息的自由交流,使人局限于狭隘的信息空间,就属于这种极端的负面情况。例如,用人工智能为用户制造信息茧房,使其被算法困住,故意将人所能接收的信息局限于狭窄的范围。反复投放针对性的片面信息,操纵接受者的思维,甚至达到变相控制思路的目的。“大数据杀熟”是利用统计数据区别对待客户的做法。这些做法都反映出了算法透明性和信息对称的公平性问题。再如,在社交媒体构建的社群中,意见相近的人聚于一堂,乐于接受自己喜欢看到的信息。于是,便有人用过滤手段向这些相对封闭的社群大量投放夸大不实的臆造信息,投其所好。这就使人更难接受不同于自身成见的观点,甚至拒绝了解自己不愿意看到的真实信息,大大地限制人的视角和思路,影响其实事求是地看待世界。

  人利用人工智能技术为自己服务,安全性是重要的要求,因而需要遵守伦理规范。社会需要严格监控利用此技术从事科学技术创造的活动,确保其产品的安全使用。例如,严格监管和控制利用人工智能创造出来的DNA聚合物,防止其因泄露而危害人的生命和健康。人工智能可能制作的电脑病毒等危害性的程序也需要密切防范。坚决制止利用人工智能从事欺诈等犯罪活动,防止据此从事的深度伪造技术被人利用来危害人的生活。目前,已经有案例显示能够通过逼真的伪造技术实现视频/图像内容中人脸的替换,甚至通过算法来操纵替换人脸的面部表情,再加上个性化语音合成技术的应用,可以制成以假乱真的个人音频、视频,用以欺骗当事人及其亲友。还有利用此类技术伪造文书和司法案件中的各类证据,从事违法犯罪活动。利用伪造技术制作的假新闻、假视频、假信息泛滥成灾,给社会造成了众多纷扰和混乱。

  为了提升人工智能的创新性并确保大规模人工智能模式的安全发展,亟须在立法和司法方面作出相应的努力,一些立法者已经提出加快其安全立法。如在拥有众多世界一流人工智能公司的加利福尼亚州,其参议员斯各特·维纳(Scott Wiener)为州立法机构起草了一则名为《人工智能安全法案》的提案,要求所有实验室为各个先进的人工智能模型进行安全风险检测,并且在发现安全风险时设置各项透明性要求。他特别强调,由于人工智能模型近年表现出良好的前景,但也显示出在公共安全上的严重风险,人工智能要求在立法上作出强烈的回应。〔13〕这也是通过立法来为人工智能设置行业安全标准的一次努力。

  近期,基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的生成式人工智能飞速发展,如ChatGPT大型语言模型在信息检索、人机对话交互服务、网络内容、数据处理等方面都可进行强大的整合工作。2024年2月,OpenAI机构发布Sora文生视频模型,它可以根据输入的文字描述创作出十分逼真的音视频,实现了深度模拟物理世界,标志着人工智能在理解真实世界场景并与之互动的能力方面实现了重大飞跃。在写作新闻报道、工作总结报告、演讲稿、文艺作品、电脑编程、创作音视频等方面,人工智能已经可以完成大量的工作。由此可以回答各类信息和知识问题,创作文学和艺术作品,设计软件程序等。这些成果是在巨量的网络信息资料库的基础上加工完成的,这就需要考虑网络信息本身的真实可靠性和尊重知识产权等问题。目前此类人工智能模型在生成作品时对网络信息的加工取舍的算法依据还不够透明,由此生成的新闻讯息和社会事件报告的真实性需要受到相应社会机制的检验。如果其对各类社会现象的评论和所主张的原则违背人道主义精神和制造仇恨言论,同样需要进行道德规范并予以纠正。更重要的是,创作时必须尊重现有作品的知识产权。生成式人工智能所创作的科研、程序设计和文艺作品需要注明参考文献和作品的出处,以尊重原作者的版权。

  人工智能正逐渐从单一任务执行的专业人工智能向更加广泛和复杂的任务方向发展。通用人工智能(AGI)是能够像人一样在各种领域中执行各项任务的智能系统,具有类似人类的智慧、自主决策和学习能力,能够执行包括语音识别、自然语言处理、视觉识别、游戏博弈、作战打斗等多项任务。对自主的通用人工智能系统需要像对人类行为一样设置道德准则和价值规范。所有为人类行为设置的道德规范红线同样适用于自主的人工智能系统,要及时制止和惩戒违反者。系统的设计开发者需要将价值规范和道德准则嵌入系统的程序中,规约其自主选择时的行为。

  人们一直在考虑用以指导人工智能的设计和运作的普遍价值规范。美国科幻作家阿西莫夫(Isaac Asimov)早在1942年的文学作品《我,机器人》中即提出机器人三大定律。第一条:机器人不得伤害人类个体,不能目睹人类受到伤害不干预;第二条:机器人必须服从人类的命令,命令与第一条冲突时除外;第三条:机器人在不违反第一、第二条的原则下,要保护自己的安全。后来为适应人类在军事领域对军事机器人的应用,阿西莫夫增加了零定律:机器人必须保护人类的整体利益不受伤害。〔14〕人们还提出了更具体的指导人工智能的价值规范,但其中心思想仍然是以人的整体利益为归旨,确立其不得作恶并伤害人的根本人道主义原则,使其朝着完全以人为本的方向和结构发展。

  参考文献

  〔1〕Allen Turing,“Computing Machinery and Intelligence,”Mind,vol.59,no.236(1950),pp.433-460.

  〔2〕Thomas Hobbes,Leviathan,J. C. A. Gaskin,ed.,Oxford:Oxford University Press,1996,pp.27-28.

  〔3〕John Haugeland,Artificial Intelligence:The Very Idea,Cambridge:The MIT Press,1985,p.41.

  〔4〕〔英〕休谟:《人性论》上册,关文运译,郑之骧校,北京:商务印书馆,1996年,第126-164页。

  〔5〕〔6〕〔7〕〔8〕〔9〕John Searle,“Minds,Brains and Programs,”Behavioral and Brain Sciences,vol.3,no.3(1980),pp.417-445,417-418,421-422,p.419,420.

  〔10〕Jan van Dijk,The Network Society,London:Sage Publications,2020,p.336.

  〔11〕Virginia Eubanks,Automating Inequality:How HighTech Tools Profile,Police,and Punish the Poor,New York:St. Martin’s Press,2018,pp.8-16.

  〔12〕Safiya Umoja Noble,Algorithms of Oppression:How Search Engines Reinforce Racism,New York:New York University Press,2018,p.9.

  〔13〕Scot Wiener,“Senate Wiener Introduces Safety Framework in Artificial Intelligence Legislation,”2023-09-13,https://sd11.senate.ca.gov/news/20230913-senator-wiener-introducessafety-framework-artificial-intelligence-legislation,2023-10-10.

  〔14〕〔美〕艾萨克·阿西莫夫:《银河帝国8:我,机器人》,叶李华译,南京:江苏文艺出版社,2013年,第32-33页。

转载请注明来自:http://www.qikan2017.com/lunwen/wyi/23481.html
论文润色预审 助力快速录用

SCI指导

SSCI指导

EI指导

SCOPUS指导

英文论文发表

论文润色预审 助力快速录用

学术问题

中文出版

英文出版

论文润色预审 助力快速录用

学术指导范围

范文文献库

学术期刊库

首页 期刊推荐 学术指导