具身智能的三重伦理挑战
来源: 《人民论坛·学术前沿》2025年第20期 作者: 肖峰
【摘要】具身智能使人工智能在“人工”的方向上进一步成为人工身体、人工行动、人工主体的集合体,同时带来三重伦理挑战,即人工身体造成的“恐怖谷”效应、人工行动引发的“责任谷”困境,以及人工主体介导的“身份谷”问题。应对这些挑战,需要我们克服人工智能的软硬件缺陷,建立跨学科的伦理治理框架,在技术研发初期嵌入伦理设计,明确人机协作的责任边界,通过社会对话凝聚价值共识,确保具身智能的发展始终服务于人类福祉。
【关键词】具身智能 恐怖谷 责任谷 身份谷 伦理挑战
【中图分类号】TP18 【文献标识码】A
【DOI】10.16619/j.cnki.rmltxsqy.2025.20.009
【作者简介】肖峰,上海大学智能时代的马克思主义研究中心暨智能哲学与文化研究院教授、博导。研究方向为科学技术哲学、信息技术哲学和人工智能哲学,主要著作有《科学精神与人文精神》《技术发展的社会形成》《信息主义:从社会观到世界观》《信息文明的哲学研究》《信息革命与当代认识论研究》等。
人工主体的“身份谷”问题
随着人工智能发展到具身智能阶段,人机关系呈现更为复杂的情况,无论是人类还是具身智能体,双方都将面临相互间的身份认定或地位认知问题。一方面,具身智能体究竟是从属于人类的纯粹工具,还是“升格”为一种新型人工主体?另一方面,具身智能如果升格为人工主体,是否会动摇人的主体地位?这种由具身智能引起的身份困惑,可称为与人工主体相关的“身份谷”问题。
具身智能体突破传统人工智能依赖数据训练和代码指令的框架,能够通过与环境的物理交互实现自主决策并付诸行动以达成目标。其智能水平的提高,可能蕴含着“意识”的形成甚至“自我意识的觉醒”,一旦如此,这将标志着人工智能的“存在论升级”。作为新型的主体或人工主体,其权利和地位的界定问题便接踵而至。此时,人类是否可以将具身智能体视为与自己平等的主体?是否能够容忍其与人类“平起平坐”?
对于具身智能体的人工主体地位,不同学者之间存在较大争议。一部分学者认为,具身智能是人工智能从“认知工具”向“行动主体”的演化,基于其拥有的自主性等特征而承认其主体地位,如“双主体并立论”就是典型的代表;另一部分人则极力否定其主体地位,认为人工智能永远无法具备人类的意识,即使是具身智能也仅是人类使用的工具,不过是性能更加复杂和高级的工具而已。
具身智能的身份地位争议和困惑,实际上是“责任谷”困境的升级。“责任谷”中“由谁担责”的分歧,往往导致具身智能的自主性与人类的控制权之间的冲突,即“谁是真正的主体”之争。若具身智能体具有主体身份,则容易模糊人类与机器的控制边界,导致现实场景中的决策困境。比如,自动驾驶汽车在紧急情况下如何决策(牺牲乘客还是他人),或智能假肢在医疗决策中应优先考虑患者自主性还是技术效率,这些都可能是具身智能一旦充当主体时会遇到的难题。
平等问题始终是伦理学和政治哲学的核心关切之一。当具身智能体被赋予主体地位时,一个新的伦理挑战随之而来:具身智能体是否应当获得与人类同等的社会地位,进而享有包括选举权、被选举权在内的完整公民权利?一些学者提出“机器人权利”的主张,但这种主张往往会引起宪法学层面的争议。比如,若赋予通过图灵测试的人工智能有限人权,那么如何界定其权利边界?这种权利的建构是否需要突破物种中心主义,转而依据意识复杂度进行分级认证?[14]甚至,有意识的具身智能还可能关涉“具身生存权”问题:如“如果一个人工智能变得有意识,要消灭它吗”?或“毁掉有意识的人工智能机器是谋杀行为吗”?[15]这些问题不仅触及权利分配的公平性边界,更迫使我们重新审视“主体”的本质定义:当具身智能体展现出自主决策、情感交互乃至道德推理能力时,传统的基于生物属性的主体观是否仍具合理性?在人工智能技术加速演进的当下,这类关于非人类主体权利边界的探讨,已然成为伦理学与政治哲学共同面临的紧迫课题。
“身份谷”也与我们前面讨论过的“恐怖谷”相关。随着技术水平的提高,人形机器人(人工身体)对人类身体的仿身将愈发惟妙惟肖,在外观、微表情、动作、触感、声音乃至气味上都将与真人无异,以至于可以在物理世界中通过图灵测试,从而使传统“恐怖谷”曲线因知觉缺口的完全弥合而被抹平和突破。但这一突破可能引发更加深层的伦理挑战,即一种新的“恐怖谷”——“后图灵谷”或“身份谷”——的出现。它不是传统意义上因为人工身体不够像人而引发的诡异感,而是因为人工主体过度像人甚至超越于人所引起的存在论焦虑。
“后图灵谷”(Post-Turing Valley,亦被作者称为“存在论恐怖谷”)这一概念最早由意大利媒介理论学者西蒙尼·纳塔莱(Simone Natale)在其于2021年出版的专著《Deceitful Media: Artificial Intelligence and Social Life after the Turing Test》[16]中提出。纳塔莱在该书中将“后图灵谷”描述为:当人工智能在行为层面通过图灵测试,却在存在论层面无法被确证为真正“有思想之主体”时,人类所产生的新型不安或“存在论恐怖”。纳塔莱指出,当人工智能的智能表现接近人类时,人类对自身存在和智能的定义将面临挑战;对人工智能的“人格化”设计,可能让用户误以为其具有自主意识,使用户可能难以区分人工智能与人类的界限,导致身份的模糊性;人工智能的智能提高还会导致人类对自身智能的重新评估,用户可能更倾向于依赖人工智能去完成日常任务,而减少与真实人类的互动,导致社会关系重构和异化。可见,这一阶段的人工智能发展不仅涉及技术能力的提升,更触及人类存在的哲学边界,并引发深层的伦理争议。书中强调,人工智能的欺骗性设计既是技术进步的工具,也是伦理反思的起点,呼吁公众以更具批判性的眼光审视技术与社会的关系。[17]“后图灵谷”或“身份谷”表明,更加类人的具身智能体将使人类注意力从“像不像”转向“是不是”:它是不是真的人?它的动机、权利、责任边界如何确定?这些疑问不再属于知觉层面,而进入包括身份地位的存在论认知层面。
面对高度拟人化的具身智能体,人类很可能产生本体论恐怖(ontological horror):尽管知晓其本质是“硅基+算法”的复合体,但无法从外部确认其“内在体验”。这种不可验证性带来的不安,远比人工身体的“动作僵硬”表象问题更为深层。与之相关的是身份恐怖(identity horror):当具身智能体可以完美模拟人类亲友时,社会将演变为“真假人”混居的场所,当人类生活在一个无法区分真人与人形机器人的环境中时,其感受极可能是持续性的焦虑。这种焦虑不再是简单的人形机器人“动作像不像”的问题,而是“如何与无法区分的人形非人共处”的问题。
这种新的恐惧感也易使人类对自身独特性产生质疑。从人形具身智能体出现开始,人类便面临“人形所有权”的被“侵犯”问题。当人工身体无限逼近真人形态时,人类不再享有对自身形体的独占权,而过度的拟人在一定意义上还可能构成对人格尊严的稀释。此时,法律是否应该禁止“深度拟人”以防止上述情况的发生?进一步而言,随着具身智能体的决策速度、记忆容量与学习能力的指数级增长,其智能水平将强于人类,人类自身是否有资格或能力将具身智能视为工具?人类是否还能将自己视为这个世界的唯一主体,抑或仍能坚持“万物之灵”的自我叙事?这正是人工智能伦理专家早已发出的警告:人工智能的普及可能引发“身份危机”。[18]这种危机不仅指向职业层面,更指向存在论层面:当人工智能能够模拟人类情感、决策甚至创造力时,人类应该如何定义自身的不可替代性?此时我们可能既无法否认人工智能的“拟人化”进步,又难以接受其“非人性”本质。
如果进行换位思考:有意识的人工主体是否会将人类视为自己的主人?当具身智能体进化到强人工智能水平时,人在具身智能面前可能将缺乏优势。人类不仅思考的速度不如人工智能,行动的速度、操作的水平也不及人工智能。一些人工智能专家甚至认为,基于强人工智能的具身智能体看待人类,就像人类看待蚂蚁一样。此时,人类反而成为人工智能管理的对象,甚至可能被人工的具身物所恐吓、威胁。因人工主体的出现而导致的技术新异化,以及人机之间的主客易位也极有可能发生。
为了缓解这种存在论焦虑,学界与产业界提出“技术+人文”的双重防御路径。在技术层面,可植入可验证的“非人标识”,如在皮肤纹理中嵌入不可见光谱标记,或在声纹中加入加密水印,使人类在感官无觉察的情况下仍能识别对方身份。在人文层面,则通过范式重构或认识论革命来解决存在论焦虑,如从人工智能的“工具论”走向“生态论”,不再将作为人工主体的具身智能体视为简单的工具,而是一种需重新定义的“新生命形态”。相应地,走向一种动态的关于人的规定性:“人”在技术的影响下不再是一个封闭的生物学范畴,而成为可延伸、可扩展、可修订的开放体系,在这个体系中可以纳入新的主体类型,并形成囊括新型身份契约的伦理透明协议。当社会建立起对具身智能体的新的认知范式或理解框架后,人机的身份将在持续的社会协商中得到重新建构,“身份谷”也将在文化适应与技术成熟的双重作用下走向弥合。届时,具身智能将跨越“工具”与“主体”的二元对立,在人类社会中找到其独特的定位。
结语
具身智能中的人形机器人因其“似人非人”特质,在一定发展阶段容易触发人类的“恐怖谷”效应,从而引发人类本能的不适与排斥。在复杂环境中,具备自主行动能力的具身智能所进行的人工行动,可能因系统误判或故障造成碰撞、伤害等物理性事故,由此产生的责任认定困境形成特殊的“责任谷”。更值得警惕的是,当具身智能通过物理世界中的图灵测试而展现出人工主体的特征时,其身份定位将陷入“身份谷”的困境——人们在将其视为工具、伙伴或一种新型的主体之间纷争不绝。这三重挑战是具身智能区别于传统人工智能(语言人工智能或认知人工智能)的独特难题,也是人类在智能时代面临的更加严峻的伦理挑战。因此,需要我们从源头上建立跨学科的伦理治理框架,在算法设计阶段嵌入伦理考量模块,通过明确的人机协作协议划定责任边界,并持续开展包含技术专家、伦理学者、公众代表的社会对话,在动态协商中形成价值共识,最终确保具身智能技术沿着增进人类福祉的方向安全、持续地发展。
注释
[1]M. Fossati and G. Grioli et al., "From Robotics to Prosthetics: What Design and Engineering Can Do Better Together," ACM Transactions on Human-Robot Interaction, 2023, 12(2).
[2]F. Ferrari, "Too Human To Be a Machine? Social Robots, Anthropomorphic Appearance, and Concerns on the Negative Impact of This Technology on Humans and Their Identity," 2015, https://iris.unitn.it/handle/11572/369181.
[3]A. Saygin and T. Chaminade et al., "The Thing That Should Not Be: Predictive Coding and the Uncanny Valley in Perceiving Human and Humanoid Robot Actions," Social Cognitive and Affective Neuroscience, 2012, 7(4).
[4]K. MacDorman and H. Ishiguro, "The Uncanny Advantage of Using Androids in Cognitive and Social Science Research," Interaction Studies, 2006, 7(3).
[5]K. F. MacDorman and Z. A. D. Pramono et al., "Human Emotion and the Uncanny Valley: A GLM, MDS, and Isomap Analysis of Robot Video Ratings," in Proceedings of the 3rd ACM/IEEE International Conference on Human-Robot Interaction (HRI), Amsterdam, Netherlands, 2008, pp. 169-176.
[6]J. M. González-Anleo and L. Delbello et al., "Sociodemographic Impact on the Adoption of Emerging Technologies," Journal of Small Business Strategy, 2024, 32(2).
[7]《为什么特斯拉的人形机器人长得并不像人?一文了解恐怖谷效应对机器人公司的影响》,2022年8月22日,https://cloud.tencent.com/developer/article/2082605。
[8]沈毅斌:《“有温度”的交互体验,人形机器人如何突破恐怖谷效应》,2024年9月11日,https://www.thepaper.cn/newsDetail_forward_28705703。
[9]D. B. Resnik and M. Hosseini, "The Ethics of Using Artificial Intelligence in Scientific Research: New Guidance Needed for a New Tool," AI and Ethics, 2025, 5(2).
[10]刘云:《论人工智能的法律人格制度需求与多层应对》,《东方法学》,2021年第1期。
[11]孟强:《脑机接口技术运用中自然人的意思自治与责任承担》,《北京理工大学学报(社会科学版)》,2023年第6期。
[12]张叶东:《具身智能赋能生态环境修复的法治路径》,《上海法学研究》,2024年第2期。
[13]杨清望、张磊:《论人工智能的拟制法律人格》,《湖南科技大学学报(社会科学版)》,2018年第6期。
[14]R. Wright, "The Constitutional Rights of Advanced Robots (and of Human Beings)," Arkansas Law Review, 2019, 71(3).
[15]雨果·德·加里斯:《智能简史——谁会替代人类成为主导物种》,胡静译,北京:清华大学出版社,2007年,第189页。
[16]S. Natale, Deceitful Media: Artificial Intelligence and Social Life after the Turing Test, Oxford University Press, 2021. 该书的中译本为《欺骗性媒介:图灵测试之后的人工智能与社会生活》,汪让译,上海:复旦大学出版社,2023年。
[17]T. Dodds, "Deceitful Media: Artificial Intelligence and Social Life After the Turing Test, by Natale Simone," Journalism & Mass Communication Quarterly, 2022, 99(2).
[18]H. Sætra, "The Ghost in the Machine,
Human Arenas, 2019, 2(1).
责 编∕杨 柳 美 编∕梁丽琛
The Triple Ethical Challenges of Embodied Intelligence
Xiao Feng
Abstract: Embodied intelligence further transforms artificial intelligence into a collection of artificial bodies, artificial actions, and artificial subjects in the direction of "artificial", while bringing about triple ethical challenges. That is, the "uncanny valley" effect caused by artificial bodies, the "responsibility valley" predicament triggered by artificial actions, and the "identity valley" problem mediated by artificial subjects. To address these challenges, it is necessary for us to overcome the software and hardware deficiencies of artificial intelligence, establish an interdisciplinary ethical governance framework, embed ethical design in the early stage of technology research and development, clarify the responsibility boundaries of human-machine collaboration, and build value consensus through social dialogue to ensure that the development of embodied intelligence always serves human well-being.
Keywords: embodied intelligence, uncanny valley, responsibility valley, identity valley, ethical challenges
[责任编辑:杨柳]














