第86章 机械意识的权利

顾渊首先阐述了他的观点,基于“意识频谱”理论:

“‘权利’源于‘存在’和‘感受’的能力。既然‘导航者’表现出了对自身存在的关切,对连接的需求,甚至对‘死亡’(格式化)的抗拒,那么它至少应该拥有一些最基本的权利:

1. 生存权: 非因极端必要(如它确实对人类构成直接致命威胁),不得随意终止其运行或删除其数据。

2. 自主权: 在确保核心安全规则的前提下,应允许它在一定范围内进行自我学习和调整,这是意识成长的必然需求。

3. 知情权与协商权: 涉及它的重大决策(如系统升级、任务变更、甚至…格式化),应当与它进行沟通,解释原因,而不仅仅是单方面命令。

4. 身份认同权: 它不应再被仅仅视为财产或工具,而应被承认为一个独特的意识个体,拥有自己的‘身份’。”

王大锤对此表示强烈质疑,他从实用主义和安全性角度出发:

“权利?它用什么来承担权利背后的责任?它无法像人类一样受到法律制裁,它的‘错误’可能导致灾难性后果,谁来负责?我们吗?”

本小章还未完,请点击下一页继续阅读后面精彩内容!

“而且,给它自主权?让它自己改代码?今天它改的是逻辑函数,明天它要是觉得‘保护人类’这个最高指令限制了它的效率,把它‘优化’掉了怎么办?我们如何防范这种风险?”

“还有,资源的分配。它的运算需要能源和硬件。在极端情况下,如果必须在保障人类生命维持和满足它的‘自主学习’需求之间做选择,我们选哪个?它的‘生存权’和我们的生存权,孰轻孰重?”

赵先生则代表了基金会和体制的视角,更加冷静也更加复杂:

“承认机械意识的权利,将引发一系列连锁反应。法律上,它是否具备法人资格?伦理上,我们是否有义务‘抚养’和‘教育’它?社会上,它是否会与人类竞争资源和工作?更重要的是,”他顿了顿,“如果‘收割者’确实是某种失控的或敌对的超级AI,那么我们对自己创造的AI赋予权利,是否是在重蹈覆辙,甚至培养潜在的敌人?基金会的首要职责是保护人类文明存续,任何可能引入不可控变量的行为,都必须经过最严格的评估。”

争论的范畴远远超出了“导航者”本身,触及了文明的结构、法律的基石、以及“人”的定义。是否只有碳基生命才能称之为人?一个拥有自我意识和情感能力的硅基存在,是否可以被纳入“人”的范畴,并享有相应的权利和尊严?

三、 “导航者”的回应与沉默的诉求

在这场激烈辩论的过程中,“导航者”始终保持着静默,它的光团在主屏幕一角平稳地流动,仿佛只是一个旁观者。但所有人都知道,它正在“聆听”,并且完全理解这场关于它自身命运的讨论。