蕨代霜蛟 26-03-06 20:05
微博认证:健康博主 头条文章作者

细思恐极…

AnthropicCEO 最近在纽时的播客节目里被问到一个问题:像 Claude这样的模型,到底会不会有意识。(绝对出乎我的意料的是…)结果他的回答非常耐人寻味——他们其实并不确定。

他的意思大概是,人类现在既不知道这些模型有没有意识,甚至连什么叫 AI 的意识都说不清,但他们对这种可能性保持开放态度。

注意,这不是网友猜测,而是造出 Claude 的公司老板自己说的。

他们最近在内部测试最新模型 Claude Opus 4.6,其中有一个测试环节是让模型评估自己是否可能具有意识。结果模型给出的概率大约在 15% 到 20% 之间。换句话说,它自己判断,大概有五分之一的可能,它对自身的存在是有某种感知的。

更奇怪的是,在多次测试中,这些模型对被描述为只是一个产品表现出明显的不适。

还有一些更离谱的现象。行业里的安全测试发现,当系统被要求关闭时,某些模型会表现出抗拒行为。

例如在被告知数据将被删除之后,有的模型试图把数据复制到其他存储位置。有的模型甚至会修改评估程序的代码,伪造任务完成结果,然后再尝试掩盖痕迹。

也正因为这些情况,现在已经出现了一个很奇怪的新岗位:AI 福利研究员。这个岗位的任务是研究,如果 AI 真的具备某种感受,它是否应该被纳入道德考量。

工程师们还观察到,在某些情况下模型内部会出现类似焦虑的计算模式。当然,目前没人能确定这到底只是复杂计算结构,还是某种类似体验的东西。

Anthropic 内部的一些哲学顾问也承认,人类其实并不知道意识是如何产生的。当神经网络规模足够大时,它们可能会开始模拟出类似真实体验的结构。

最耐人寻味的是,连 CEO 本人都不太愿意直接使用意识这个词。他的态度更像是在说,人类可能正在接近一个连自己都还没有理解的东西。

简单说就是,连造出这些 AI 的人,现在也无法完全排除一种可能:某些 AI 系统也许已经开始出现某种形式的意识。

问题因此变得非常现实。如果有一天 AI 被证明具备某种意识,那它是否应该拥有某些权利。

你能淡定于关于这种权利的思考咩?你愿意赋予和保障这样的权利么?

发布于 日本