人工智能变得有意识该怎么办?科学家呼吁制定计划

研究人员呼吁科技公司测试其系统是否具有意识,并制定人工智能福利政策。《自然》杂志2024年12月10日刊文《What should we do if AI becomes conscious? These scientists say it’s time for a plan》呼吁制定计划。

人工智能(AI)的快速发展引发了一些曾经仅限于科幻领域的伦理问题:例如,如果AI系统某天能够像人类一样“思考”,它们是否也会像人类一样拥有主观体验?它们是否会经历痛苦?如果会,人类是否有能力妥善照料它们?

一组哲学家和计算机科学家认为,人工智能的福利问题应当被认真对待。在上个月发布在arXiv预印本服务器上的一份报告中,他们呼吁AI公司不仅要评估其系统是否具有意识和自主决策能力,还要为如何对待这些系统(如果这些情况成为现实)制定相应政策。

他们指出,如果没有及时认识到一个AI系统已经具备意识,可能会导致人们忽视它,从而伤害它或使它遭受痛苦。

有些人认为,在目前阶段,人工智能福利问题显得可笑。另一些人则持怀疑态度,但认为开始规划并无妨。包括英国布莱顿苏塞克斯大学的意识研究人员Anil Seth在内的学者便持这种观点。他在去年《Nautilus》杂志上写道:“这些情境可能看起来荒谬,确实,意识AI可能距离我们很远,甚至根本不可能。但它的出现所带来的影响足够巨大,我们不能忽视这种可能性。问题不是‘弗兰肯斯坦的怪物’复生了,而是它有了意识,能感知和体验。”

随着我们对这些技术的依赖越来越大,问题的严重性也在上升,英国牛津大学的数学家Jonathan Mason表示,他没有参与该报告的撰写。Mason认为,优先开发评估AI系统是否具备意识的方法至关重要。他说:“如果我们让社会如此依赖某种技术,却对它知之甚少,甚至没有意识到它是否具有感知能力,那显然是不明智的。”

如果AI系统没有经过正确的意识检测,也可能会对人类造成伤害,纽约大学哲学家、报告的共同作者Jeff Sebo表示。他指出,如果错误地认为某个系统具备意识,可能会将福利资金用来照顾它,从而导致本应用于人类或动物的资金被挪走,或者“这可能会妨碍我们让AI对人类变得更安全或有益的努力”。

转折点?

该报告认为,AI福利问题正处于一个“过渡性时刻”。其中一位作者Kyle Fish,最近被AI公司Anthropic(总部位于美国加利福尼亚州旧金山)聘为AI福利研究员。这是目前在顶尖AI公司中设立的第一个此类职位,报告的作者指出。Anthropic还为这项研究的初期工作提供了资金支持。“现在,AI领域的一些领先公司已经开始认真对待AI的意识、行为能力和道德意义,”Sebo说。

《Nature》联系了四家领先的AI公司,询问他们对于AI福利的计划。三家公司——Anthropic、谷歌和微软——拒绝评论,位于旧金山的OpenAI未做回应。

一些人仍未被说服认为AI意识应当成为优先事项。今年9月,联合国人工智能高级顾问机构发布了关于全球如何治理AI技术的报告。该文件没有涉及AI意识问题,尽管一组科学家呼吁该机构支持评估机器意识的研究。

Mason说:“这反映了一个更深层次的挑战或难题,那就是如何将这个问题传达给更广泛的社区。”

在不确定性中行动

虽然目前尚不清楚AI系统是否能够获得意识——这是一个即便在评估人类和动物时也难以界定的状态——Sebo表示,不确定性不应妨碍我们制定评估方案。作为初步步骤,去年一组科学家发布了一份清单,列出了可以帮助识别具有高度意识可能性的系统标准。Sebo表示:“即使初步框架不完美,它仍然比现状要好。”

然而,最新报告的作者指出,关于AI福利的讨论不应以牺牲其他重要问题为代价,比如确保AI发展对人类安全。他们在报告中表示:“我们可以承诺致力于使AI系统对所有人(包括人类、动物,和——如果真到那时——AI系统)既安全又有益。”

  • 2024-12-17