更强大的人工智能即将到来 – 学术界与工业界必须共同监管

AI公司希望让机器具备人类水平的智能,或称人工通用智能(AGI)。2024年12月6日自然杂志Nature刊文发表了一篇题目为《More-powerful AI is coming. Academia and industry must oversee it — together》的文章提出最安全且最好的结果将来自学术界与工业界科学家之间的合作,指导人工智能的有序发展。
“我们可能会在几千天内实现超级智能;虽然可能需要更长时间,但我相信我们最终会到达那个目标。”这是Sam Altman,OpenAI的首席执行官,在2023年9月23日写下的文字。当时,正是OpenAI发布了其迄今为止最先进的大型语言模型(LLM)—— o1。这几乎是在科幻小说的范畴内的事情,而近年来LLM的崛起又让人们重新思考我们何时能够创造出人工通用智能(AGI)。尽管AGI尚无明确的定义,但它大体上指的是一种能够执行人类水平推理、概括、规划和自主行动的AI系统。
世界各国的政策制定者都在关注AGI,尤其是它的潜在好处和风险是什么。这些问题并不好回答,尤其是考虑到目前大部分的工作是在私营部门进行的,而这些研究并不总是公开发布。但显而易见的是,AI公司正在全力以赴,将他们的系统发展到具备人类所拥有的全面认知能力的程度。开发AI模型的公司有强烈的动机去维持“AGI即将到来”的观点,以吸引公众兴趣,从而获得更多投资。
在与《Nature》的新闻专题采访中,研究人员普遍认为,包括OpenAI的o1、Google的Gemini和Anthropic的Claude在内的大型语言模型(LLM)尚未实现AGI。许多研究者根据神经科学的见解表示,AGI永远无法仅凭现有技术达成,可能需要其他技术来实现人工智能达到人类水平的智能。
当前AGI的局限性
尽管当今最强大的LLM在生成计算机代码、总结学术文章和解答数学问题等任务中具有广泛能力,但它们在基本的工作方式上存在根本性的局限性。这些LLM本质上是吞噬海量数据并利用这些数据预测序列中的下一个“标记”。这种方式能够生成看似合理的答案,但并不能真正解决问题。
François Chollet,曾任谷歌的软件工程师、现为位于加利福尼亚州山景城的人工智能公司Anthropic的高级顾问,和Subbarao Kambhampati,亚利桑那州立大学的计算机科学家,曾测试过o1在需要抽象推理和规划的任务中的表现,并发现其未能达到AGI的水平。如果AGI要实现,一些研究人员认为,AI系统可能需要具备连贯的“世界模型”,即对它们周围环境的表征,这些模型能够帮助它们测试假设、推理、规划,并将某个领域学到的知识推广到几乎无限的其他情境中。
来自神经科学的启示
这正是神经科学和认知科学的想法可能推动下一轮突破的地方。例如,加拿大蒙特利尔大学的Yoshua Bengio团队正在探索能够更好地支持构建连贯世界模型和使用这些模型进行推理的AI架构。
一些研究者认为,AI的下一轮突破可能不会来自最大型的系统,而可能来自更加节能的、较小的AI系统。未来更智能的系统可能会比现有模型更加高效,它们可能不需要如此大量的数据训练,而是能够决定从环境中采样哪些方面的内容,而不是单纯地接受它们所喂养的所有数据,Karl Friston,伦敦大学学院的理论神经科学家表示。
这些工作证明了,各领域的研究人员在AI开发中需要密切合作。这将是验证系统实际能力、确保它们能够兑现科技公司宣称的功能,并确定需要的突破的关键。然而,现如今,学者们要想接触到领先的AI系统并不容易,尤其是那些没有能力负担训练这些系统所需大量图形处理单元(GPU)资源的研究人员。
政府和行业的投入差距
为了展示活动的规模,2021年美国政府(不包括国防部)为AI研发分配了15亿美元,而欧洲委员会每年在AI研发上的投入大约为10亿欧元(约合10.5亿美元)。相比之下,全球科技公司在2021年为AI研究投入了超过3400亿美元(N. Ahmed等,Science 379,884–886;2023)。政府可以通过整合资源来增加AI研究的资助。例如,总部位于荷兰海牙的欧洲人工智能研究实验室联盟(Confederation of Laboratories for Artificial Intelligence Research in Europe)提出,可以建立一个类似于“CERN(欧洲核子研究中心)”的AI研究平台,吸引像科技公司一样顶尖的人才,打造一个领先的研究环境。
政府、企业和学术界的合作
目前,很难预测AGI何时到来——估计时间从几年到十年不等。但可以肯定的是,AI将会有更多的巨大进展,而这些进展大多可能来自工业界,考虑到其庞大的投资规模。为了确保这些进展能带来益处,科技公司的研究成果需要通过神经科学、认知科学、社会科学等相关领域的最佳当前理解进行验证。
公共资助的研究将在AGI的发展中发挥关键作用,确保AI的应用研究既稳健又能尽可能地降低风险。
人类需要全面整合所有知识,以确保AI研究的应用更加稳健,同时最大限度地降低其风险。政府、公司、研究资助者和研究人员需要认识到各自的互补优势。如果他们没有合作,可能会错失那些能够帮助改进AI的洞见——最终导致的AI系统可能会不可预测,因而也不安全。