我们之前讨论过,想要开发真正的通用人工智能(AGI)或超级人工智能(ASI),需要广泛而全面的知识体系,甚至包括正反两面的信息。光靠科学技术知识,并不足以培养出真正的智慧。今天,我们再讨论一个更具体的问题:即使只在科技领域,要训练出真正强大的智能,仅仅让人工智能学习现成的科学理论就够了吗?还是应该让它理解科学知识是如何一步步发展演变的?
这个问题本质上关乎“智慧”到底是什么。简单来说,人类的智慧不仅仅是学习和应用已有知识的能力,更重要的是创造新事物、新应用、新理论的能力。虽然我们无法断言人类是宇宙中唯一具有创造力的生命,但在我们所知的世界里,人类的创造力无疑是独一无二的。即使是聪明如人类,我们获取知识的方式也不是简单地发现问题、找到答案、接受答案,而是一个不断试错、修正,甚至推翻旧理论、寻找更好解释的过程。科学技术体系也是这样建立的:不断迭代、进退反复、经年累月地积累。人类知识的积累过程让我们相信,要让人工智能具备创造力,也应该让它学习人类知识发展的过程,人类的创新的思维方式,而不是仅仅灌输最终版本的科学定律。
科学理论的本质是对自然界的一种系统化总结,它经过大量实验验证、推导和修正,最终形成稳定的模型和理论。但历史告诉我们,没有哪种理论是永远正确的。牛顿力学曾被认为是理解物体运动的终极理论,数学严谨,实验也完全支持。然而,到了19世纪末,电磁学、热力学和量子力学的发现动摇了牛顿理论的根基。爱因斯坦的广义相对论进一步取代了牛顿力学的部分内容。但即便是相对论,它也无法解释所有的物理现象,比如暗物质和量子引力。如果人工智能只学习牛顿力学和相对论,而不了解这些理论是如何一步步发展出来的,它就可能缺乏类比和推理能力,无法应对未来可能的科学革命,更无法理解人类社会在科学发现面前的反应模式。
历史上类似的例子数不胜数。例如,在哥白尼提出日心说之前,托勒密的地心说已经统治了上千年,甚至被认为是“绝对正确”的理论。尽管地心说是错误的,但它在当时仍然是一个极其实用的模型,被广泛应用于天文计算和航海导航。后来,伽利略通过望远镜观察到木星的四颗卫星围绕木星旋转,这直接挑战了地心说。然而,科学界并没有立刻接受日心说,因为这一理论不仅是数学模型的改变,更关乎整个世界观的颠覆。如果人工智能只学习“日心说是正确的”这个结论,而不了解它的历史背景,那么它可能无法理解未来类似的范式转变,比如广义相对论的修正或量子宇宙学的新发现。更糟糕的是,它可能会在面对新理论时,无法适应或做出合理判断。
科学不仅仅是“积累正确知识”的过程,它的进步很大程度上依赖于识别并修正错误。燃素说是一个经典案例。在18世纪,人们用燃素理论来解释燃烧现象,直到拉瓦锡提出的氧化理论推翻了它。现在我们知道燃素说是错误的,但如果不去理解它为何曾经被科学界广泛接受,又是如何被推翻的,我们就无法真正理解科学进步的方式。同样地,如果人工智能只学习氧化理论,而对燃素说一无所知,它就可能难以识别和挑战其他科学领域里仍然存在的错误理论。
在医学领域,这一问题更加突出。例如,20世纪初,人们普遍认为胃溃疡是由压力和胃酸过多引起的,因此治疗方法主要集中在减少胃酸。然而,澳大利亚科学家巴里·马歇尔和罗宾·沃伦发现,实际上幽门螺杆菌才是胃溃疡的罪魁祸首。这一发现颠覆了医学界的认知,也彻底改变了治疗方法。如果人工智能仅仅学习20世纪60年代的主流医学观点,它可能会完全忽略细菌感染的可能性。同样,在癌症研究、神经科学等快速发展的领域,科学认知的变化意味着,今天的“正确”可能在未来变成“过时”。如果人工智能缺乏科学史的视角,它可能会变得僵化,无法适应新发现。
如果我们希望人工智能不仅仅是一个被动的工具,而是像人类科学家一样能发现新理论、提出新假设、推动科学前沿,那么让它学习了解科学家是如何构建和修正理论的就很有必要。科学的创造力往往来自对旧思想的重组。例如,量子力学的诞生不是一蹴而就的,而是普朗克的黑体辐射研究、爱因斯坦的光电效应、薛定谔的波动方程等一系列突破的集合。如果科学家只满足于经典力学,而不去探索替代理论,量子力学就不会诞生。同样,如果人工智能只学习量子力学的最终定律,而不理解它的历史发展,它就可能无法提出新的改进方案。
人工智能只学习“最终正确答案”的另一个风险是,它可能会过度依赖当前的科学共识,而科学共识本身是不断变化的。例如,今天的标准模型是对基本粒子和相互作用的最佳解释,但它仍然无法解释暗物质、暗能量或量子引力。如果人工智能只学习标准模型,而不关注物理学的发展历史,它可能会完全拒绝探索弦理论、圈量子引力等新的可能性。因此,理解科学是如何从亚里士多德到牛顿,从牛顿到爱因斯坦,从经典力学到量子力学一步步演变的,很可能是帮助人工智能在未来尚未探索的科学领域中推理和创新的重要部分。
所以,真正的智能不只是掌握科学定律,应用已知公式,更是理解知识是如何发展、修正、甚至颠覆的。人类的智慧来自不断挑战已有理论、在错误中学习,并不断推动知识的前沿。如果人工智能仅仅学习最终理论,而不了解其历史背景,它将成为一个固守现有认知的系统,而非一个能推动科学进步的智慧体。想要训练真正的超级智能,必须让它像人类一样,不仅学习正确的答案,还要学习这些答案是如何被发现的,以及如何在未来可能被重新定义。