(原标题:剑桥大学推出文明5超级智能Mod)
AI的潜在威胁可能比甘地的核弹更可怕!虽然对于这个话题,也是科学界争论已久的老生常谈内容了。英国剑桥大学的潜在危险研究中心(CSER)一直在研究任何对人类可能造成潜在致命威胁的东西,最近他们研究的项目就是AI会对人类有多大的威胁。而他们展示这个课题的方式,就是在《席德·梅尔的文明5》中开发了一个Mod。
至于为什么是《文明5》,是因为迄今为止文明5依旧是系列中最完整和可玩性最高的一作,而且有着十分活跃和完善的Mod社区。游戏人气也在最新的文明6之上。
这个名为“超级智能”(Superintelligence)的Mod中会有一个类似“天网”一样的AI系统,它在最开始是为人类提供各种便利和服务的,并为你带来更好的发展、突破重大科学成果,但如果玩家对AI安全研究不足,最终这个AI可能会毁灭人类并为玩家带来Game Over。
在这个Mod中被超级智能毁灭的人类文明结局
CSER在网站上称“游戏是一种向大众传输信息的便利渠道。文明系列游戏有着非常广大的受众,让玩家能在获得乐趣的同时学习到很多东西,这自然也包括了很多关于核扩散和全球暖化等课题的内容。”
建造了AI安全实验室,可减少人类被超级智能毁灭的可能性
如果玩家安装了这个Mod,科技胜利会从原本的向阿尔法星系成功发射火箭升天,变为建造一个安全而又可靠的AI网络。进入现代之后,玩家需要投入很多资源和精力建造AI研究相关的内容,并将任何可能导致AI叛变的可能性抹杀。如果玩家在保持AI安定并继续推进科技和有所发展,最终将获得胜利并走向乌托邦。而如果AI失控并背叛人类,则将输掉游戏。
这个Mod下的新科技胜利:让AI为你带来了无限美好的发展和繁荣
The Verge杂志的采访中,该研究中心的Shahar Avin说通过这个Mod进行游戏之后,让他对AI的可怕有所感悟。“当我被夹在两个好战文明之间时,会因为消耗更多的资源对抗敌人而忽视对AI的重视,从而会导致一些危险。”
Mod中新加入的一些AI相关科技
很早之前《文明5》就被某些教育团体用来作为教育素材使用,虽然这个游戏你很难学到正确的历史发展,但你可以从中学到很多关于大国之间经济、发展、外交的内容。虽然游戏内的AI外交能力十分糟糕,但这也正好能体现出大国之间在发展过程中可能出现的各种误解和冲突。