人工智能正在以令人震惊的速度跨越危险的边界。2025年9月,斯坦福大学科学家发布的一项研究报告标志着人类历史的一个转折点:科学家首次成功利用人工智能设计出病毒。这不仅仅是一项科学突破,更可能是人类面临新型存在威胁的开端。从《黄仁勋传》作者史蒂芬.维特到图灵奖得主约书亚.本吉奥,从诺贝尔经济学奖获得者到全球顶尖生物学家,越来越多的专家开始为AI在生物领域展现的能力感到深深担忧,将其比作足以威胁人类文明的“新时代核弹”。 (图片来源:看中国合成图)
【看中国2025年10月15日讯】(看中国记者杨天资编译/综合报导)人工智能正在以令人震惊的速度跨越危险的边界。2025年9月,斯坦福大学科学家发布的一项研究报告标志着人类历史的一个转折点:科学家首次成功利用人工智能设计出病毒。这不仅仅是一项科学突破,更可能是人类面临新型存在威胁的开端。从《黄仁勋传》作者史蒂芬.维特到图灵奖得主约书亚.本吉奥,从诺贝尔经济学奖获得者到全球顶尖生物学家,越来越多的专家开始为AI在生物领域展现的能力感到深深担忧,将其比作足以威胁人类文明的“新时代核弹”。
从斯坦福突破到专家集体示警:AI制造新型病原体的威胁已从科幻走向现实
图灵奖得主、被誉为"AI教父"之一的约书亚.本吉奥近日坦承,他因思考AI未来发展而失眠。这位在深度学习领域做出开创性贡献的科学家的担忧并非杞人忧天,而是基于对AI技术发展轨迹的深刻理解。本吉奥最大的恐惧是AI可能被恶意利用来设计致命病原体,创造出“超级版的新冠病毒,足以毁灭人类”。
《黄仁勋传》作者维特10月10日发表“可能终结世界的AI指令”为题的文章,强调我们已经跨越了1939年核分裂突破的门槛。他指出:“我听过许多关于AI能做什么、不能做什么的争论,但数据已经超越争论,并清楚表明以下事实:AI能力强大,它的能力正在加速提升,而这些能力所带来的风险真实存在。”
维特的警告得到了具体实证的支持。据报导,OpenAI最新推出的GPT-5展现了前所未见的能力,不仅能编写复杂程序,还能从零开始建立小型AI系统、设计新型生命体,甚至具有入侵服务器的能力。这些能力的组合创造了前所未有的风险矩阵:一个足够智能的AI系统,如果配备了病原体研究实验室、错误的安全准则和充足的计算资源,确实具备设计出比现有病原体更加致命的生物武器的潜力。
知识壁垒的坍塌:AI如何降低生物武器门槛
要理解AI为何构成如此严重的生物威胁,我们必须分析其在降低生物武器研发门槛方面的关键机制。传统上,生物武器的开发需要深厚的专业知识、昂贵的实验设备和漫长的研发周期,这些天然障碍在一定程度上限制了生物武器的扩散。然而,AI正在系统性地削弱这些防护屏障。
信息整合与认知卸载:AI能够快速检索、理解并整合全球范围内的生物学、病毒学、基因工程文献,包括那些散落在专业期刊、专利数据库中的敏感信息。对于缺乏专业背景但意图不轨的个人或组织,AI可以充当全能的“生物武器顾问”,提供从理论基础到实验方案的完整指导。它能识别哪些基因序列与致病性相关,哪些蛋白质结构可能增强病毒的免疫逃逸能力,以及哪些宿主受体是理想的攻击目标。
规划与执行分解:现代AI模型在任务规划与自动化工具调用方面的能力增长显著,可能把原本需要长时间专业训练才能掌握的"实验路线构思"拆解为更直观的步骤列表,大幅降低恶意使用者的认知成本。AI不仅能提供理论知识,还能根据现有数据和预设目标,生成并优化实验流程,建议最佳的基因编辑工具、病毒载体选择、培养条件,甚至预测实验结果。
自动化生态整合:当AI与云端算力、自动化实验平台、第三方服务(如材料订购、代码仓库)耦合时,形成"端到端"的执行通道,理论上会出现"从意图到行动"的摩擦进一步减少的问题。这种系统性的能力整合使得生物武器研发可能在相对较小的规模和较低的成本下进行,大大增加了监管的难度。
超越自然进化的威胁:AI设计病原体的潜在特征
与自然进化产生的病原体不同,AI设计的病原体可能具备一些极其危险的组合特性,这些特征的存在使得传统的公共卫生防护措施可能失效。
高度针对性的攻击能力:AI可以分析不同人群的基因特征和免疫系统特点,设计出针对特定种族、年龄群体或具有特定基因标记人群的病原体。这种"精准生物武器"可能比传统的大规模杀伤性武器更加危险,因为它可以实现选择性攻击而避免对攻击者群体的"误伤"。
极强的传播能力与隐蔽性:通过分析历史上传播最广泛的病毒特征,AI可能设计出传播性远超新冠病毒的病原体,具备空气传播、接触传播和媒介传播等多种传播途径。同时,这些AI设计的病原体可能具备长潜伏期、难检测等特征,让感染者在不知情的情况下大范围传播病毒。
抗药性和免疫逃逸能力:AI可以预测现有药物和疫苗的作用机制,从而设计出能够绕过这些防护措施的病原体。这种"预设抗药性"的病原体可能让人类的医疗防护体系在面对新威胁时显得束手无策,使得疫情控制变得极其困难。
环境适应性与持久性:AI设计的病原体可能具备更强的环境适应能力,能够在各种气候条件和环境中保持活性和致病能力,使得地理隔离等传统防控措施效果大打折扣。
防护体系的脆弱环节:软性防线的局限性
目前,主流的AI研究机构和生物技术公司都声称实施了严格的防护措施,试图防止AI技术被恶意利用于生物武器研发。然而,这些主要依赖软性约束的防护措施在面对有组织的恶意攻击时可能存在系统性漏洞。
现有的防护措施主要包括研究伦理审查、数据访问限制、模型输出过滤以及行业自律准则等。虽然这些措施在防止意外恶意使用方面具有一定效果,但面对有预谋的攻击者,这些软性防线存在多个薄弱环节。
技术扩散的不可控性:随着AI技术的快速发展和开源化趋势,越来越多的组织和个人可以获得强大的AI工具。即使主流研究机构严格控制访问权限,恶意行为者仍然可能通过其他渠道获得类似的技术能力,或者通过"提示工程"等方式绕过现有的安全限制。
监管碎片化问题:从模型开发商、云平台、科研机构到材料供应商,各自有不同的守则和标准,但缺乏统一、可执行的跨部门规程与责任界定。DNA序列审查标准在不同供应商之间存在执行落差,国际监管协调机制也相对薄弱。
评估滞后与技术盲区:现行法规更擅长约束"实物活动",对"信息与模型能力"的评估与取证路径尚不成熟。AI系统的复杂性和不透明性使得监管者难以及时发现和阻止危险的研究活动,这种"黑盒"特性为恶意使用提供了隐蔽空间。
构建多层次防护体系:从技术到制度的全面布局
面对AI生物威胁的挑战,人类社会需要建立多层次、跨领域的综合防护体系。这个体系应该借鉴核技术管理的成功经验,同时针对AI技术的独特特征制定专门的解决方案。
技术层面的安全机制:建立AI系统的安全评测标准,要求涉及生物相关高风险能力的模型必须接受第三方安全审核。实施能力分级与差异化开放策略,对可能用于生物武器研发的AI能力采用许可证制度或受控沙箱环境。在AI模型中内置专门的安全拦截器,对生物相关语境进行上下文识别与梯级拒答,并提供安全替代信息。
供应链与设施层面的管控:推动全球范围内DNA合成与生物材料的统一筛查标准,强化对"异常序列"的多方覆核机制。对提供自动化实验或合成服务的平台实施严格的"了解你的客户"程序,建立异常行为检测与追踪系统。对关键设备、菌株与试剂实施闭环追踪与审计,缩短异常使用的发现与处置时间。
治理与制度层面的创新:建立模型能力监管沙盒,允许在严格监管环境中测试高风险能力的边界,形成"证据—规则—迭代"的闭环机制。在《生物武器公约》框架下增设"数字能力与模型评估"议题,探索建立跨国审计与紧急通报机制。对模型开发商、云平台、科研机构建立安全事件强制报告义务,并提供适当的法律保护激励。
公共卫生韧性建设:完善临床、环境与污水的病原监测体系,融合AI技术进行信号检测,但将关键决策权保留给人类专家。建立可快速转产的模块化平台,在药物、疫苗、诊断等方面形成快速响应储备,减少未知威胁的时间优势。建立透明有效的风险沟通机制,既防止不必要的恐慌,也避免信息真空催生谣言传播。
时间窗口的紧迫性:行动刻不容缓
维特在分析中强调,"像核弹一样具有破坏力的AI如今已化为现实,问题在于:是否有人会鲁莽到制造这样的AI?"这个问题的紧迫性远超我们的想像。AI技术的发展速度呈现指数级增长趋势,从GPT-1到GPT-4的跃升,从AlphaGo到AlphaFold的突破,都显示了AI能力提升的惊人速度。
然而,技术发展的速度远超政策制定和监管体系建设的步伐。当我们还在讨论如何监管AI技术时,新的突破已经不断涌现。这种"技术先行,监管滞后"的局面为潜在威胁留下了危险的时间窗口。
更令人担忧的是,AI技术的全球化特征使得单一国家或地区的监管措施存在天然局限性。即使某些国家建立了严格的AI生物安全标准,恶意行为者仍然可能在监管相对宽松的地区进行危险研究。这种"监管套利"现象可能让全球AI生物安全努力功亏一篑。
诺贝尔经济学奖得主彼得.郝伊特将当前时刻称为“人类史上重大时刻”,这一判断绝非夸张。我们今天在AI治理方面做出的决策,将深远影响人类文明的未来轨迹。历史告诉我们,在技术转折点上的正确选择往往决定了文明的走向。
人类的选择:在深渊与希望之间
面对AI生物威胁这一前所未有的挑战,人类社会站在了历史的十字路口。
维特提出的“核弹”隐喻提醒我们,我们需要在AI仍可塑造之时,为它装上“刹车、方向盘与安全带”。这需要政府、企业、学术界和公民社会的共同努力,确保AI发展始终服务于人类福祉,而不是成为威胁人类生存的工具。
当前的时间窗口虽然在快速缩小,但我们仍有机会做出正确选择。与其被动等待AI失控的那一天,不如主动出击,建立有效的多层次防护体系。我们需要的不是恐慌与否认,而是清醒的认识与坚决的行动。
人工智能已经到达了一个关键的十字路口,特别是在生物安全领域。我们面临的选择将决定这项技术是成为治愈疾病、造福人类的神器,还是变成威胁文明存续的病毒设计师。答案掌握在我们手中,现在就是行动的时候。只有通过全球合作、技术创新和制度建设的三重努力,我们才能确保AI成为人类智慧的放大器,而不是生物风险的放大器。
时间不等人,行动刻不容缓。
来源:看中国
短网址: 版权所有,任何形式转载需本站授权许可。 严禁建立镜像网站.
【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。
