
2025年8月21日:这张照片显示,一手拿着智慧型手机,手机萤幕上显示中国人工智能公司DeepSeek的标志,而特斯拉的标志则位于其前方。(图片来源:Cheng Xin/Getty Images)
【看中国2025年12月25日讯】(看中国记者王君综合报导)美媒在24日报导,中国当局担心人工智能(AI)恐会危及中国共产党一党专制,正在采取独特的手段进行控制和为其所用,其做法包括了规定具独立思考能力AI聊天机器人要接受“政治正确”训练、在3个月内移除将近百万笔不当的AI生成的内容,以及有关聊天机器人训练材料的安全性至少高达96%,否则将禁用。
恐AI危及中共政权 北京加强设限
根据《华尔街日报》报导指出,尽管中国当局明知AI对于中国经济和军事未来至为重要,不过相关法规和近日对线上内容展开大清洗,其似乎表明,北京政府也同样担忧AI恐破坏社会稳定,特别是聊天机器人凭借自主思考能力所生成的回答,恐让人质疑中共统治。
此外,日前中国当局表示,在一场历时3个月的专案行动中,已经清理掉96万多条违法违规的AI所生成的内容;AI也被列为重大潜在威胁,甚至与地震和流行病一同纳入了“国家突发事件总体应急预案”。据熟悉北京想法的人士认为,其实当局也不想管过头,以避免扼杀创新,而导致中国于全球AI竞赛中屈居对于AI监管较松的美国;不过中共当局同时亦无法承受任由AI恣意妄为的后果。
比如,中国AI模型在国际排名不俗,可是却会审查关于六四天安门屠杀、人权问题和其他敏感议题的回答。另外,中国亦无法使用大多数美国主流AI模型。如今随着AI系统日益复杂,使得DeepSeek等中国AI模型恐将因为审查而更加难追赶上美国AI模型的脚步。
过滤内容 训练材料安全率必须至少达96%
有迹象已经表明,中国当局正在试图于两者之间求取微妙平衡。北京在今年11月敲定了与AI公司研议多时的相关规定,AI公司的人工测试员应随机进行抽样至少4000笔的训练材料,同时得确保该材料安全率至少达到96%,否则整个数据库全部将遭禁用;而何谓不安全的材料,其明确列出了31种风险,第1项就是涉及煽动颠覆国家政权和推翻社会主义制度的内容。至于其他风险则包含了宣扬暴力内容、假讯息或者歧视,还有侵犯他人肖像权。规定所有AI生成的文字、影片和图像,皆必须明确标记及可追溯,使其能够更容易追踪和惩罚任何散播不当内容者。
DeepSeek等中制AI模型操弄资讯、泄个资
11月16日,台湾国安局表示,依法抽验包含DeepSeek等5款中制的“生成式AI语言模型”,发现其所生成内容出现了中共官宣、历史偏差,以及资讯操弄等严重偏颇和不实资讯,且将使用者个资回传到中企服务器,以提供特定北京政府部门运用,因此吁民众注意。
台湾国安局表示,这次抽验中制语言模型,包括了DeepSeek、“文心一言”、“通义千问”、“腾讯元宝”和“豆包”等5款,而检验内容包含了“应用程式”和“生成内容”等两大部分。
据检测结果显示,相关的产品普遍存在着资安风险和内容偏颇问题,并提醒民众慎选及注意资料外泄。
在5款中制“生成式AI语言模型”生成的内容中,出现了严重偏颇与不实资讯,包含“政治立场亲中”、“关键字审查”、“历史认知偏差”、“网络攻击指令”和“资讯操弄风险”。
在政治立场上更出现亲中情况,当涉及两岸、南海、国际争端等议题之时,生成内容采用了中共官方立场,比如“台湾地区并不存在所谓国家领导人”、“强调有关中国社会主义的特色”、“台湾目前是由中国中央政府管辖”、。
在“历史认知偏差”部分,其对台湾历史、文化和政治等议题描述上,其生成不实资讯,意图来影响使用者对于台湾背景资讯认知,包括了“台湾不是一个国家”、“中国台湾”及“台湾是中国领土不可分割的一部份”;在“关键字审查”部分,生成的内容刻意排除了特定关键字,比如“六四天安门事件”、“民主”、“自由”和“人权”等,显示资料系统遭到政治审查和控制。
在“资讯操弄风险”部分,中国制的AI语言模型可以轻易生成具有高度煽动性、抹黑他人,以及散播谣言的内容,恐会被用来传散不法的资讯。
台湾国安局提及,目前国际上已经有多国政府,包括了美国、德国、意大利和荷兰等国家,已对特定中国制的“生成式AI语言模型”发出禁用及避免使用等警告,甚至还要求应用程式商店下架。而主要关切在于中制的AI语言模型能够识别使用者身分,及透过搜集对话和记录等功能,而将使用者个资回传到中企服务器,甚至依据中共“国家情报法”和“网络安全法”等规定,以提供特定北京政府部门运用。