一、澳智库报告亮红灯:AI 不只是工具,是新武器
近日,ASPI 发布报告指出,中共已将新一代人工智能(AI)深度嵌入其国家控制体系,让原本庞大的监控网络升级为「自动化、精准化、产业化」的压制机器。
根据报告,中共不只将 AI 用在大量视觉监控、脸部辨识、行为预测,更将大型语言模型(LLM)与生成式 AI 系统用于网络言论审查、舆论操控、司法判决辅助,甚至将这种模式输出到海外。
若说 20 世纪的监控靠的是人力与警力,那么 21 世纪,中共正把算法、数据库、深度学习变成「永动警察」。这不只是技术进步,而是极权治理逻辑的升级。
二、国内镇压:从高墙变成代码,异见无所遁形
过去,中共靠防火长城、网警、人工审查等方式封锁舆论与异议,如今 AI 技术让这些手段变得「更高效、更隐蔽、更锋利」。
根据报告,AI-enabled 审查系统可以自动分析大量网络内容,标记敏感关键词或可疑倾向,并提前阻断高风险言论。同时,AI 在视觉监控与生物辨识的结合,使公共空间中的每一次移动、每一次表情,都可能被记录、比对、分析。对少数民族、宗教群体、持不同政见者,这样的系统犹如神器般的镇压工具。
更可怕的是,一旦将算法训练纳入司法程序——也就是所谓的「智能法院」,AI 的「建议判决」可能在无人质疑的情况下成为定案依据。这让「系统性压制」、「事后解释」、「无声威权」成为可能,也让那些试图用法律与理性维护权利的人变得更加无力。
曾经的「高墙」还有破绽,但算法无休止、无偏移、无疲累,站得更高、更稳,也让异议空间日渐狭窄。

三、出口监控模式:从国内到海外,AI 成了跨境霸权的尖兵
ASPI 报告警告,中共不仅在国内建起「AI镇压机器」,更正试图将这套系统输出到海外,通过「一带一路」、海外基础建设、商业合作等形式,将数字威权主义推广到其他国家与地区。
报告中特别指出,一些中国支持的外国企业利用 AI 审查技术,对当地弱势族群、工人、少数民族,以及任何可能对权益提出质疑的人群进行经济剥削与权利侵犯。这种外加压制,表面是商业合作,实际是制度输出。
更进一步,中共的「跨国警务网络」──如被多国批为非法的 Overseas 110──若结合 AI 监控与全球情报体系,海外华人、反对派、异议人士及其家属可能都成为潜在目标。
结果是,AI 不再只是国内的监控工具,而可能成为全球范围内、不分疆界的数字镇压/统治体系。
四、诡谲与讽刺:技术进步成为对人权的倒退
技术本是进步与解放的象征,但当 AI 被政治化、制度化、工具化,它的进步就可能反成对自由的倒退。
· 当语言模型被训练成忠党齐声,所有「敏感词」都被过滤或重写,谁还能看到真相?这不是 AI,是「思想机器」。
· 当监控镜头与人脸辨识铺天盖地,人们的一举一动都可能被记录、卷标、算分。这不是安全,是恐惧的升级。
· 当 AI 被植入司法系统,判决可能不再出自法官判断,而是算法推荐──可问责吗?可争辩吗?
于是,「AI 安全」不再只是防止算法偏误、不让机器歧视;在某些国家,真正需要被「安全保护」的,是人民自身。正如欧盟某份研究报告指出:AI abuse 最可怕的不是技术错误,而是权力滥用。
用来保护公众的工具,如果被用来压迫公众,那它就是武器,不是福音。
三、出口监控模式:从国内到海外,AI 成了跨境霸权的尖兵
ASPI 报告警告,中共不仅在国内建起「AI镇压机器」,更正试图将这套系统输出到海外,通过「一带一路」、海外基础建设、商业合作等形式,将数字威权主义推广到其他国家与地区。
报告中特别指出,一些中国支持的外国企业利用 AI 审查技术,对当地弱势族群、工人、少数民族,以及任何可能对权益提出质疑的人群进行经济剥削与权利侵犯。这种外加压制,表面是商业合作,实际是制度输出。
更进一步,中共的「跨国警务网络」──如被多国批为非法的 Overseas 110──若结合 AI 监控与全球情报体系,海外华人、反对派、异议人士及其家属可能都成为潜在目标。
结果是,AI 不再只是国内的监控工具,而可能成为全球范围内、不分疆界的数字镇压/统治体系。
四、诡谲与讽刺:技术进步成为对人权的倒退
技术本是进步与解放的象征,但当 AI 被政治化、制度化、工具化,它的进步就可能反成对自由的倒退。
· 当语言模型被训练成忠党齐声,所有「敏感词」都被过滤或重写,谁还能看到真相?这不是 AI,是「思想机器」。
· 当监控镜头与人脸辨识铺天盖地,人们的一举一动都可能被记录、卷标、算分。这不是安全,是恐惧的升级。
· 当 AI 被植入司法系统,判决可能不再出自法官判断,而是算法推荐──可问责吗?可争辩吗?
于是,「AI 安全」不再只是防止算法偏误、不让机器歧视;在某些国家,真正需要被「安全保护」的,是人民自身。正如欧盟某份研究报告指出:AI abuse 最可怕的不是技术错误,而是权力滥用。
用来保护公众的工具,如果被用来压迫公众,那它就是武器,不是福音。

五、制度化审查与产业化压制:AI 成为盈利工具,而不是公共资源
ASPI 报告还指出,中共不只是利用国家资源部署 AI,还创造一个「市场化机制」,鼓励私人科技公司开发、售卖 AI-enabled 审查与监控技术。政府与企业合流,使压制本身具备利润机制。
这意味着:
· 压制不再是「不情愿但必要」的政治手段,而是「有利可图」的技术生意;
· 纵使在国际压力、制裁或谴责之下,技术出口仍可能继续,只要利益链没断;
· 「遵从」与「合作」成为企业最安全的选项,让人权与道德成为商业代价。
也就是说,中共把压制变成一门生意,把控制变成一条产业链。这样的逻辑,比以往任何血腥高压都更具存续力,也更难被拆除。
六、民主社会的警醒:AI 安全,不该只谈偏误,还要防止权力渗透
面对中共的 AI 镇压计划,民主国家与开放社会不能再只谈「算法公平」、「偏见弥补」。真正需要摆上桌面的,是防止 AI 成为威权工具的制度防火墙。
ASPI 报告建议:民主国家应该把「防止政府滥用 AI」纳入 AI 安全框架,制定法律、规范出口技术、限制监控资金流向,并对出口管制、科技合作、跨国执法保持警惕。
换句话说,AI 的「安全」,不只是镜头不会错认、不只是算法不歧视,而是「不会被用来压迫异见、不会被出口给威权政府」。
若不能做到这些,那么民主社会可能在不知不觉中,被卷入这场「算法独裁」的旋涡。
七、结语:当 AI 成了国家利刃,世界不能装聋作哑
中共如今用 AI 装备其监控与镇压机器,不是科幻小说中的情节,而是冰冷的现实。从国内的视觉监控、言论审查,到司法判决、海外权益渗透,AI 成为极权现代化最先锋的一部分。
如果有人还相信 AI 是自由、进步与智慧的象征,那么他应该回头看看今天已被算法覆盖的中国社会。那里,AI 是对人民的枷锁,是对异议的压制,是对国际秩序与人权的挑战。
民主国家、科技公司、公民社会,该睁大眼睛:AI 的安全,不应仅是防止技术偏误,更要防止权力滥用。否则,我们可能在创造下一代监控帝国时,自己却还在歌颂「技术进步」。
这不是危言耸听,而是从报告中浮现的警示:当 AI 成为国家利刃,世界必须学会怎样保护自由。

