【2026年02月21日訊】(記者林燕報導)週一(2月23日),美國人工智能公司Anthropic表示,三家中國公司利用其Claude聊天機器人非法獲取能力,以改進自身模型。Anthropic同時呼籲對高端AI芯片實施出口管制。
此前,另一家聊天機器人ChatGPT的研發公司OpenAI發布了一份備忘錄,警告中國人工智能公司DeepSeek正以ChatGPT和Claude為目標,試圖複製美國的AI模型並將其用於自身訓練。
Anthropic在博客文章中點名三家中國AI公司,分別是DeepSeek、Moonshot和MiniMax,指出這些公司使用約2.4萬個虛假帳戶對Claude發起「工業級蒸餾攻擊」,互動次數高達1600萬次,違反服務條款和區域訪問限制。
Anthropic指出,這些中國公司使用了「蒸餾」技術,即用強模型輸出訓練弱模型。換句話說,中國AI公司在非法挖取美國競爭對手的模型能力,以此節省研發時間與成本。
「這些攻擊活動的強度和複雜性都在不斷增強。採取行動的時間窗口很窄,而且威脅範圍遠超任何一家公司或地區。」聲明說。
中國AI非法蒸餾 恐釀重大國家安全風險
Anthropic警告說,這些非法蒸餾出來的模型缺乏必要的安全保障,會造成重大的國家安全風險。
博客文章指出,「Anthropic和其它美國公司構建的系統,旨在防止國家和非國家行為體利用AI開發生物武器或進行惡意網絡活動。」
「通過非法蒸餾構建的模型不太可能保留這些安全保障,這意味著危險能力可能會在許多保護措施完全失效的情況下迅速擴散。」文章補充說。
Anthropic進一步闡明中國AI非法蒸餾存在的國家安全風險。文章警告說,外國實驗室如果能夠提取美國的技術模型,就可以將這些未經保護的能力輸入到軍事、情報和監控系統中,可能使專制政府能夠利用前沿AI開展網絡攻擊、虛假信息宣傳和大規模監控。
「如果這些模型被開源,風險將成倍增加,因為相關能力會不受任何專制政府的控制而自由擴散。」文章說。
中國AI通過九頭蛇非法代理訪問
Anthropic表示,出於國家安全考慮,該公司目前不向中國境內及其中國境外的關聯公司提供商業訪問權限,因此一些實驗室藉由商業代理服務與「轉售API」的方式取得大規模存取權限。
這些代理商擁有被稱作「九頭蛇」的帳號集群,同時控制上萬個帳號,將蒸餾流量混入正常客戶請求,只要一個帳號被封就立即補入一個新帳號。
蒸餾攻擊的特徵是:大量、重複、集中於少數能力領域的prompt模式,而非一般多樣化使用情況。
Anthropic表示,他們正在持續加大對防禦措施的投入,以增 加此類數據提煉攻擊的實施難度,並提高識別難度。
DeepSeek訓練AI更好地回答政治敏感問題
Anthropic指出,DeepSeek的非法行動旨在攻擊跨多種任務的推理能力,並創建針對敏感政策查詢的、不受審查的替代方案。
他們透露,DeepSeek要求Claude生成針對政治敏感問題——例如關於異見人士、政黨領導人或威權主義的問題的、不受審查的替代方案,目的是訓練DeepSeek自身的模型,以引導對話避開審查話題。
而Moonshot則針對智能體推理和工具使用,以及編碼和數據分析。
MiniMax的目標是攻擊智能體編碼、工具使用和編排。在MiniMax尚未發布其正在訓練的模型之前,Anthropic就發現了這場攻擊活動。
Anthropic表示,他們發布新模型的時間恰值MiniMax的攻擊活動期間,發現MiniMax在24小時內迅速調整策略,將近一半的流量轉移到Anthropic新模型的攻擊上。
DeepSeek、Moonshot和MiniMax均未立即回應置評請求。
Anthropic呼籲控制高端芯片出口中國
Anthropic在最近一輪融資中籌集了300億美元,目前估值達3800億美元。
該公司表示,中國AI公司的蒸餾攻擊印證了美國對中國高端芯片出口管制的必要性,因為蒸餾攻擊本身也依賴高階芯片和大量算力。
博客文章說:「芯片訪問限制既能降低直接模型訓練能力,又能減少不當提取的範圍。」
責任編輯:林姸#
Subscribe to Updates
Get the latest creative news from FooBar about art, design and business.
What's Hot
Illustration by ANTHROPIC, August 1, 2025. Anthropic is an American artificial intelligence (AI) (intelligence artificielle (IA) company founded in 2021. It develops Claude, a family of large language models, and is also known for its research in AI safety, particularly interpretability. (Photo by Riccardo Milani / Hans Lucas via AFP) (Photo by RICCARDO MILANI/Hans Lucas/AFP via Getty Images)
圖為2025年8月1日,美國科技公司Anthropic發布的插圖,顯示Claude系列大型語言模型的概念。(Riccardo Milani/Hans Lucas/AFP via Getty Images)
Previous Article巴拿馬總統下令接管李嘉誠集團兩個港口
Next Article 山西萬榮縣令出租車給遊客打折 否則罰款十倍
Related Posts
Add A Comment

