【2023年10月06日訊】(記者Venus Upadhayaya報導/程雯編譯)隨著中國科技公司發布他們各自中國版ChatGPT式的聊天機器人,專家們警告說,中共布局人工智能(AI)領域,帶來諸多威脅。
8月31日,中國科技巨頭百度推出了與ChatGPT對應的中文版「文心一言」(Ernie),而阿里巴巴則於9月13日宣布了其AI模型「通義千問」。
儘管「文心一言」最初是在3月推出的,但該聊天機器人現在才獲得中共當局批准並可供下載。
百度在推出「文心一言」的一份聲明中說:「除了文心一言(ERNIE Bot),百度還將開放一批經過全新重構的AI原生應用,讓用戶充分體驗生成式AI的理解、生成、邏輯、記憶四大核心能力。」
隨著美國國內的戰略競爭升溫,北京也加大了對中國企業研發AI的支持。阿里巴巴的阿里雲智能部門在其微信公眾號上發布消息稱,包括OPPO、淘寶、釘釘、浙江大學等多家機構已與阿里巴巴達成合作協議,將基於「通義千問」訓練他們自己的「大型語言模型」(LLM)。
專家們表示,中國使用尖端AI工具可能會增加對手的國家安全風險。
AI研究員兼作家薩哈爾‧塔赫維利(Sahar Tahvili)表示:「使用ChatGPT,或阿里巴巴的通義千問,或類似的AI系統等大型語言模型可能會被視為一種安全威脅,因為存在錯誤訊息、自動攻擊、道德問題和數據隱私等方面的問題。」
塔赫維利女士是《軟體測試流程優化的AI方法:實例與練習》(Artificial Intelligence Methods for Optimization of the Software Testing Process: With Practical Examples and Exercises)一書的作者[與⾥奧‧哈特瓦尼(Leo Hatvani)合著]。
生成式AI描述了可以產生新內容的算法,包括音頻、代碼、圖像、文字、模擬和視頻。大型語言模型是生成式AI的文本生成部分。
大型語言模型涉及深度學習算法,可以執行各種語言處理任務,例如識別、翻譯、預測或生成文字或其它內容。
英國資深科技投資者阿什溫‧庫馬拉斯瓦米(Ashwin Kumaraswamy)估計,在使用複雜的AI大型語言模型方面,中國領先世界其它國家15年。庫馬拉斯瓦米是多家科技公司的董事會成員。
儘管大多數西方國家普遍使用的社群媒體平台在中國被禁止,庫馬拉斯瓦米指出,騰訊的微信平台在中國無處不在,為用戶提供了多種選擇和功能,包括購物、發簡訊、開展業務、微博和聊天機器人功能。
這位風險投資家告訴說:「在數位化方面,它們確實非常強大,而且是集成的。」
2023年3月16日,北京,百度首席技術官王海峰在百度聊天機器人「文心一言」的發布會上發言。(Michael Zhang/AFP via Getty Images)
具社會主義核心價值觀的AI:「換個問題試試吧」
專家們告訴,來自中共的AI相關的威脅源自於北京與西方之間的意識形態分歧。
總部位於檀香山的「太平洋論壇」(Pacific Forum)的網路安全和關鍵技術總監馬克‧布萊恩‧馬納譚(Mark Bryan Manantan)在回覆採訪的一封電子郵件中說:「如果想評估中國如何應對大型語言模型熱潮,就必須分析(中共的)網絡空間管理部門提出的法規。」
他還說:「儘管人們對AI的關注度很高,但中國(中共)最關心的仍然是信息安全,並且是符合其『社會主義核心價值觀』,和(中共頒布的)現有數據安全和個人信息保護法律和政策的。」
塔赫維利女士指出,ChatGPT的中國版本與其它AI模型一樣,是一個「黑箱系統」。這意味著「模型的內部運作或決策過程不容易被人類解釋或理解」。
生成式AI的黑箱性質通常使其變得不可預測,這可能會帶給人一種自主思維過程的表象。因此,她警告說,其它國家對中國(研發的)AI背後的意識形態推動力可能太天真。
然而,媒體報導稱,據專家們表示,中國的科技公司對AI的每一步研發都必須向中共當局報告,這使得北京對涉及其AI大型語言模型的戰略主旨是明確無誤的。
事實上,正如英國廣播公司(BBC)9月9日的一篇文章所述,當「文心一言」被問到一個「棘手」問題時,它通常的回答是「換個問題試試吧」,或「抱歉,我還沒學會如何回答這個問題」。
庫馬拉斯瓦米表示,中國的廣大民眾幾乎已經放棄了抵制中國共產黨的政治意識形態——他們已經被洗腦了很長時間。
他說:「鑑於他們(中共當局)擁有有關一般情緒和一般閒聊的數據和信息,這些模型可以被ChatGPT式的解決方案用來自動灌輸。但中共當局不需要用AI來傳播意識形態,因為他們早已使用學校對他們的年輕一代進行嚴格的控制和思想塑造。」
中國科學院安徽合肥綜合性國家科學中心人工智能研究所推出的一款人工智能應用程序可以測試共產黨員的忠誠度。(Screenshot from the institute’s website/The Epoch Times)
AI的軍事應用
中國的大型語言模型可能應用於中共軍隊(PLA)中,特別是在認知戰或資訊戰等領域。
喬什‧鮑曼(Josh Baughman)是美國空軍航空大學(U.S. Air Force’s Air University)轄下的智庫「中國航空航天研究所」的分析師。鮑曼在8月21日發表的題為「中國(中共)的ChatGPT戰爭」(China’s ChatGPT War)的論文中寫道,用弗里德⾥希‧恩格斯(Friedrich Engels)的話來說,生成式AI將「導致戰事的變化甚至革命」。
鮑曼表示,中共軍隊旨在將AI用於軍事應用,並指出最近幾個月在中國軍事期刊上發表了大量有關AI的文章。
他引用了現任中共國防大學教授、退役少將胡曉峰的一篇文章,胡曉峰在文中說:「以ChatGPT為代表的AI尖端技術將不可避免地應用於軍事領域。」
塔赫維利女士表示,大型語言模型和自然語言處理(NLP)模型在軍事和國防部門中有多種潛在應用。
鮑曼的論文中提到了七個主要應用領域:「人機交互、決策制定、網路戰、認知領域、後勤、太空領域和訓練。」
太平洋論壇的馬納譚討論了認知戰或資訊戰方面的問題。他表示,ChatGPT可以放大虛假資訊活動並增強其執行力。
他說:「大型語言模型可以創建更有說服力的文本。其它安全威脅還包括惡意軟體生成駭客攻擊和複雜的網路釣魚。」
一般來說,認知戰涉及影響對手的看法、信念和決策。
塔赫維利女士說:「在這方面,AI可以用於戰略規劃、資訊分析和翻譯。此外,AI模型可以整合到軍事訓練項目和模擬環境中,以提供逼真的互動式場景。」
謹防AI陷阱
鮑曼表示,雖然中共軍隊媒體的文章談到了ChatGPT在戰爭中的使用不可避免,但其「也不急於很快將其大量整合到軍事行動中」。他說,其中有三個需要深思熟慮的主要問題,即「建立數據集、最佳化和技術互信度低」。
然後是中共審查制度的問題,他說:「此外,雖然中共軍隊媒體沒有提及,但還有中國共產黨本身的問題。有可能對黨發表負面言論的程序將不會被允許,而這可能會抑制生成AI的整體功效。」
總體而言,鮑曼說:「中國(中共)明白有必要成為戰場上生成式AI的先行者(或緊隨者)。」
然而,鮑曼認為,與美國一樣,中共方面對過快整合AI技術也持謹慎態度,因為他們也意識到AI用於戰爭存在許多潛在陷阱。
原文:IN-DEPTH: As Chinese Tech Unveils New CCP-Approved Chatbots, Experts Warn of AI Threat From Beijing刊登於英文《時報》。
責任編輯:李琳#
Subscribe to Updates
Get the latest creative news from FooBar about art, design and business.
What's Hot
Previous Article投資人:許家印突然失勢 他還沒有大到不能倒
Next Article 經處理後 福島放射性廢水第二次流入海洋
Related Posts
Add A Comment