中央社
(中央社華盛頓11日綜合外電報導)美國智庫「蘭德公司」的研究人員說,中國研究人員已在探究如何使用類似ChatGPT等生成式人工智慧工具操控全球閱聽眾,可能會使用這類工具形塑各界對台灣的看法。
美國軍事新聞網站防務一號(Defense One)報導,蘭德公司(RAND)專攻亞洲安全議題的政策分析家莫小龍(Nathan Beauchamp-Mustafaga)7日向記者表示:「有鑒於人民解放軍與中國共產黨先前的意圖與先前的行為…從邏輯上來看,我們認為中國下一個目標將是台灣(2024年總統)選舉。」
蘭德研究人員在新發布的報告中寫道,中國研究使用科技在關鍵目標地點改變或操控外國輿論至少可追溯到2005年,當時人民解放軍研究人員率先「支持創造他們有時稱為『合成資訊』的想法,也就是使用一些原始資訊捏造不實內容,意圖在網路上散布惡意訊息」。
由於中國政府執迷於審查與封鎖外國媒體頻道等手段,中國在將假消息武器化上一直處於劣勢,落後像俄羅斯等技術較純熟的國家,但生成式人工智慧(generative AI)工具肯定將改這種局勢。
報告提到:「ChatGPT等生成式AI(大型語言模式)能大規模彌合黨國之間的這種文化鴻溝。然而,生成式AI仰賴大量的訓練資料,將是人民解放軍將著重的關鍵要點,人民解放軍的資訊戰研究人員甚至曾抱怨內部缺乏數據分享。」
這份報告提到中國AI研究人員李弼程的工作,他受命在中國尋找讓AI應用於軍事的層面。報告指出,李弼程「在人民解放軍內的特殊重要性,從他2019年與311基地研究人員共同撰寫一篇文章的這個事實可顯而易見,而在那之前,台灣指控311基地透過社群媒體干預選舉」。
具體而言,李弼程率領研究的是機器人對社群媒體的影響,並指出在現在,這類機器人很容易被偵測出來且沒有說服力,因為它們不擅長駕馭語言,無法自行回答關於自己的簡單生平問題。根據報告,李弼程目前在研究如何「改善語言模型的產出,以在生成文字上更妥善運用情緒,藉此創造出更具說服力的合成文字」。
然而,生成式AI可以如何改變或影響對台灣的輿論呢?生成式AI工具可協助人民解放軍創造大量似乎抱持特定觀點或意見的假人格,因此塑造出特定意見或觀點獲得熱烈支持的印象,但實際上並不是這樣,這種現象有時候稱為「帶風向」(astroturfing)。然而,生成式AI可快速產生假的新聞報導、研究論文等報告,以假亂真。
蘭德公司的國家安全與國防政策計畫副主任威廉斯(Heather Williams)告訴記者:「談到影像或影片時,人們經常想到深度偽造(deepfake),但生成式AI將讓你擁有更可信的深度偽造效果,所以,如果你想要試著創造你想呈現的事實,但實際上卻是謊言,如果使用這些工具,現在能非常輕鬆或未來可非常容易地辦到。」
他說:「這些可能是如果我們所知的世界持續這麼運轉下去,未來將發生混亂或災難的大肆預測,或者有小團體可能在控制事件或民政的陰謀論…由於這些第3代社群媒體操控工具能讓行為惡劣者這麼做,這些假訊息現在將變得更加可信。」
蘭德研究人員說,他們沒有確切資訊指出台灣將成為主要目標,但美國官員已警告,中國可能會在2027年前入侵台灣。至於中國未來幾年會對台灣發起什麼行動,台灣2024年總統大選可能將產生重大影響。(譯者:張曉雯/核稿:劉文瑜)1120912
新聞來源:中央社
讀者迴響