中製生成式AI藏資安危機! 生物特徵.裝置內個資恐外洩

綜合報導  / 台北市

我國國安局近來抽測五項中國製「生成式AI語言模型」,包括DeepSeek等,都被發現有要求位置資訊,蒐集截圖、通訊錄等風險,還有強迫同意不合理隱私條款,導向惡意連線位址的問題,資安專家也示警,因為中國製AI不受GDPR,也就是「歐盟一般資料保護規則」的規範,因此資安風險,也比起chatGPT等美製AI模型更高。

中國網友說:「直到我用上了這個小眾AI,阿里旗下的通義(千問),才發現做PPT這麼簡單。」全球AI大戰升溫,中國多個企業,也推出各式各樣的生成式AI打起「內戰」,除了很多人知道的Deepseek,還有豆包騰訊元寶等,但國安局一一抽測中國5大AI模型,發現暗藏資安危機。

包含蒐集位置通訊錄剪貼簿截圖,讀取裝置上儲存空間等多項個資,「豆包」和「文心一言」更會蒐集用戶臉部資訊,而這五項AI模型,還都會強迫用戶同意不合理隱私條款,以及向第三方開發工具逕行共享用戶個資,和導向惡意連線位址等等資訊洩露疑慮,國安局也示警,使用者個資可能被回傳至中企伺服器,提供中共特定政府部門運用。

台灣數位安全發展協會理事長劉彥伯說:「(中共)都可以去要求這一些在中國營運的平台商,直接把用戶的相關資料,直接交給政府來使用,個人的資料,公司的一些內部的開發資料等等,這事實上都可能會造成危險。」

不只可能個資被利用,問的問題也都受到審查,實際使用中國製AI「豆包」搜尋「台獨」,就會出現台灣是中國不可分割的一部分,意圖影響使用者認知,查詢六四或是天安門事件,系統只能跳出無法回答問題,顯見政治審查嚴格。

台灣數位安全發展協會理事長劉彥伯說:「相對於中國的APP,ChatGPT畢竟它整個還在GDPR(歐盟個人資料保護規則)的保護裡面,所以它有被一定地要求,所以在(資安)風險上面會比較低,還是盡可能把一些資料去識別化之後,然後再來做這個相關的分析。」AI時代生成式語言模型成為許多人工作上的好夥伴,但也必須審慎使用保障個人和企業情資安全。

新聞來源:華視新聞



新聞關鍵字

加入Line好友