綜合報導 / 台北市
我國國安局近來抽測五項中國製「生成式AI語言模型」,包括DeepSeek等,都被發現有要求位置資訊,蒐集截圖、通訊錄等風險,還有強迫同意不合理隱私條款,導向惡意連線位址的問題,資安專家也示警,因為中國製AI不受GDPR,也就是「歐盟一般資料保護規則」的規範,因此資安風險,也比起chatGPT等美製AI模型更高。
包含蒐集位置通訊錄剪貼簿截圖,讀取裝置上儲存空間等多項個資,「豆包」和「文心一言」更會蒐集用戶臉部資訊,而這五項AI模型,還都會強迫用戶同意不合理隱私條款,以及向第三方開發工具逕行共享用戶個資,和導向惡意連線位址等等資訊洩露疑慮,國安局也示警,使用者個資可能被回傳至中企伺服器,提供中共特定政府部門運用。
台灣數位安全發展協會理事長劉彥伯說:「(中共)都可以去要求這一些在中國營運的平台商,直接把用戶的相關資料,直接交給政府來使用,個人的資料,公司的一些內部的開發資料等等,這事實上都可能會造成危險。」
不只可能個資被利用,問的問題也都受到審查,實際使用中國製AI「豆包」搜尋「台獨」,就會出現台灣是中國不可分割的一部分,意圖影響使用者認知,查詢六四或是天安門事件,系統只能跳出無法回答問題,顯見政治審查嚴格。
台灣數位安全發展協會理事長劉彥伯說:「相對於中國的APP,ChatGPT畢竟它整個還在GDPR(歐盟個人資料保護規則)的保護裡面,所以它有被一定地要求,所以在(資安)風險上面會比較低,還是盡可能把一些資料去識別化之後,然後再來做這個相關的分析。」AI時代生成式語言模型成為許多人工作上的好夥伴,但也必須審慎使用保障個人和企業情資安全。
新聞來源:華視新聞





讀者迴響