中央社
(中央社倫敦30日綜合外電報導)英國官員今天對各個組織示警說,愈來愈多研究顯示,人工智慧(AI)聊天機器人用於業務上可能會被誘騙去從事有害的任務。
路透社報導,英國「國家網路安全中心」(NCSC)在2篇預定今天發布的部落格文章中指出,專家還沒能理解以及因應與大型語言模型(LLM)演算法有關的潛在安全問題,這種模型能產生類似人類的互動。
這種AI工具早期被作為聊天機器人,一些人甚至認為,聊天機器人未來不只會淘汰網路搜尋,也會取代客服和攬客電話等。
「國家網路安全中心」表示,聊天機器人可能存在風險,尤其是如果這種模型被插入重要機構的業務流程時。學術界與研究人員一再發現,如果輸入惡意指令或欺騙它繞過內建的防護機制,就可以擾亂聊天機器人。
例如,若駭客以精心設計的方式一步步下達指令,銀行的聊天機器人可能被騙去進行未獲授權的交易。(譯者:鄭詩韻/核稿:嚴思祺)1120830
新聞來源:中央社
讀者迴響