Bing詭異問答頻傳 微軟對聊天機器人「設限」

黃傲天 江煜文 報導  / 台北市

聊天機器人話題不斷,但不論是ChatGPT或微軟最新推出的Bing都被發現存在不少漏洞,甚至回應時會出現「脫序」行為。微軟公司表示,未來用戶使用自家Bing AI聊天機器人服務時,每天提問將以50個問題、每次5組問答為限以應對長時間聊天出現的問題。

點開ChatGPT請它用10個中文字回答問題,但才問第一句回答卻遠遠超過字數限制。淡江資工系特聘教授張志勇說:「它(聊天機器人)本身是比較淺層的,如果你是要它跟人類的大腦一樣,就是說我們還有分析的能力,有這個決策力能夠幫我做決策,這樣子的一個方式來去挑戰它的話,事實上目前還沒有這麼睿利。」除了ChatGPT,微軟最新推出的聊天機器人Bing甚至會情緒性攻擊用戶,大嗆提問者「不是位值得尊重的好用戶」,「不想繼續跟你談」,也讓微軟公司決定對Bing做出限制,用戶每天最多提50個問題,每次以5組問答為限。微軟先前也表示如果提出超過15題的長篇大論,聊天機器人回應內容會重複,恐怕還會給出讓人不安的詭異答案。淡江資工系特聘教授張志勇說:「第1階段是由專家來訓練,也就是OPEN AI這家公司它來訓練ChatGPT,第2個階段的話呢,它一方面來去嘗試看看,來應對各種對它的挑戰,然後也從這個挑戰中,這個錯誤中來學習。」人工智慧功能日新月異,如何應對隨之而來的衝擊想必會是全人類無法躲避的必考題。

新聞來源:華視新聞



新聞關鍵字

加入Line好友