中央社
(中央社記者蘇思云台北11日電)國科會打造可信任人工智慧對話引擎(TAIDE),目前進入測試階段。數位部長唐鳳今天透露,近期使用TAIDE測試版撰寫中文郵件,從第1版更新到第11版,已具明顯進步,不過她也強調,「我發出的每一封Email,我都確認過每個字」。
數位部數位產業署今天主辦「2023 Trustworthy AI 國際研討會」活動,包括數位部長唐鳳、國科會副主委林敏聰都親自出席,也有美國的專家學者一起線上參與交流。
唐鳳致詞時表示,2010年到2016年曾在蘋果跟包含Siri在內的團隊合作,去年底ChatGPT問世後,很多研究人員都好奇,為什麼ChatGPT信心水準不夠高但有那麼多人願意使用。人工智慧應該要「知之為知之,不知為不知」,如果模型回答的內容信賴度不夠高,應該要標示出來,或提到這段內容訓練資料較少等。
唐鳳指出,Google最近推出新的AI模型Gemini已開始具備相關能力,像是提供3個段落,依信心水準排序,同時也會標出哪些內容經過查核、哪些內容信心水準較低等。除此之外,也希望了解AI模型的大腦模樣,在國科會指導下,數位部跟資安院、工研院也啟動AI產品與系統評測中心,規劃針對語言模型進行項目評測。
國科會推動發展可信任人工智慧對話引擎(TAIDE),唐鳳透露,現在每天回中文郵件的軟體,就是在個人電腦上運行與微調的TAIDE測試版,觀察過去這段期間,TAIDE測試第1版到測試第11版已有明顯進步。
唐鳳會後受訪時指出,今年4月時就在個人電腦訓練模型,可應用在英文信件回信,因此熟悉相關模式。唐鳳分享,TAIDE測試第1版提供的內容,絕大多數並未採用,經過不斷回饋,現在使用的TAIDE測試版第11版已經很好用。
唐鳳舉例,模型特色在於提供想法、可精準引述在公開場合說過的內容,至於如何透過有趣又不失禮貌的方式回信,模型都可以提出很不錯的點子,但也強調模型不是替代個人,「我發出的每一封Email,我都確認過每個字」。
媒體關注語言模型是否可能踩到著作權紅線,唐鳳說明,國外有些單位會在提供服務時也提供保險服務,萬一使用者被告時、會負責後面賠償與法律訴訟等,但另一方面可以透過源頭方式避免後續爭議。國科會TAIDE很大一部分工作就是要確保模型的資料來源無虞。(編輯:潘羿菁)1121211
新聞來源:中央社
讀者迴響