中央社
(中央社記者陳韻聿倫敦21日專電)英國與南韓21至22日共同舉辦人工智慧(AI)安全峰會。英國政府表示,已有來自北美、歐洲、中東、亞洲等16家企業簽署與AI科技研發有關的安全承諾,其中包括中國企業「智譜AI」。
英國政府尋求在AI安全國際規範和技術標準扮演領導角色,促進在「嚴加管制」和「自由放任」兩種AI安全管控策略之間取得平衡,並成立全球第一所「AI安全研究院」(AI Safety Institute),透過預先取得業界開發中產品等方式,實際測試評估各類新AI模型和工具的能力及風險,以協助增進各國對AI安全的理解。
去年11月,英國召開首屆全球AI安全峰會,有近30個國家的官方代表,以及超過80個學術研究機構、企業和公民組織與會。今年5月,英國與南韓合辦線上峰會,規模較小,下一場實體峰會則由法國主辦,明年召開。
根據英國科學創新暨科技部(DSIT)釋出的資料,峰會尚未正式展開,已有16家AI科技企業簽署安全承諾,要點包括不得發展或部署安全風險無法獲充分緩解的AI模型或系統、建立可供問責的安全管理架構,以及向大眾揭露各企業對前沿AI(frontier AI)科技安全的應處策略。
這16家簽署「前沿AI安全承諾」(Frontier AI Safety Commitments)的企業包括OpenAI、亞馬遜(Amazon)、谷歌(Google)及其旗下DeepMind、Meta、馬斯克(Elon Musk)去年創辦的xAI、微軟(Microsoft)、IBM。
另外還有三星電子(Samsung Electronics)、Anthropic、Inflection AI、Mistral AI、Cohere、G42、Naver、智譜AI、阿拉伯聯合大公國的「科技創新研究院」(Technology Innovation Institute)等。
英國科技部指出,這16家企業名單包含AI兩大強權:美國和中國。
科技部表示,這些企業將各自發布AI安全框架,向大眾說明未來將如何測算自家前沿AI模型的安全風險,包括遭惡意行為者濫用的風險,以及各家企業對安全風險的最高容忍極限為何、如何確保AI模型的安全風險不會超越此預設門檻。
在極端情況下,若企業在採取補救措施後,仍未能將AI模型或系統的安全風險保持在門檻以下,則不得繼續發展或進一步部署該模型或系統。
英國科技部指出,在訂定前沿AI安全風險門檻時,相關企業已承諾將尋求「受信任行為者」的意見,包括本國政府(前提為若情況適當)。
根據議程,英國首相蘇納克(Rishi Sunak)和南韓總統尹錫悅,以及英國科技大臣唐萃蘭(Michelle Donelan)和南韓科技部長李宗昊將在21和22日分別共同主持一場高階會議。(編輯:韋樞)1130521
新聞來源:中央社
讀者迴響