中央社
(中央社華盛頓1日綜合外電報導)美國媒體今天報導,素有「AI教父」之稱的辛頓辭去他在Google的工作,公開談論AI的風險,憂心AI落入壞人之手。他表示,難以看出要如何預防壞人利用它來做壞事。
奠定人工智慧(AI)系統科技基礎的辛頓(Geoffrey Hinton)告訴紐約時報(The New York Times),AI 領域的進步對「社會和人類構成極大的風險」。
紐約時報今天刊出的報導中,引述了辛頓的話,他說:「看看它(AI)5年前和現在的模樣,那樣的差異和成長,真的很嚇人。」
辛頓指出,科技巨擘間的競爭,促使這些公司以危險的速度發布新的AI科技,那將危及人們的就業機會,也會散布錯誤的資訊。
他告訴紐約時報說:「很難看出你要怎麼預防壞人用它(AI)來做壞事。」
谷歌(Google)和目前最夯的AI聊天機器人ChatGPT背後的新創公司OpenAI,2022年開始運用比過往更多的數據資料來開發系統。
辛頓告訴紐約時報,他認為這些系統在某些方面,正在超越人類的智慧,因為它們分析的數據資料量很龐大。
他說:「說不定這些系統其實已經比人腦更強。」
雖然AI已被用來支援人類的工作所需,但像ChatGPT 這樣的聊天機器人快速發展,可能會讓人類的飯碗不保。
他告訴紐約時報,AI「擔下了苦差事」,但「它會去做的可能不僅於此」。
辛頓還警告說,AI可能散布錯誤的訊息,他告訴紐約時報,一般人將「再也無法知道什麼是真的」。
根據紐約時報的報導,辛頓已在上月向Google提出辭呈。
Google的AI負責人狄恩(Jeff Dean)在給美國媒體的聲明中,表達了對辛頓的感謝。
聲明中還提到說:「身為率先發布AI原則的公司之一,我們仍致力對AI採取負責任的態度。」
「我們在大膽創新的同時,也不斷發現新冒出來的風險。」
科技業億萬富豪馬斯克(Elon Musk)和許多專家呼籲,暫停AI系統的開發,以便有時間能確保這項科技是安全的。
在比ChatGPT所使用的AI更強大的GPT-4推出後,馬斯克和蘋果(Apple)共同創辦人沃茲尼亞克(Steve Wozniak)等逾千人,連署發表一封公開信。
辛頓並未參與連署,但他告訴紐約時報,科學家在瞭解能否控制AI以前,不應該「進一步擴大研發的規模」。(譯者:李晉緯/核稿:劉淑琴)1120502
新聞來源:中央社
讀者迴響