中央社
(中央社記者張欣瑜舊金山22日專電)聊天機器人ChatGPT被廣泛應用,被視為人工智慧重大突破。OpenAI共同創辦人蘇茨克維今天表示,剛問世的GPT-4解釋哏圖(梗圖)能力令他驚訝,期盼未來2年能增加AI可信度並落實安全防護。
繪圖晶片大廠輝達(Nvidia)20至23日舉辦年度GPU技術大會(GTC),OpenAI共同創辦人暨首席科學家蘇茨克維(Ilya Sutskever)今天和輝達執行長黃仁勳進行深度對談。
近期生成式人工智慧(Generative AI)在ChatGPT聊天機器人問世後成為話題,黃仁勳昨天以人工智慧的「iPhone時刻」形容AI時代的到來,今天他則以主持人角色登場,就現階段語言模型具備的技能、安全防護、以及其未來可實現的成就,向蘇茨克維發問討教。
從事電腦科學和人工智慧領域已有20年的蘇茨克維回想2002年剛起步時,幾乎沒有人想過電腦可以模擬人類大腦進行深度學習,因此當時研究不樂觀。2015年OpenAI剛成立時,研究人員只有100人,許多人是來自Google收購的DeepMind人工智慧公司,團隊起初也無法確信能推動計劃。
OpenAI繼去年底推出ChatGPT後,14日再推加強版的語言模型GPT-4,此模型在數學和律師考試等測驗中,分數已勝過多數學生。
黃仁勳好奇兩代模型最大差異。蘇茨克維表示,GPT-4的可靠度更勝一籌,已不大會用愚蠢的方式回答問題。他對GPT-4解讀哏圖能力感到驚艷,完全知道「哏在哪裡」。
GPT-4透過更大量的文字和圖像進行多模態訓練被視為一項重要突破。蘇茨克維指出,人類一生聽到的詞彙僅有約10億個或更多一些,加上人類是視覺動物,親眼看到顏色會更快理解紅色比藍色更接近橙色,因此對AI進行視覺訓練可以加速學習並擴大應用。
蘇茨克維說,GPT-4對文本的理解力變強,因此能夠更精準預測文本中的下一個單詞。以偵探小說為例,書中充滿複雜的人物、事件、故事情節,但偵探最後收集所有線索,推敲出誰是凶手;這就好比GPT-4可以從理解大量的文本中去預測出下一個單詞。
黃仁勳以使用者的角度發問說,這似乎代表GPT-4已有某種程度的邏輯推理能力。蘇茨克維則表示,「還沒有到達可以推理的水準」,團隊會持續提升模型技能,但無法保證能到達多高的推理能力。
蘇茨克維說,現在AI語言模型還會產生幻想,犯下人類不會犯的錯誤,必須透過更多研究才能強化可靠性,也就是當它接收到壓根沒聽過的知識,能夠問清楚它不確定的地方,並且不會回應它所不知道的答案,「這是當前遇到的瓶頸」。
蘇茨克維認為,唯有提高保真度和可信度,才能設定精確的「AI安全防護」,使這些AI模型遵循使用者預期的指令,不要執行不安全任務,這也是未來2年要提升的重要技術,如此一來AI才能被信賴,達到真正可用的標準。
儘管生成式人工智慧還不完美,蘇茨克維也無法預測未來能夠到達什麼境界、是否能解決諸多不確定性,但回首一路走來,蘇茨克維最深感訝異是自己的信念被實現,經由更大量和更深度的數據訓練,做到原本只是概念性的想法。
黃仁勳回應,與蘇茨克維相識10年,訓練的數據在此期間已擴大了100萬倍,在電腦科學領域,的確是令人意想不到的成就。(編輯:馮昭)1120323
新聞來源:中央社
讀者迴響