中央社
(中央社記者陳至中台北5日電)黃昆輝基金會今天舉辦2022教育政策研討會,日本早稻田大學教授吉田文指出,全世界都在推動大數據、數位教育,但須小心AI的侷限、數據可能有偏差,避免被大數據宰制。
黃昆輝教授教育基金會今天在台北舉辦「2022教育政策國際研討會」,海內外多名學者、業界人士與會。吉田文受邀以「日本的教育與人工智慧:解決問題還是擴大問題」為題,分享日本經驗。
吉田文提到,個別優化學習、培育數據科學家是當務之急,各國都在加速推動,也沒有人反對。但除了看到數位教育措施帶來的好處,也要小心其中的陷阱。
吉田文提到,目前「單一用途之人工智慧」已發展到處理特定事務時,表現不會比人差,例如機器翻譯、下西洋棋等。但能夠針對複雜人類議題做出綜合判斷的「通用人工智慧」卻還沒問世,也不清楚未來能不能出現。
吉田文說,AI的原理是從過去的數據分析邏輯和概率,進而給出答案,數據必然有侷限。以教育來說,每個人的學習動機不必然相同,無法真正做到「個別化」的教與學。她也擔心,習慣依賴AI提供內容和方法的學生,學習形式恐流於被動。
吉田文以教師對學生健康的觀察為例,往往是非常主觀、帶有選擇性,且標準師師不同、校校有異。這些數據輸入進資料庫,恐會帶有「觀察者偏差」,使AI分析時也帶有歧視性的偏見。但AI給出答案時,卻不會告知這些問題。
吉田文強調,人類的成長通常不可預測,但AI所預測的未來,依據的卻是已發生過的往事。例如大數據分析可能得出結論,學業成就偏低的學生,較不可能進入知名大學。學校如果完全依賴AI輔導成績較差的兒童,就容易忽略兒童自己的期望、讓兒童選擇自己的生涯。
另外,吉田文也提醒「大數據宰制」的問題,大數據是學習的利器,也可變成控制個人生活的工具。目前不清楚是誰掌控整個數據結構,發生問題該由誰負責。以及使用到可辨識私人身分的數據時,如何維持安全和隱私,相關規定都仍含混不清。
擔任演講引言人的台灣前教育部長吳清基表示,吉田文提醒大家不要盲目相信AI,畢竟AI不是萬能,分析可能存在偏見和歧視,最終還是需要人類來判斷。教育體系運用AI的同時,也要保有危機感,認清AI的侷限,做好預防措施,畢竟「預防勝於治療」。(編輯:張芷瑄)1111105
新聞來源:中央社
讀者迴響