鄭國威專欄:我們會迷信人工智慧嗎(鄭國威)

1772
出版時間:2018/11/09

「Hey,Google,告訴我明天的天氣。」「Siri,念一段Rap來聽聽。」這些是我們已經熟悉的人工智慧,但如果接下來變成:「Hey,Google,告訴我該投票給哪個候選人。」「Siri,根據原告跟被告的陳述,決定賠償的金額。」你覺得這會發生嗎?如果發生,你覺得是很棒,還是很糟呢?

身為人類,我們集體抱持的信念,決定了科技發展的方向,同時信念也因科技而重塑。因此,現今人工智慧的快速發展,既是科學與技術研發的成果,也是一種信念的展現,這種信念隱含著以下的前提:
第一、人類有太多難以改善的預設缺陷,包括體能上與思維上的缺陷,而即使改善個人,也無法改善全體。第二、人工智慧沒有這些預設的缺陷,就算有也很容易改善,改善之後可以快速布建到所有端點。第三、所以我們應該加速用人工智慧取代人類,以數據跟資料取代話語。

揭開演算法黑盒子

根據《人類大命運》的作者、以色列歷史學家尤瓦爾•哈拉瑞,這樣的信念可以稱為「數據主義」,與我們當今的主流信念「人文主義」,或是許多人依舊相信的各種宗教,是截然不同的。
從古至今的宗教,相信神或是某種超自然的存在賦予我們生命、力量跟知識,相信人文主義者則否定了神與超自然,認為知識與力量來自於我們人類自己。人文主義也是科學思維的起源,締造了人類現今的科技盛世,也帶來無數對環境的破壞以及對其他生物物種的虐待。
而我們正在投奔的數據主義,則是認為人類也不可靠。數據主義者認為知識跟力量得透過演算法,從各種資料裡挖掘出來,並由人工智慧來下判斷。在數據主義之下,人的價值在於生產數據,這也就是為什麼現在的公司,特別是科技公司,都極盡所能地要收集使用者的數據了。
你可能覺得:數據主義聽起來不錯啊,畢竟人類的確不可靠,思維漏洞百出,那麼直接把決策權交給可靠的人工智慧,不正是最好的解決方案嗎?問題在於:我們要讓人工智慧決定什麼是正確的嗎?
舉例來說,要是用來訓練人工智慧的資料有問題,讓系統有了「偏見」,人工智慧就會做出不公平的決策,而若是攸關生命與財產的領域,錯誤的決策或者系統入侵,都可能造成重大、甚至難以彌補的損失,比個人的偏誤傷害更大。例如法院的人工智慧輔助系統,可能提出錯誤的司法建議,企業招募部門的人工智慧面試系統,也可能在審核求職申請時,歧視特定的申請者。
在可預見的未來,我們必然會繼續讓人工智慧協助我們,甚至代替我們在更多情境做出決策,因此我們必須確保:
第一、讓人工智慧能夠以人類能理解的方式解釋其判斷的根據與邏輯,而不是像現在這樣完全都在演算法的黑盒子裡頭進行。
第二、讓更多人擁有科學思辨力,能夠在各種人工智慧系統運作之前、之中與之後,有能力加以檢視它的運作,不被數據主義迷惑,而放棄自主判斷的權利。

科技成為人文輔助

要做到上述這兩點,我們需要讓科技成為人文主義者的輔助,而不是主人。我們得承認人類的缺陷,同時要積極尋找不減損人類尊嚴的解方。開頭的場景在不久的將來會不會發生,取決於我們是否打算成為迷信人工智慧的信徒。

泛科知識共同創辦人暨知識長

下載「台灣蘋果日報APP



有話要說 投稿「即時論壇」
更多

《要聞》

新聞