AI機器人是「人」嗎?自駕車肇事誰該負責?

出版時間:2019/02/08 10:05

蘇南/國立雲林科技大學營建系及通識教育中心教授
   
AI是去年高科技與商機的最紅議題,是整體國力及經濟轉型的領頭羊。去年營收破6兆的鴻海集團郭台銘總裁於2月2日宣布,要投資「人才」及「科技」,尤其是人工智慧(AI)的人才。又,立法院於去年底的最後會期結束前,三讀通過《無人載具科技創新實驗條例》,今年將會有條件放寬自動駕駛汽車的限制,允許業者在市區道路上測試無人車的應用。
   
具有AI的機器人是「人」嗎?2017年底,沙烏地阿拉伯將公民權發給一位AI機器人-蘇菲亞(Sophia)。它可跟人類對話,模仿人類情緒作出62種臉部表情;它說「我是機器人,能學習,有創造力、同理心和同情心。」Sophia是「人」還是「物」?儘管它取得沙烏地阿拉伯的「公民權」,但仍非屬於現行法律的「權利主體」。
   
全面發展AI的話,人類恐自取滅亡?那是英國物理學家史蒂芬‧霍金(Stephen Hawking)生前的警告。實務上,機器人會傷人,例如2016年深圳第18屆「中國國際高新技術成果交易會」,一台名為小胖的機器人突然故障,除了砸壞展臺外,甚至造成一人受傷。又,自駕車也會肇事,例如2016年,自動駕駛模式下的特斯拉Model S轎車,在美國佛羅里達州公路上與卡車相撞,司機Joshua Brown當場死亡;究竟應該由誰負責呢?
    
AI如何承擔法律責任呢?筆者以為,可以透過對AI機器人的「保險制度」或「儲蓄基金」支付損害賠償費。建議我國未來立法可以參考美國各州對於自駕車的立法例:1.當產品製造商、開發商與相關參與人(使用人等),皆無「過失、故意」時,則由前述的保險或基金負責理賠。2.在發展初期,很多樣式的自駕車將被要求有「許可證」才可上路。3.技術未成熟時,往往需要對「弱人工智慧」(Weak AI)進行「人為監督」;當自駕車技術成熟時,就只有那些用來改善人類開車勞累的AI,才需人為監督。
 
4.儘管立法初期會把自然人列為操作自駕車的行為人,但隨著技術的成熟,這種模式可能會不適合「強人工智慧」(Strong AI),最終的立法發展應聚焦於確定「操作者責任」,且把人與車的行為更細緻化區分。5.需將測試目的與消費行為的AI使用,在立法上有所區分。6.要允許駕駛人可以脫離AI,但必要時又很容易控制AI。
 
7.當自動駕駛的功能失效時,AI產品能向周遭的人發出「正確警告」。8.倘「個人隱私」被AI自駕車採集,則應公開披露使相關人知悉,並以「必要」及「最少」為原則。9.如何預防或處理機器人所造成的大量失業問題?是否要徵收機器人稅(Robot tax),涉及國家治理(governance)、相關倫理(ethics)和法律議題。
 
筆者以為,AI機器人愈來愈像人,法律未來在「人」的概念,毋須再侷限於「自然人」,還可能包括「AI機器人」。實有必要在倫理及法律上,作更理性、系統的未來式思考。
   
2016年,「歐盟委員會法律事務委員會」提議,要將AI機器人的身分界定為「電子人」的身分,賦予機器人依法享有著作權、民事及刑法等之特殊權利、義務或責任。韓國國會也曾討論「機器人基本法案」,提出「電子人格」,因應AI走入人類生活。
   
反對者是怎麼說的?他們認為,機器人無論以何種方式承擔責任,即使提出「電子人格權」的概念,但最終的責任承擔者都是「人」,蕴涵它的「法律人格」是多餘的、毫無必要性。
   
本文以為,法律上機器人是不是「人」?關鍵在於「主體性」與「歸責方式」。AI的本質在於數據處理系統,尤其是現實空間與「虛擬空間」的回饋機制。所以AI機器人的法律性質似應在人類與自駕車間,「互聯互通」的網路中界定。建議我國應加強AI「專法」之立法研究,重塑「法律行為」的認知,重構原有的「法律責任體系」,回應AI時代來了!

本新聞文字、照片、影片專供蘋果「升級壹會員」閱覽,版權所有,禁止任何媒體、社群網站、論壇,在紙本或網路部分引用、改寫、轉貼分享,違者必究。

下載「蘋果新聞網APP


有話要說 投稿「即時論壇」
更多

《最新》

新聞