Orbit

傳院院導師活動/ 法律下的人工智慧倫理? 傳院人文講座翁岳暄談日本機器人政策

  • 2018-05-03
  • 蕭 媛齡

This is an image
日本東北大學新領域創成研究部助理教授翁岳暄談機器人倫理議題。王昱翔攝
This is an image
演講結束後,傳播學院陳聖智教授與翁岳暄授教對機器人議題交換意見。王昱翔攝。
【傳院記者王昱翔報導】5月2日傳播學院導師制活動人文系列講座,邀請現任日本東北大學新領域創成研究部助理教授翁岳暄擔任講者,透過法律與機器人的跨領域專業,分享對人機現況的見解。引言人新聞系方念萱教授指出,近年如何看待人機界線,及傳播人如何思考設計和改進都相當重要,是時候開啟各式對話。
 
  談到日本政府目前對機器人的政策,翁岳暄:「大家會想日本為機器人王國,應該也非常歡迎機器人,但日本官方對機器人的態度還是比較保守的。」他指出,日本政府對於機器人流入市面仍有諸多顧慮,如機器人安全、機器人法律的責任分配、使用者負面影響,政府官員對機器人也缺乏專業知識,針對與人互動的服務型機器人更會採取保守態度,進而導致服務型機器人的審批時間遠遠比工業型機器人多出一倍。
 
  但在各大學及公司反彈日本政府的嚴格管制後,政府只好妥協發展「特區制度」。翁岳暄解釋,特區意謂在部分城市設立去管制化區域,提供各公司、大學自由測試機器人科技而沒有違法疑慮。他舉例,如距離東京僅一小時車程的筑波特區,該區除了法規發展完善外,更設有機器人安全測試中心並與ISO(國際標準化組織)密切合作,是目前日本最活躍的機器人特區。
 
  而針對AI管制議題,翁岳暄將目前機器人科技做三層的智能金字塔分類,由高到低分別為:Human-Based Intelligence(取得自我意識,智慧型生物)、Autonomous Intelligence(自律行為展現,但沒有自我意識)及Action Intellignce(由程式驅動,如工業機器人)。其認為最該關注的是Autonomous Intelligence及Action Intellignce間的界線─開放組織風險。目前工業機器人是依照ISO訂定的安全標準,該標準要求將機器人可能的行動範圍全部列出並討論風險變化,但當機械逐漸開始擁有學習能力與自主空間,翁岳暄認為ISO的標準將難以實施。
 
  「我認為人工智慧的倫理,最首要考慮的問題是安全性。除了技術性的人機互動外,也要考慮社會系統的設計。」翁岳暄指出,安全性分為三面向討論,包含可能引發社會毀滅的「存在性風險」、對人類物理或心理上傷害的「開放組織風險」及可能取代人類工作的「社會安全」。最後回到人機共存的主題,他認為日本的去管制化特區是有效降低風險與人類疑慮的政策,而目前應針對有Autonomous Intelligence類的機器人發展政策與管制,也是思考人機共存時必須面對的議題。
 
  針對日本目前的「去管制化特區」,廣電系主任陳儒修質疑去管制是否會與原先的法律保護人類的本質有所矛盾,最後成為人機共同建立的社會系統?翁岳暄表示,目前最受關注的Autonomous Intelligence尚未發展自我意識,多半仍遵循的人類的道德與倫理,但若發展為具自我意識的Human-Based Intelligence,確實可能產生機器人制定法律的問題。去管制化則為人機共存初期的階段性任務,未來十年若人工智慧應用增加後或許可以減少對機器人特區的依賴。
 
  也有教授提出近期發生無人車意外撞死人的案例,如何歸屬當中法律主體?研發工程師必須為意外負責嗎?翁岳暄則表示法律主體與客體是結構性的轉換,要將客體調至主體太過困難,目前也還不具必要性。但他認為或許可以考慮創造一個新的地位,獨立於法律主體與客體間第三存在做為過渡。