人工智慧是否應該受到道德觀的規範 - 國試論壇
人工智慧是否應該受到道德觀的規範
行政趨勢2018/02/01 王毅 人氣:3846
facebook分享
字級:

科技公司特斯拉(Tesla) CEO 伊隆·馬斯克(Elon Musk)日前在一場與麻省理工學院學生之座談會上談論運算科技、人工智能及太空探索議題時表示,人工智能是我們目前的最大威脅,將會威脅到人類的生存。他指出發展人工智能就像許多故事中主角召喚惡魔一樣,主角總認為自己有五芒星及聖水的保護,所以可以控制惡魔,然而大家都知道最後不是如此,人類應該關切人工智能的發展,並且設計國家層級之間的監管制度,避免人類做出傻事,造成人類浩劫。

無獨有偶,英國著名物理學家-史帝芬霍金(Stephen Hawking)也警告人工智能將會造成人類滅絕,他指出人類受限於緩慢的生物進化,無法跟人工智能競爭,甚至會被其取代。他以他得了「肌萎縮性脊髓側索硬化症」為例,透過Intel研發的系統使其可以講話,該系統其實就是一種人工智能,類似智慧手機的鍵盤APP,可以學習史帝芬霍金的思考模式,並建議他下一個字應該打什麼。他擔心人工智能持續發展下去,將有可能創造出人類無法與之匹敵的某種東西,甚至可能自己超越自己,並重新自我設計。科技大廠Google、Facebook、Amazon、IBM、Microsoft已成立「Partnership on AI to Benefit People and Society」的非營利組織,集結眾多AI道德研究人員及學者,共同研究人工智能的道德標準及政策推廣。

發展人工智能應該要建立保護措施,必須讓人工智能知道什麼是對的、什麼是錯的,讓他們有是非善惡的判斷基準,就如同科幻小說家以撒·艾西莫夫(Isaac Asimov)提出的機器人三大定律:機器人不得傷害人類,或因不作為使人類受到傷害;除非違背第一法則,機器人必須服從人類的命令;在不違背第一及第二法則下,機器人必須保護自己。要讓機器人能明辨是非,就必須讓他們有「道德」的意識。

一、何謂道德(Ethics)?

道德(Ethics):個體決定行為對或錯的準則,又稱為倫理,我們每個人心中都有一把尺,衡量我們的行為,然而違反法律就一定違反道德嗎,違反道德就一定違反法律嗎,例如意圖為自己或第三人不法之所有,偷人家的東西該當刑法的竊盜罪,會受到法律制裁,在道德上我們當然也認為偷東西是不對的行為,但如果是劫富濟貧的廖添丁呢?雖然違反法律,但在道德上並不會遭致非難,反而我們會讚揚他的義舉,雖違反法律但並沒有違反道德;另外,穿藍白托鞋參加畢業典禮,有違反法律嗎?法律有規定不能穿藍白拖鞋嗎?當然沒有,但大部分人總認為觀感不佳,因此在道德的認知上,是不對的行為,雖違反道德但並沒有違反法律。

此外心理學家柯爾伯格(Kohlberg)提出人的道德發展有三階層,每一階層包含兩個階段,且道德發展會按照以下順序一步步前進,但沒有連續的保證,可能到任何階段後即停止。

 二、人工智能發展道德觀念可能碰到的問題

試想一個問題,今天具有人工智能的機器人負責照顧家裡的小孩,當小孩肚子餓的時候,機器人是否能夠將家裡的寵物煮來吃?大家一定覺得這個問題很恐怖,但若是人工智能不具備道德意識,不知道是非對錯,很有可能發生這樣的情況,因此人工智能的發展必須受到道德觀的約束,避免產生不可抹滅的傷害。然而要將道德觀念灌輸到機器人系統中大家可以想想下列問題:

(一)人類的行為對或錯是由誰認定?

我們常聽到有人說「每個人心中都有一把尺,決定行為對或錯」,然而有沒有可能每個人的尺都不一樣長?另如有些人家教比較嚴謹,因此在一般人看來再普通不過的行為,他們卻認為是不對的,例如有些大學生穿藍白托鞋參加畢業典禮,有些人認為不尊重師長,這樣是不對的;有些人卻認為無所謂(至少那些會這樣穿的學生是這樣認為),那機器人的道德意識應該以誰的為主?

此外,人類對於不同的道德認知,往往透過溝通及討論以解決不同看法造成的歧異,然而機器人是否能夠自由的溝通?是否能夠接受「妥協」?

(二)闖禍的機器人該由誰負責?

機器人是否應該為自己的行為負責?還是由機器人製造公司負責?或者由編寫程式的公司負責?如果認為機器人應該要自己負責,那就代表我們把機器人看成跟我們人類一樣,在法律上是獨立的個體,然而機器人真的可以跟人類在法律上有一樣地位嗎?是否有所謂的機器人權?目前還沒明確看法。

(三)機器人遇到兩難的時候,該以哪一方為主?

當機器人遇到兩個選項必須擇其一的時候,該如何選擇?例如今天機器人開車,遇到闖紅燈的老太太,如果緊急煞車,可能會造成乘客受傷;但不煞車又會撞到老太太,他該以哪一方為主?以人類來說,如果今天開車遇到上述狀況,煞車不及撞到老太太,可能可以「意外」視之,然而機器人的行為舉止都是「預先」透過程式編寫進去,機器人的每一步都是演算法設定好的,因此如果他今天遇到上述狀況選擇撞傷老太太,代表他一開始灌輸的程式就是如此,因此該事件可以說是意外嗎?還是預謀?

(四)人工智慧的發展是否會超出人類的控制

人類之所以能夠在食物鏈的頂端,不在於人類相較其他物種有強壯的體態或鋒利的牙齒,而是因為人類有所謂的智慧,透過智慧可以創造許多的工具,以獵捕比我們更強壯、速度更快的物種。但是當機器人越來越聰明,人工智慧超越我們的智慧,該如何控制他們?維持人類的統治地位?

(五)如何確保人工智能不會產生不可預期的結果

我們如何確保具人工智能的機器人能夠正確解讀我們的命令,而不會誤解,產生非我們預料中的結果,例如跟機器人下指令:「消滅世界上所有癌症」,機器人認為只要全人類死光就不會有癌症,因此殺光所有人類,雖然達到目的,但並非我們所願。

(六)機器人如何確保不會有偏見

由於機器人的發展有賴工程師撰寫程式,若工程師個人有偏見,是否也會讓機器人有偏見,例如某科技公司曾經發展一個軟體,能夠透過人工智能預測未來犯罪情況,但卻對黑人產生偏見。因此確保機器人維持中立、公平將是一個重要課題。

(七)發展人工智能將導致大量失業,以及財富分配更不公平

我們都知道機器人的發展將取代一些工作,例如低技術、高勞力密集的工作,因此將導致失業的問題產生,根據麥肯錫顧問公司調查發現,在不久的將來,全球約有8億人的工作會因機器人的發展而被取代。

此外目前全球經濟主要奉行資本主義,已經造成財富分配不平均,80%的財富集中在20%的人手上,20%的財務則集中在80%的人手上,未來人工智能發展之後,若是導入人工智能的公司老闆,因為使用機器人取代人力,將讓公司減少雇用員工,因此公司賺得的收入幾乎可以一人獨拿,而失業員工更多,將造成財富分配更不公平。

三、結語

人工智能研究權威-美國柏克萊大學教授Stuart Russell認為未來有關人工智能的道德發展將是明星產業,機器人製造商將會向具備人工智能道德發展編寫程式(moral programming)的廠商購買相關數據,以讓其機器人擁有道德意識,做出正確的決定。然而道德,如前所述,是一種「主觀」的判斷,且工程師是否編寫程式的時候能夠維持中立立場?就算機器人真的能夠非常公正、中立,它們是否能夠完全了解命令內容,在達成一樣的目的之下,不會做出非預料的結果?以上的問題都是在人工智能發展的道路上一定會碰到的,雖然以目前的技術而言,可能言之過早,但這些問題若能夠突破,將能夠讓人工智能領域產生重大性的變革。

 

 

1
標籤:
文章評分 /
(總共0人評分過)
作者介紹 /
延伸閱讀 /
留言
 (留言內容僅限發表與本篇文章相關的討論或感想。本站有權直接刪除任何留言內容。)
留言規則:
‧發表的意見內容,不得有違法或侵害他人權益之言論,違者應自負法律責任,國試論壇有權刪除。
‧對於無意義、與本文無關、明知不實、謾罵、髒話穢言、侵害他人權利、廣告文之內容,國試論壇有權刪除。
‧不同意上述規範者,請勿留言。
熱門標籤

一般地方特考  一般行政  考試科目  司法考試  司法特考三等  司法特考四等  地特一般行政行政  司法特考五等司法特考  法警  監所管理員  一般警察特考  行政  地特一般行政司法特考  司法特考五等警察  警專警察  警專台鐵招考  鐵路特考  鐵特函授  鐵路局  鐵特員級  鐵特佐級初等考  國營事業  台電  郵局  台水  台糖  中油  台鐵勞工行政  勞資關係  勞工立法  就業安全制度