試想一個問題,今天具有人工智能的機器人負責照顧家裡的小孩,當小孩肚子餓的時候,機器人是否能夠將家裡的寵物煮來吃?大家一定覺得這個問題很恐怖,但若是人工智能不具備道德意識,不知道是非對錯,很有可能發生這樣的情況,因此人工智能的發展必須受到道德觀的約束,避免產生不可抹滅的傷害。然而要將道德觀念灌輸到機器人系統中大家可以想想下列問題:
(一)人類的行為對或錯是由誰認定?
我們常聽到有人說「每個人心中都有一把尺,決定行為對或錯」,然而有沒有可能每個人的尺都不一樣長?另如有些人家教比較嚴謹,因此在一般人看來再普通不過的行為,他們卻認為是不對的,例如有些大學生穿藍白托鞋參加畢業典禮,有些人認為不尊重師長,這樣是不對的;有些人卻認為無所謂(至少那些會這樣穿的學生是這樣認為),那機器人的道德意識應該以誰的為主?
此外,人類對於不同的道德認知,往往透過溝通及討論以解決不同看法造成的歧異,然而機器人是否能夠自由的溝通?是否能夠接受「妥協」?
(二)闖禍的機器人該由誰負責?
機器人是否應該為自己的行為負責?還是由機器人製造公司負責?或者由編寫程式的公司負責?如果認為機器人應該要自己負責,那就代表我們把機器人看成跟我們人類一樣,在法律上是獨立的個體,然而機器人真的可以跟人類在法律上有一樣地位嗎?是否有所謂的機器人權?目前還沒明確看法。
(三)機器人遇到兩難的時候,該以哪一方為主?
當機器人遇到兩個選項必須擇其一的時候,該如何選擇?例如今天機器人開車,遇到闖紅燈的老太太,如果緊急煞車,可能會造成乘客受傷;但不煞車又會撞到老太太,他該以哪一方為主?以人類來說,如果今天開車遇到上述狀況,煞車不及撞到老太太,可能可以「意外」視之,然而機器人的行為舉止都是「預先」透過程式編寫進去,機器人的每一步都是演算法設定好的,因此如果他今天遇到上述狀況選擇撞傷老太太,代表他一開始灌輸的程式就是如此,因此該事件可以說是意外嗎?還是預謀?
(四)人工智慧的發展是否會超出人類的控制
人類之所以能夠在食物鏈的頂端,不在於人類相較其他物種有強壯的體態或鋒利的牙齒,而是因為人類有所謂的智慧,透過智慧可以創造許多的工具,以獵捕比我們更強壯、速度更快的物種。但是當機器人越來越聰明,人工智慧超越我們的智慧,該如何控制他們?維持人類的統治地位?
(五)如何確保人工智能不會產生不可預期的結果
我們如何確保具人工智能的機器人能夠正確解讀我們的命令,而不會誤解,產生非我們預料中的結果,例如跟機器人下指令:「消滅世界上所有癌症」,機器人認為只要全人類死光就不會有癌症,因此殺光所有人類,雖然達到目的,但並非我們所願。
(六)機器人如何確保不會有偏見
由於機器人的發展有賴工程師撰寫程式,若工程師個人有偏見,是否也會讓機器人有偏見,例如某科技公司曾經發展一個軟體,能夠透過人工智能預測未來犯罪情況,但卻對黑人產生偏見。因此確保機器人維持中立、公平將是一個重要課題。
(七)發展人工智能將導致大量失業,以及財富分配更不公平
我們都知道機器人的發展將取代一些工作,例如低技術、高勞力密集的工作,因此將導致失業的問題產生,根據麥肯錫顧問公司調查發現,在不久的將來,全球約有8億人的工作會因機器人的發展而被取代。
此外目前全球經濟主要奉行資本主義,已經造成財富分配不平均,80%的財富集中在20%的人手上,20%的財務則集中在80%的人手上,未來人工智能發展之後,若是導入人工智能的公司老闆,因為使用機器人取代人力,將讓公司減少雇用員工,因此公司賺得的收入幾乎可以一人獨拿,而失業員工更多,將造成財富分配更不公平。
三、結語
人工智能研究權威-美國柏克萊大學教授Stuart Russell認為未來有關人工智能的道德發展將是明星產業,機器人製造商將會向具備人工智能道德發展編寫程式(moral programming)的廠商購買相關數據,以讓其機器人擁有道德意識,做出正確的決定。然而道德,如前所述,是一種「主觀」的判斷,且工程師是否編寫程式的時候能夠維持中立立場?就算機器人真的能夠非常公正、中立,它們是否能夠完全了解命令內容,在達成一樣的目的之下,不會做出非預料的結果?以上的問題都是在人工智能發展的道路上一定會碰到的,雖然以目前的技術而言,可能言之過早,但這些問題若能夠突破,將能夠讓人工智能領域產生重大性的變革。