人類能造出有道德的機器人嗎?

 機氣林商城智能科技2019提供自動化零件,工控產(chǎn)品,工業(yè)機器人,以及機器人零部件、機械元件以及氣動元件等。機氣林商城,一站式機器人采購平臺

  機氣林電商有話說:

   2018年12月18日,歐盟人工智能高級別專家組發(fā)布了一份人工智能道德準則草案。在許多人擔憂人工智能取代人類、破壞倫理的大背景下,該草案旨在指導(dǎo)人們制造一種“可信賴的人工智能”。如何才能讓機器人更令人信賴?可否賦予它們道德修養(yǎng)呢?就此話題,作者采訪了美國匹茲堡大學(xué)科學(xué)哲學(xué)和科學(xué)史系杰出教授、西安交通大學(xué)長江講座教授科林·艾倫。
  問:什么是人工智能的“道德”?
  艾倫:人工智能的“道德”,或者說“道德機器”“機器道德”,有很多不同的含義。我將這些含義歸為3種。第一種含義中,機器應(yīng)具有與人類完全相同的道德能力。第二種含義中,機器不用完全具備人類的能力,但它們對道德相關(guān)的事實應(yīng)該具有敏感性,并且能依據(jù)事實進行自主決策。第三種含義則是說,機器設(shè)計者會在最低層面上考慮機器的道德,但是并沒有賦予機器人關(guān)注道德事實并做出決策的能力。
  就目前而言,第一種含義所設(shè)想的機器仍是一個科學(xué)幻想。所以,我在《道德機器》一書中略過了對它的探討,而更有興趣探討那些介乎第二、第三種意義之間的機器。當下,我們希望設(shè)計者在設(shè)計機器人時能夠考慮道德因素。這是因為,在沒有人類直接監(jiān)督的情況下,機器人可能將在公共領(lǐng)域承擔越來越多的工作。這是我們第一次創(chuàng)造可以無監(jiān)督地運行的機器,這也是人工智能倫理問題與以往一些科技倫理問題之間最本質(zhì)的區(qū)別。在這樣的“無監(jiān)督”情境中,我們希望機器能夠做出更道德的決策,希望對機器的設(shè)計不僅僅要著眼于安全性,更要關(guān)注人類在乎的價值問題。
  問:如何讓人工智能具有道德?
  艾倫:首先要說的是,人類自己還不是完全道德的,將一個人培養(yǎng)成有道德的人可不是一件容易的事。人類的本質(zhì)都是出于利己主義做事,而不考慮他人的需求和利益。然而,一個道德的智能體必須學(xué)會克制自己的欲望以方便他人。我們現(xiàn)在構(gòu)建的機器人,其實并不具有自己的欲望,也沒有自己的動機,因為它們沒有自私的利益。所以,訓(xùn)練人工智能和訓(xùn)練人的道德是有很大差異的。對機器的訓(xùn)練問題在于,我們怎樣才能賦予機器一種能力,讓它敏感地察覺到哪些對人類的道德價值觀而言是重要的事情。此外,機器需要認識到它的行為會對人類造成痛苦嗎?我認為是需要的。我們可以考慮通過編程,使機器按照這種方式行事,且無需考慮怎么讓機器人優(yōu)先考慮他者利益,畢竟目前的機器還不擁有利己的本能。
  問:發(fā)展人工智能的道德應(yīng)采用怎樣的模式?
  艾倫:我們曾在《道德機器》中討論了機器道德發(fā)展模式,認為“自上而下”和“自下而上”相混合的模式是最佳答案。首先談一談“自上而下”和“自下而上”意味著什么。我們以兩種不同的方式使用這兩個術(shù)語。一個是工程的視角,也就是一些技術(shù)和計算機科學(xué)的視角,例如機器學(xué)習(xí)和人工進化,而另一個則是倫理學(xué)視角。機器學(xué)習(xí)和人工進化并不從任何原則開始,它們只是試圖使機器符合特定類型的行為描述,并且在給定輸入使機器以這種方式行事時,它的行為能夠符合特定類型,這叫“自下而上”。與之相比,“自上而下”的方法則意味著一個清晰的、將規(guī)則賦予決策過程的模式,并且試圖寫出規(guī)則來指導(dǎo)機器學(xué)習(xí)。我們可以說,在工程領(lǐng)域中,“自下向上”是從數(shù)據(jù)當中學(xué)習(xí)經(jīng)驗,而“自上向下”則是用確定的規(guī)則進行預(yù)編程。
  在一些倫理學(xué)領(lǐng)域也有這種“上下之別”,比如康德,還有更早的功利主義學(xué)派,如邊沁和密爾,他們就更像是“自上而下”。這些學(xué)者試圖制定規(guī)則以及普遍原則,以便通過這些“條條框框”判斷出一個行為是不是道德的。這樣對康德的道德律令而言,其涵義就包含著多項具體規(guī)則,例如“不撒謊”。
  亞里士多德對于道德持有相當不同的觀點。他認為,道德應(yīng)當是一個人通過訓(xùn)練而習(xí)得的。因此,亞里士多德的觀點就更傾向于一種“自下向上”的方法,這種方法就是一個人通過練習(xí)變得好、善良、勇敢。當踐行道德的時候,我們就稱之為美德倫理。通過這樣做,一個人會變得更具美德、會有更好的行為。
  我認為亞里士多德的看法更正確。因為人類并不是靠“瞎碰瞎撞”去養(yǎng)成習(xí)慣的,也會對習(xí)慣進行思考,并思考需要哪些原則。亞里士多德注意到,在原則灌輸和習(xí)慣訓(xùn)練之間存在著一種相互作用。我們認為,這種途徑同樣也適用于人工道德智能體的構(gòu)建。在很多實時決策的情境下,我們并沒有足夠的時間來反思行為背后的理論或原則含義。但是,我們還可以從錯誤中學(xué)習(xí),因為可以使用這些“自上向下”的原則重新評估我們所做的事情,之后再進行調(diào)整和重新訓(xùn)練。
  這就是混合方法的基本思路,我認為它確實符合人類的情形。舉個例子,當你還是個孩童時,你對兄弟姐妹做了什么不好的事情,父母會說“如果這種事情發(fā)生在你身上,你會有何感受呢”,是吧?在許多道德傳統(tǒng)中都有這樣一種原則:“以你自己對待自己的方式,或是你希望被別人對待的方式去對待他人”,有時人們也稱這一原則為黃金法則。所以,你不僅僅被告知不要那樣做,也并不僅僅因此而受罰,實際上你會被告知去思考這樣做為何是好的或不好的,這就是“自上而下”與“自下而上”的結(jié)合。
  問:應(yīng)該限制人工智能的發(fā)展嗎?
  艾倫:我認為這取決于應(yīng)用領(lǐng)域。我現(xiàn)在并不擔心機器人或人工智能會取代人類,如果情況變得危險,我們是有能力去阻止它的。比如說突然發(fā)現(xiàn)機器人可以生產(chǎn)機器人,我們要做的無非就是切斷電源。
  當然,確實存在一些應(yīng)當停止人工智能應(yīng)用的地方,其中一個就是人們正致力開發(fā)的軍事領(lǐng)域。從人類的歷史來看,一旦有人構(gòu)想出一個武器,那將很難阻止另一些人的欲望及其為之奮斗的野心。核武器和無人機就是很好的例子。
  但是,我不認為應(yīng)該阻止其他形式的人工智能發(fā)展。我們需要思考技術(shù)對生活帶來了怎樣的后果,比如說,自動駕駛汽車會使行人過馬路更困難,還是更加容易呢?自動駕駛汽車面臨行人過馬路的情形時應(yīng)附加什么樣的權(quán)限呢?無人車看到行人能不能安全停下,還是說它像人類司機一樣,依然有可能撞到行人?這些都是我們需要對人工智能進行思考的問題。無人駕駛汽車不僅不該停止發(fā)展,而是應(yīng)該投入更多。
  問:機器人會變得更好還是更危險?
  艾倫:過去10年來,人工智能在某些方面的飛速發(fā)展令人吃驚,但算不上滿意。在我看來,未來10年內(nèi)無人駕駛汽車投放到真實路況中的可能性不大。蘋果公司推出了一個可以交談的智能體Siri,但以現(xiàn)在的情形來看,Siri很糟糕不是嗎?所有我使用過的類似產(chǎn)品,諸如Alexa,Google Talk,都不盡人意。所以我現(xiàn)在不會從倫理的視角對人工智能的發(fā)展過于擔心。這些企業(yè)居然真的發(fā)布了這些產(chǎn)品,但更令我驚奇的是,人們居然在很大程度上調(diào)整自身行為以適應(yīng)人工智能,因為你知道把Siri當成正常人來交談的話,它永遠不會明白你的意思。人類在做出調(diào)整,并非機器,因為機器并不是一個自適應(yīng)的系統(tǒng)。或者說,它比人類具有更弱的適應(yīng)性。這是最令我擔心的。
  當然,我所擔心的并不是機器做的事情超出人類的預(yù)想,而是它們可能改變并限制我們的行為。AlphaGo贏了圍棋,但并未改變我們的日常生活,所以沒什么好擔心的。我擔心人們用愚笨的方式與機器交談,以便機器按照我們的想法做事。要知道,這具有許多潛在的危險。它潛移默化改變我們的習(xí)慣行為,使我們對某些類型的錯誤更具容忍性而對有些錯誤卻更加苛刻。人們會預(yù)料到并且能容忍人類所犯的道德錯誤,但是,人類可能不會容忍這樣的錯誤在機器上發(fā)生。經(jīng)過規(guī)劃考慮后仍對他人造成傷害的決定如果發(fā)生在機器上,會比發(fā)生在人類身上更不能令人容忍。在過去10年內(nèi),這種改變已經(jīng)發(fā)生了。即使軟件會變得更好,機器也會變得更好,但是永遠都存在著讓人類去適應(yīng)機器而非真正提高人類能力的危險。
  (作者系西安交通大學(xué)計算哲學(xué)實驗室中方主任,溫新紅對本文亦有貢獻)

  【人氣商品】:

  機器林商城產(chǎn)品大推薦

  【品牌推薦】:

  機氣林電商爆款大曝光、機器人周邊產(chǎn)品總覽

  【最新資訊】:

   機氣林商城官網(wǎng)(網(wǎng)址打不開就+V:I99~46O3~9726機氣林)

  上海機氣林智能科技有限公司

  上海市青浦區(qū)華浦路 500 號

  電話:021-59801300