2018年12月18日,歐盟人工智能高級別專家組發(fā)布了一份人工智能品德準則草案。在許多人擔憂人工智能取代人類、破壞品德的大布景下,該草案旨在指導(dǎo)人們制作一種“可信賴的人工智能”。怎么才能讓機器人更令人信賴?可否賦予它們品德修養(yǎng)呢?就此論題,作者采訪了美國匹茲堡大學科學哲學和科學史系杰出教授、西安交通大學長江講座教授科林·艾倫。
問:發(fā)展人工智能的品德應(yīng)選用怎樣的模式?
艾倫:咱們曾在《道德機器》中評論了機器品德發(fā)展模式,以為“自上而下”和“自下而上”相混合的模式是相對好的答案。首先談一談“自上而下”和“自下而上”意味著什么。咱們以兩種不同的方法使用這兩個術(shù)語。一個是工程的視角,也就是一些技術(shù)和計算機科學的視角,例如機器學習和人工進化,而另一個則是品德學視角。機器學習和人工進化并不從任何準則開端,它們只是試圖使機器符合特定類型的行為描述,并且在給定輸入使機器以這種方法行事時,它的行為可以符合特定類型,這叫“自下而上”。與之相比,“自上而下”的方法則意味著一個清晰的、將規(guī)矩賦予決議計劃過程的模式,并且試圖寫出規(guī)矩來指導(dǎo)機器學習。咱們可以說,在工程領(lǐng)域中,“自下向上”是從數(shù)據(jù)傍邊學習經(jīng)驗,而“自上向下”則是用斷定的規(guī)矩進行預(yù)編程。
問:怎么讓人工智能具有道德?
艾倫:首先要說的是,人類自己還不是完全有道德的,將一個人培養(yǎng)成有道德的人可不是一件簡單的事。人類的實質(zhì)都是出于利己主義做事,而不考慮別人的需求和利益。但是,一個道德的智能體必須學會抑制自己的愿望以方便別人。咱們現(xiàn)在構(gòu)建的機器人,其實并不具有自己的愿望,也沒有自己的動機,因為它們沒有自私的利益。所以,訓練人工智能和訓練人的品德是有很大差異的。對機器的訓練問題在于,咱們怎樣才能賦予機器一種才能,讓它敏感地察覺到哪些對人類的品德價值觀而言是重要的工作。此外,機器需求認識到它的行為會對人類形成苦楚嗎?我以為是需求的。咱們可以考慮通過編程,使機器按照這種方法行事,且無需考慮怎么讓機器人優(yōu)先考慮他者利益,究竟現(xiàn)在的機器還不擁有利己的天性。
問:什么是人工智能的“品德”?
艾倫:人工智能的“品德”,或者說“道德機器”“機器品德”,有很多不同的意義。我將這些意義歸為3種。第一種意義中,機器應(yīng)具有與人類完全相同的品德才能。第二種意義中,機器不用完全具備人類的才能,但它們對品德相關(guān)的現(xiàn)實應(yīng)該具有敏感性,并且能依據(jù)現(xiàn)實進行自主決議計劃。第三種意義則是說,機器規(guī)劃者會在較低層面上考慮機器的品德,可是并沒有賦予機器人重視品德現(xiàn)實并做出決議計劃的才能。
就現(xiàn)在而言,第一種意義所想象的機器仍是一個科學幻想。所以,我在《道德機器》一書中略過了對它的評論,而更有興趣評論那些介乎第二、第三種意義之間的機器。當下,咱們期望規(guī)劃者在規(guī)劃機器人時可以考慮品德因素。這是因為,在沒有人類直接監(jiān)督的情況下,機器人可能將在公共領(lǐng)域承擔越來越多的工作。這是咱們第一次發(fā)明可以無監(jiān)督地運行的機器,這也是人工智能品德問題與以往一些科技品德問題之間實質(zhì)的區(qū)別。在這樣的“無監(jiān)督”情境中,咱們期望機器可以做出更道德的決議計劃,期望對機器的規(guī)劃不僅僅要著眼于安全性,更要重視人類在乎的價值問題。