人類關(guān)于人工智能有一個(gè)誤會(huì),那就是想要設(shè)計(jì)特別聽(tīng)話的機(jī)器人,其實(shí)這是非常危險(xiǎn)的,真正的優(yōu)秀的人工智能機(jī)器人,必須是會(huì)對(duì)人類說(shuō)“不”的那種。
最近,禁止殺傷性機(jī)器人運(yùn)動(dòng)呼吁聯(lián)合國(guó)禁止研發(fā)和使用自動(dòng)武器,也就是有自主意識(shí)、有殺傷能力的人工智能。不過(guò),有觀點(diǎn)認(rèn)為人工智能,人類騎其實(shí)需要制造會(huì)“違抗命令”的人工智能。
人類與人工智能互動(dòng)的未來(lái)將會(huì)引發(fā)焦慮。隨著人們開(kāi)始推動(dòng)將倫理觀念輸入到人工智能體系中,我們必須承認(rèn)這樣一個(gè)想法:我們需要制造出可以對(duì)命令說(shuō)“不”的機(jī)器。
這么做的目的不僅僅是讓機(jī)器人不對(duì)未識(shí)別的命令的做出回應(yīng),同時(shí)也是希望給機(jī)器人賦予這么一樣能力——即在特定情況下,拒絕不合適、有用的人類命令。這一設(shè)想并不容易實(shí)現(xiàn),對(duì)于某些人來(lái)說(shuō)也很難接受。
盡管人工智能發(fā)展迅速,我們?nèi)匀惶幱谶@一大變革的開(kāi)始階段。許多復(fù)雜的人工智能系統(tǒng)還遠(yuǎn)遠(yuǎn)未達(dá)到能夠獨(dú)立做決定的階段,在相當(dāng)長(zhǎng)的一段時(shí)間內(nèi),這些人工智能系統(tǒng)仍然只能一起工作或是在人類的指示下工作。
創(chuàng)造出能夠彌補(bǔ)人類缺點(diǎn)、而非能毀滅人類的人工智能越來(lái)越被認(rèn)為是這項(xiàng)技術(shù)完美的發(fā)展方向。但是,關(guān)鍵在于,這也意味著如果人工智能具備了倫理觀念,它不僅會(huì)拒絕人類非法或不道德的命令,也能執(zhí)行這些命令。
隨著人工智能系統(tǒng)變得更加強(qiáng)大和普遍,他們是否會(huì)具備倫理觀念這一問(wèn)題變得突出起來(lái)。幸運(yùn)地是,關(guān)于這一問(wèn)題的研究在人工智能領(lǐng)域和學(xué)術(shù)界都很豐富。DeepMind這一由谷歌在2014年收購(gòu)的倫敦人工智能研究組是最近想要發(fā)行具備倫理觀念的機(jī)器人的研究組,他們邀請(qǐng)了來(lái)自不同領(lǐng)域的顧問(wèn),以幫助了解清楚由人工智能在社會(huì)上究竟扮演何種角色所引起的兩難之境。但是隨著我們不斷探尋無(wú)人駕駛汽車深層次的決策制定過(guò)程,深思軍用機(jī)器人是否能夠得到允許以做出殺戮的決定,嘗試發(fā)現(xiàn)植根于機(jī)器學(xué)習(xí)算法中的種族主義和性別歧視,我們需要退后一步,認(rèn)識(shí)到我們努力做的東西具體情境和它的復(fù)雜性。
在幾乎所有情境下,由機(jī)器所做的決定可以追溯到由人提出的要求。如果機(jī)器想要具備倫理觀念,它必須有能力識(shí)別一項(xiàng)請(qǐng)求是否是合乎道德,在某些情況下,它必須克制自己,不做決定。
人類并不完美。我們已經(jīng)可以看到有一些觀點(diǎn)認(rèn)為軍用機(jī)器人相比于人類,可以更好的決定是否摧毀一個(gè)目標(biāo)。這樣的想法認(rèn)識(shí)到了人類可能會(huì)在做決定時(shí)犯認(rèn)知性的錯(cuò)誤。
與此類似,軍用機(jī)器人不會(huì)參與到由憤怒或是厭惡驅(qū)使的暴行當(dāng)中。但是,如果由人工智能控制的機(jī)器人被命令去攻擊一個(gè)村莊呢?美國(guó)士兵受到的訓(xùn)練中就有識(shí)別和拒絕非法命令。軍用人工智能也應(yīng)當(dāng)根據(jù)同樣的規(guī)則來(lái)工作。
同樣的規(guī)則適用于軍事之外的領(lǐng)域。無(wú)論我們是在討論一個(gè)批準(zhǔn)或者拒絕貸款的金融機(jī)器人,努力避免危險(xiǎn)路況的無(wú)人車,還是分發(fā)止痛藥的醫(yī)藥機(jī)器人。一個(gè)得到購(gòu)買(mǎi)機(jī)器人授權(quán)的人類用戶,可能會(huì)引導(dǎo)人工智能做一些如果人類做會(huì)被認(rèn)為是有問(wèn)題、甚至是非法的事情,比如讓少數(shù)群體更難獲取貸款,走一條已經(jīng)關(guān)閉或者是很危險(xiǎn)的路,開(kāi)過(guò)量的鴉片類藥物。
除非人工智能可以識(shí)別并拒絕這類決定人工智能,否則的話,我們不過(guò)也就是打造另一個(gè)也會(huì)存在人類固有的缺點(diǎn)的智能機(jī)器世界,只不過(guò)在計(jì)算機(jī)客觀性的掩飾下這個(gè)世界的陰暗面并不那么明顯。
拒絕在某些時(shí)候可能具有侵犯性,但是具備倫理觀念的人工智能的未來(lái)更加合理,這意味著我們會(huì)習(xí)慣知道什么時(shí)候說(shuō)“不”的機(jī)器。