幾乎所有人都在享受人工智能帶來的便利,但你了解它是如何運(yùn)作的么?
這個問題也曾困擾著谷歌前工程專家肖恩·格里什(SeanGerrish)。這位普林斯頓大學(xué)機(jī)器學(xué)習(xí)博士說:“我花了無數(shù)時間在學(xué)術(shù)界和產(chǎn)業(yè)界研究和實踐機(jī)器學(xué)習(xí),但我仍然不能堅定連貫地回答這個問題?!?/p>
這個困擾成為強(qiáng)大動力,他決定弄清楚一個問題:智能機(jī)器如何思考。這八個字也成為他新書的標(biāo)題《智能機(jī)器如何思考:深度神經(jīng)網(wǎng)絡(luò)的秘密》?!斑@是一本如果我不懂機(jī)器學(xué)習(xí),我將會想讀的書?!彼f。
“在用清晰易懂的方式描述這些系統(tǒng)的本質(zhì)時,肖恩利用10多年的行業(yè)和學(xué)術(shù)經(jīng)驗解決了機(jī)器學(xué)習(xí)帶來的一些最棘手的問題……由于市場上缺乏對機(jī)器學(xué)習(xí)通俗易懂的專業(yè)介紹,這本書將成為引導(dǎo)你理解底層技術(shù)的理想方法,它可以幫助你更好地判斷哪些言論值得相信,哪些說得天花亂墜的謬論應(yīng)該被拋棄?!蔽④汣TO(首席技術(shù)官)凱文·斯科特說。
“計算機(jī)和軟件,是21世紀(jì)的杠桿、齒輪和發(fā)動機(jī)”
兩千年來,人類總被“自動機(jī)”驚艷。
違背“水往下流”自然規(guī)律的噴泉,曾驚艷了兩千多年前的古希臘,其實就是早期的自動機(jī)
1737年,一個可以像真人一樣用長笛演奏音樂的雕塑,成為兩百多年前歐洲富人趨之若鶩的新奇玩意,這是法國機(jī)械天才雅克·德·沃康松的杰作。
今天,自動駕駛汽車,能與人類自如交流的機(jī)器人索菲亞,不斷刷新著人們對于“自動機(jī)”的認(rèn)識,甚至誕生了對“人工智能”的恐慌,“自動機(jī)”究竟發(fā)生了怎樣的變化?
讓我們先回到1737年,工業(yè)革命的黎明時分,長笛演奏者誕生的那一年。
當(dāng)他出現(xiàn)時,公眾很喜歡但并不太驚訝,因為這樣的裝置已經(jīng)出現(xiàn)過。但當(dāng)這位長笛演奏者把真實的長笛舉到嘴邊,用它的機(jī)械肺把空氣送入樂器,吹出一個個音符,然后通過移動嘴唇,調(diào)整吹氣的力度,控制手指精確地在長笛孔上移動,吹出一系列音符,組成一首完整的樂曲時,依然吸引了眾人的目光。沃康松甚至向一小部分觀眾收取相當(dāng)于一周薪水的費用,讓他們觀看這個奇怪的裝置。
有人懷疑雕塑里面藏著人暗地操作,沃康松直接向觀眾展示了長笛演奏者的內(nèi)部機(jī)制,那是由風(fēng)箱、氣管、軸、小螺柱、彈簧、杠桿組成的機(jī)器。“它只不過是在遵循編碼到它機(jī)械內(nèi)臟中的一系列指令。”肖恩寫道,“自動機(jī)之所以受歡迎,正是因為它看起來是完全自主的,而且它似乎復(fù)制了人類的智能?!?/p>
今天,自動駕駛的汽車,戰(zhàn)勝柯潔的AlphaGo,似乎都已與兩百多年前的長笛演奏者截然不同,因為他們可以像人或動物一樣自主運(yùn)行,甚至似乎可以“獨立思考”。
但肖恩卻說:“事實證明,技術(shù)專家在過去的幾個世紀(jì)里沒有太大變化,他們?nèi)匀辉谠O(shè)計自動機(jī)并給它們編程,以此復(fù)制人類的思想和身體。唯一的區(qū)別是,技術(shù)專家已經(jīng)把工具升級為計算機(jī)和運(yùn)行在計算機(jī)上的軟件,它們是21世紀(jì)的杠桿、齒輪和發(fā)動機(jī)。”
“無人車”:如何“看”世界?
首先,我們來看看自動駕駛汽車。
人類開車最關(guān)鍵的是觀察路況,而路況是復(fù)雜的,如穿越馬路的行人、丟失的井蓋、逆行的汽車……那么,自動駕駛的汽車又是如何“睜開眼看世界的”。
肖恩用2005年美國無人車挑戰(zhàn)賽上獲勝的斯坦利為例,講述這輛由斯坦福車隊制造的賽車如何觀察路況,如何感知這個世界。
斯坦福大學(xué)人工智能實驗室為斯坦利設(shè)計了由三個獨立部分組成的架構(gòu):硬件層,感知層,思考層。
硬件層就像人的眼睛、耳朵和雙腿,負(fù)責(zé)收集數(shù)據(jù)以及執(zhí)行“大腦”傳來的指令,比如“轉(zhuǎn)向、剎車、加速”。硬件層包括傳感器和執(zhí)行器,傳感器有攝像機(jī)、激光掃描儀和GPS系統(tǒng)等。
思考層就像汽車的“大腦”,負(fù)責(zé)決定汽車的實際駕駛方式,將命令發(fā)送給硬件層去執(zhí)行。
中間的感知層則負(fù)責(zé)“翻譯”,將硬件層收集到的信息及原始數(shù)據(jù)轉(zhuǎn)換成可解釋的模型,提供給思考層完成工作。
斯坦利具體是如何“看”的?當(dāng)人類看到一條道路的照片時,一眼就能清楚地看出照片的哪一部分是道路,哪一部分是道路的邊緣,哪一部分是天空。對計算機(jī)程序而言,這些細(xì)節(jié)一開始并不明顯。斯坦利需要一步步地從攝像機(jī)的圖像中找到道路。
“為了做到這一點,斯坦利采用了機(jī)器學(xué)習(xí)中一種被稱為聚類(clustering)的技術(shù),把具有相似顏色的像素組織在一起。這樣它才可以更好地判斷一個像素是屬于道路的一部分,還是屬于道路邊緣的一部分?!?/p>
肖恩用通俗的方式解釋說:請想象你是一個剛洗了一大堆襪子的吸血鬼,吸血鬼最喜歡的顏色是紅色和黑灰色。從洗衣店回家后,你開始整理這些襪子,將它們攤開放在床上,把同色系的襪子放在一起。一段時間后便會出現(xiàn)一堆紅襪子和一堆黑灰襪子,它們可能會在深紅色和深灰色相交的地方重疊。但你發(fā)現(xiàn)了一只亮綠色的襪子,這只襪子顯然不屬于兩堆襪子中的任何一堆,所以你扔掉了它。
這正是斯坦利推理攝像機(jī)圖像像素的方式。它通過查看代表汽車前方路面的像素來創(chuàng)建道路像素的聚類。在沙漠中,你可以想象代表這些道路的像素可能是灰色和棕色的混合,這會導(dǎo)致斯坦利最終得到一個灰色像素聚類和一個棕色像素聚類。然后,斯坦利會測試圖像中其他像素是否與這兩個聚類匹配。如果與聚類匹配,它們就是道路的一部分,否則,斯坦利就會拒絕它們,認(rèn)為它們不是道路的一部分,就像你扔掉綠襪子一樣。
今天的無人汽車“看”的方式比斯坦利更加復(fù)雜,但“分類”依然是它的重要任務(wù),明確對象是什么。
智能體:沒人教,也能學(xué)會打游戲
在自動駕駛汽車項目如火如荼之際,谷歌收購了一家名為DeepMind的神秘小公司。在谷歌一次每周五召開的全員會議上,DeepMind給大家展示了計算機(jī)程序玩《太空入侵者》的一段視頻。
在這款游戲中,玩家必須移動屏幕底部的一艘宇宙飛船來射擊外星人,阻止外星人降落到底部。計算機(jī)程序無可挑剔地玩著游戲,完美地贏了一局游戲,房間里爆發(fā)出一陣歡呼。
為什么圍觀的谷歌工程師如此興奮?“IBM難道不是早在近20年前的1997年就創(chuàng)造了‘深藍(lán)’,擊敗了世界上最好的國際象棋棋手加里·卡斯帕羅夫嗎?谷歌的工程師難道不知道他們的自動駕駛汽車已經(jīng)在道路上行駛了近70萬英里?如果連自動駕駛汽車都是可能的,那為什么所有人都對計算機(jī)攻克一款簡單的電子游戲嘖嘖稱奇?況且此時,計算機(jī)可以高水平地玩電子游戲也已經(jīng)有多年歷史了?!?/p>
肖恩說:“這個計算機(jī)程序之所以讓人贊嘆,是因為它學(xué)會了在沒有人類指導(dǎo)的情況下玩游戲。而早期的突破需要相當(dāng)大程度的人類判斷力和對算法的調(diào)整。對于自動駕駛汽車,人類需要精心開發(fā)探測可行駛地形的功能,然后告訴汽車可以在哪種地形上行駛。相比之下,程序員從來沒有告訴過DeepMind程序向左輕撥操縱桿會讓飛船向左移動,按下按鈕會發(fā)射導(dǎo)彈,甚至也沒告訴程序向外星人發(fā)射導(dǎo)彈會摧毀外星人并贏得積分。”
那么,沒有人指導(dǎo),計算機(jī)是如何學(xué)會玩游戲的呢?答案是強(qiáng)化學(xué)習(xí)。
“就像當(dāng)你給寵物狗食物的時候它會學(xué)會聽從命令一樣,通過強(qiáng)化學(xué)習(xí)來學(xué)習(xí)的智能體也會學(xué)會聽從你的命令。”
肖恩用訓(xùn)練智能體打高爾夫球為例。有一個很大的高爾夫球場,球場上到處都有會爆炸的地雷,有復(fù)雜的地形比如果嶺、球道、沙坑等,智能體需要避開所有的障礙,揮舞球桿將高爾夫球打到球場盡頭的球洞中。這些障礙和風(fēng)險,智能體一開始可能并不知道,“但我們?nèi)匀豢梢越探o它好的策略,方法就是讓它玩一段時間。當(dāng)它達(dá)到終點位置時,游戲結(jié)束,我們立即給它一塊巧克力作為獎勵。如果智能體踩到地雷,我們會用電擊懲罰它,相當(dāng)于減去半塊巧克力”。
這多么像著名心理學(xué)家斯金納提出的“強(qiáng)化理論”。他曾設(shè)計一種動物實驗儀器即著名的“斯金納箱”。箱內(nèi)放進(jìn)一只白鼠或鴿子,并設(shè)一杠桿或鍵,動物在箱內(nèi)可自由活動,當(dāng)它壓杠桿或啄鍵時,就會有一團(tuán)食物掉進(jìn)箱子下方的盤中,動物就能吃到食物。
斯金納認(rèn)為,無論是人還是動物,為了達(dá)到某種目的,都會采取一定的行為,這種行為將作用于環(huán)境,當(dāng)行為的結(jié)果對他或它有利時,這種行為就會重復(fù)出現(xiàn);當(dāng)行為的結(jié)果不利時,這種行為就會減少重復(fù)出現(xiàn)的可能。這就是環(huán)境對行為強(qiáng)化的結(jié)果。強(qiáng)化理論最初只用于訓(xùn)練動物,后來用于人的學(xué)習(xí),并發(fā)明了程序教學(xué)法和教學(xué)機(jī)。
人類的成長不也是通過一步步試錯,獲得正反饋或負(fù)反饋從而調(diào)整自己的行為,最后形成自己的行為規(guī)范?這不得不讓人想起哲學(xué)家笛卡爾1662年的《人類論》中的一句話:
我想,身體也只是一個工具或機(jī)器……就如同我們的鐘表、人工噴泉、鋸末機(jī)和其他類似的機(jī)器,即便它們只是由人類做成,但他們能夠按自己的規(guī)律做自己的事。
未來:我們的機(jī)器總有一天會思考,這是大勢所趨
人工智能的發(fā)展并非一帆風(fēng)順。
在過去的20年里,許多在人工智能領(lǐng)域引起轟動的想法與半個世紀(jì)前的20世紀(jì)60年代末引起轟動的想法如出一轍。
“當(dāng)時,人工智能領(lǐng)域貌似在飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)得到了改進(jìn),國際象棋和圍棋等游戲的算法得到了開發(fā),行業(yè)會議上的成果以及隨著微處理器的出現(xiàn)而呈指數(shù)級增長的硬件全都令人感到興奮,人工智能會議似乎場場爆滿——所有這一切都發(fā)生在人工智能領(lǐng)域進(jìn)入一個被稱為‘人工智能寒冬’的黑暗時期之前。后來人工智能研究的資金枯竭了幾十年。人工智能甚至成為一些研究人員口中的笑柄。在20世紀(jì)80至90年代的大部分時間里,這種恐慌一直在持續(xù),直到人工智能領(lǐng)域在過去20年里重獲新生?!?/p>
今天,機(jī)器越來越像人類,人類似乎也越來越像機(jī)器。
會不會有一天,機(jī)器可以獨立思考、產(chǎn)生情感甚至駕馭人類?
盡管肖恩刻意回避對人工智能的未來做過多猜測,但他認(rèn)為:“首先,我們在未來創(chuàng)建的自動機(jī)將會始終遵循程序……這些機(jī)器將會遵循越來越復(fù)雜的程序。辨別它們在做什么事情也會變得越來越困難,但是我們始終有可能將它們執(zhí)行的每一個動作追溯到一組確定的指令?!?/p>
“一些哲學(xué)家認(rèn)為,這表明機(jī)器永遠(yuǎn)不會思考。我個人的信念是,人類也是機(jī)器,我們是模擬機(jī)器,如果我們相信人類可以思考,那么就沒有什么能阻止我們有朝一日設(shè)計出可以思考的數(shù)字計算機(jī)。我們的機(jī)器總有一天會思考,這是大勢所趨,它們會產(chǎn)生情感、觀點和自我保護(hù)的愿望,這些總有一天會與我們?nèi)祟惏l(fā)生沖突?!?/p>