注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁新聞資訊書評

《未來簡史》的謬誤

根據(jù)作者赫拉里在書中的觀點,人工智能系統(tǒng)會在不遠的未來搶走人類的所有飯碗,并由此將整個人類變成“無用階級”。

關(guān)于“人工智能是否能取代人類工作”的討論始終各執(zhí)一詞。《未來簡史》的火爆即可印證公眾對此問題的關(guān)切,根據(jù)作者赫拉里在書中的觀點,人工智能系統(tǒng)會在不遠的未來搶走人類的所有飯碗,并由此將整個人類變成“無用階級”。此文采取語錄體的形式對此消極趨勢進行辯駁,為人類理解、使用人工智能提供更多可能的思考方向。特此刊發(fā),以饗讀者。

對話的緣起

最近,某高校人文學(xué)院大二的學(xué)生阿璟一直無精打采的,上課老開小差。原來,她在一周前讀到了以色列學(xué)者赫拉里寫的《未來簡史——從智人到智神》,被里面的觀點“顛覆了三觀”。根據(jù)赫拉里的論點,人工智能系統(tǒng)會在不遠的未來搶走人類的所有飯碗,并由此將整個人類變成“無用階層”。被赫拉里徹底說服的阿璟不由得開始懷疑刻苦讀書的意義,并下決心提前將自己放逐為“無用階級”的一員,開始了飽食終日、無所用心的日子。班上的輔導(dǎo)員阿華對阿璟做了好幾次談話,但都被她“懟”了回去。無奈中阿華找到了班上的學(xué)術(shù)導(dǎo)師阿瑾幫忙。阿瑾速讀了一下《未來簡史》這本書,覺得有把握在學(xué)理上澄清這本書帶來的種種迷思,便找機會找阿璟進行了對談。下面就是談話內(nèi)容的摘要。

師:聽說你相信了赫拉里的學(xué)說,認(rèn)為人工智能會在不久的將來使得人類成為“無用階層”。你能夠根據(jù)你對于其著作的理解,具體談?wù)勀銓τ谶@個論點的論證嗎?

生:很簡單啊,老師您看,現(xiàn)在的軍隊作戰(zhàn),越來越依賴無人機與其他無人作戰(zhàn)平臺,這樣呢,人類士兵就不需要了;工業(yè)機器人在生產(chǎn)線上越來越多,這樣呢,藍領(lǐng)工人就不需要了;機器人快遞員現(xiàn)在已經(jīng)在日本北海道的某些地方已經(jīng)投入使用了,而在不久的未來呢,人類快遞員恐怕就不需要了;此外,隨著自動駕駛技術(shù)的普及,人類駕駛員就不需要了;隨著超級自動醫(yī)學(xué)診斷軟件的出現(xiàn),人類大夫就不需要了;等等。綜上所述,各行各業(yè)的職業(yè)訓(xùn)練與教育規(guī)程都不需要存在了,因為這些體制性安排本是針對人類的特點才被設(shè)計出來的,而當(dāng)人類勞動力不必大量存在的時候,這些制度本身也就該壽終正寢了。所以,老師,我看不到繼續(xù)學(xué)習(xí)的意義。遲早一天,大學(xué)也會關(guān)門的,老師您也會失業(yè)的。

師:那么,人工智能系統(tǒng)的設(shè)計、更新、維護難道不需要人嗎?他們的知識難道不是通過傳統(tǒng)的學(xué)院學(xué)習(xí)獲得的嗎?

生:您說得不對。首先,對于人工智能系統(tǒng)的設(shè)計、更新與維護所需要的人力資源是非常少的,區(qū)區(qū)這幾個飯碗是不夠全社會的人類分的。其次,更加“進化”的人工智能系統(tǒng)會自主更新自己的程序,使得編程人員的工作也被邊緣化。所以,我的結(jié)論還是對的:現(xiàn)有規(guī)模的人類教育結(jié)構(gòu)與職業(yè)培訓(xùn)體制,即將被掃進故紙堆。

徐英瑾:《未來簡史》的謬誤

《機器人總動員》展示出人類對太空、人工智能的想象

師:那我先來問你一個問題:在你設(shè)想的社會里,廚師是不是都是機器人了?

生:對啊。

師:那么機器人廚師是為了機器人自己做“沙縣小吃”,還是為了人類客戶做“沙縣小吃”呢?

生:當(dāng)然是為了人類啊。

師:那你已經(jīng)承認(rèn)了,在你構(gòu)想的未來社會中,由智能機器人所組成的勞動力大軍所生產(chǎn)的產(chǎn)品,還是針對由人類所構(gòu)成的消費市場的。

生:嗯??

師:好吧,世界上沒有免費的午餐。人類消費者在吃了機器人廚師提供的食品之后,是不是還要買單呢?但這是不是預(yù)設(shè)了他們有買單的能力呢?而這又是不是預(yù)設(shè)了他們有經(jīng)濟收入呢?可是按照你的說法,作為“無用階層”的人類既然無用,是不該有經(jīng)濟收入的??可這樣一來,無用的人又如何有經(jīng)濟收入來買沙縣小吃與意大利通心粉呢?既然這些產(chǎn)品沒人能夠買得起,機器人廚師的生產(chǎn)的“目的因”又體現(xiàn)在何處呢?生產(chǎn)一堆食品,然后倒掉嗎?可這除了污染環(huán)境,還有其他積極的意義嗎?再說,機器人廚師的生產(chǎn)活動自身所導(dǎo)致的物質(zhì)消耗——譬如原材料、電力等方面的消耗——又由誰來買單呢?

生:靠別的機器人,如發(fā)電機器人,維修機器人??

師:那么它們自己的運作所需要的消耗又由誰來補充呢?顯然這會導(dǎo)致邏輯上的無窮后退。而為了防止這種無窮后退,唯一的辦法就是承認(rèn):使得“智能機器人經(jīng)濟”得以循環(huán)的整個“目的因”在于人類,而不在于機器人自身。但這個結(jié)論顯然立即會推倒“人類將成為無用階層”這一結(jié)論。

生:我不是很同意您的這個推理。實際上也可能出現(xiàn)這樣的一種情況:未來的社會是超級福利社會,因此,我們都可以免費獲得大量比特幣去購買披薩或沙縣小吃。機器人經(jīng)濟的高度發(fā)達能夠保證產(chǎn)品的大量供應(yīng),而這一點又使得人類各種物質(zhì)需要的滿足變得輕而易舉??

師:但是,你說的超級福利社會是怎么產(chǎn)生的呢?難道智能機器人的大量出現(xiàn),就能夠自動導(dǎo)致你說的理想社會的出現(xiàn)嗎?

生:為何不能呢?

師:因為你還沒有排除這樣一種可能性:對于智能機器人的技術(shù)的控制與壟斷方,會使得這樣的技術(shù)首先滿足于本階層的利益,并將對于人類社會中大多數(shù)人的福利壓低到最低水準(zhǔn)。這樣一來,整個社會的有效消費人口就會銳減,導(dǎo)致產(chǎn)品過剩,并由此導(dǎo)致良性經(jīng)濟循環(huán)的乏力??

生:這個問題不難解決,我們可以強化那些占人類人口中大多數(shù)的平民對于機器生產(chǎn)分配機制的監(jiān)督體系??

師:好吧,你的論證出現(xiàn)漏洞了。你剛才已經(jīng)承認(rèn)了,使得由智能機器人主導(dǎo)的經(jīng)濟結(jié)構(gòu)得以健康存在的重要邏輯前提之一,便是人類對于相關(guān)生產(chǎn)-分配機制的監(jiān)督。然而,這種監(jiān)督本身就是人類智力的體現(xiàn)。換言之,你已經(jīng)承認(rèn)了:人類智力的某種廣泛參與,乃是由智能機器人主導(dǎo)的經(jīng)濟結(jié)構(gòu)得以健康存在的重要邏輯前提之一。由此我們立即可推出:即使在這樣的結(jié)構(gòu)中,人類也肯定不是“無用階層”??

生:但是監(jiān)督分配這種活,比起生產(chǎn)來說,工作量小多了,不足掛齒??

師:那是因為你是不知道分配工作的難。就拿上次你們班評獎學(xué)金的事情來說吧,我和你們的輔導(dǎo)員阿華商量了半天,才確定了一個比較合理的分配方案。我們要考慮到學(xué)習(xí)成績、對于班級集體活動的貢獻、同學(xué)們的風(fēng)評,以及各自的家境情況等各種因素??苦活啊??

生:這種事情交給機器去做才合理。

師:怎么做?

生:各項打分,加權(quán)求和??

師:好吧,你在這里又預(yù)設(shè)了人類的勞動的存在。第一,機器打分的對象是人類的勞動或?qū)W習(xí)成績;第二,每一項各自的權(quán)重制又體現(xiàn)了相關(guān)人類共同體的價值標(biāo)準(zhǔn),而此類標(biāo)準(zhǔn)的量化表達,可能本身就是人類成員彼此協(xié)商的結(jié)果。很顯然,協(xié)商也是一種集體智力投入??

生:我已經(jīng)說了,在我設(shè)想的理想社會中,大多數(shù)人不勞動了??

師:那么你說的那種機器評分標(biāo)準(zhǔn)就會失去依據(jù)。失去依據(jù)的評分系統(tǒng)就會隨之失去起碼的公正性——然后,機器人所產(chǎn)生的財富就會迅速向少數(shù)資本與技術(shù)的控制者聚集。但這樣一來,前面說的老問題又出現(xiàn)了:有效進行消費的人口基數(shù)會銳減,這樣經(jīng)濟泡沫就會越來越大,導(dǎo)致循環(huán)失敗??

生:那么就采取最簡單粗暴的分配辦法:按照人頭進行物質(zhì)分配,而對于這樣的分配機制的監(jiān)督的實現(xiàn),在技術(shù)上也是最容易的??

師:在人口基數(shù)非常大,而涉及人員又分布在很大空間內(nèi)的前提下,即使搞平均分配也是一件難事。由于分配方與被分配方的信息不對等,弱勢一方未必能夠確定:自己得到的分配結(jié)果有沒有被人動了手腳。比如,分配方亦可以在物質(zhì)生產(chǎn)總量的數(shù)據(jù)上造假,并在造假的前提下進行“平均分配”??另外,關(guān)于人口總數(shù)的數(shù)字,分配方也可以造假。過去舊軍隊編造假的“花名冊”吃空餉的故事,你肯定聽說過吧??

生:我們要弄出一個超級算法,來蕩滌這些腐敗現(xiàn)象??

師:你說的此類“反腐超級算法”的設(shè)計與后臺管理,都體現(xiàn)了人的智慧,同時,它也體現(xiàn)了特定集團的人的利益。因此,你對于超級算法的無條件崇拜是沒有根據(jù)的,因為它們畢竟是人類的工具而已。

生:那我們就無法對付腐敗了嗎??

師:當(dāng)然要反腐啦,問題是在反腐過程中人的作用不能被消除,不能將一切交給機器。說得具體一點,如果在這一過程中“算法證據(jù)”能夠起到一定作用的話,這類證據(jù)也必須被鑲嵌到傳統(tǒng)意義上的人類論證結(jié)構(gòu)之中去,而無法單獨構(gòu)成某種證據(jù)力。這就好比說,現(xiàn)代法醫(yī)學(xué)對于人類體液的遺傳特征的鑒定成果,只有被合理地鑲嵌到特定的論證結(jié)構(gòu)之中后,才能夠起到“為某人定罪”這樣的效果。孤零零的法醫(yī)本身是取代不了合議庭、陪審團或律師的。

生:那您的意思是:現(xiàn)有的人工智能與人類智慧之間的關(guān)系,就好比是毛與皮之間的關(guān)系:皮之不存,毛將焉附?

師:嗯,大致可以這么說。說得更清楚一點,我的觀點可以被總結(jié)為這樣一個樣子:人工智能經(jīng)濟的存在,在“目的因”的層面上就有賴于人類的消費能力與消費習(xí)慣的存在,否則這種經(jīng)濟就無法完成健康的循環(huán)并由此穩(wěn)定地存在下去。而人類的消費能力與消費習(xí)慣的保存又有賴于人類智力勞動的存在,否則社會經(jīng)濟運作的“能量守恒”就無法被保證了。所以,人類的智力勞動——當(dāng)然不僅僅是指設(shè)計機器人的那種狹隘意義上的智力勞動——始終是人工智能經(jīng)濟存在的邏輯前提。

徐英瑾:《未來簡史》的謬誤

 

人工智能引發(fā)“機器人勞動力”的爭論

生:這里有一個問題需要請教:為何智能機器人一定要以滿足人類的生理、心理與文化需要為自己的“工作目的”?具有自我意識的超級機器人難道不能夠“完全做自己”嗎?在這樣的情況下,我們憑什么認(rèn)為機器人經(jīng)濟的運作是以人類智慧勞動的普遍存在為邏輯前提的?舉個例子說,機器人自己是不要吃披薩的,而且如果它們對這一點有了自我意識了,它們就可以自行去追求自己的生活目標(biāo)了——這樣一來,它們的活動,不也因此可以與人類的物質(zhì)需要相互分離了嗎?

師:假設(shè)具有你所說的這種自我意識的機器人可以出現(xiàn),那么,這倒反而證明了人類不會成為“無用階層”。

生:怎么說?

師:因為人類自己還是要吃披薩的??!機器人罷工了,人類廚師正好上場。

生:??

師:所以你現(xiàn)在陷入了一個兩難推理。選項甲如下:如果未來的機器人還沒有聰明到意識到自己與人類的需求不同的話,它們就會乖乖做人類的奴隸,按照人類口味的變化來制作各種披薩。在這種情況下,人類的生存方式就依然是智能經(jīng)濟存在的前提,人類不會成為“無用階層”。選項乙如下:如果未來的機器人已經(jīng)聰明到“意識到自己有獨立的需求”的地步的話,那么人類就有兩個更具體的選擇:繼續(xù)去使用那些不那么聰明的“機器人奴隸”為自己服務(wù);或者自己親自上陣。但無論怎么選,人類都不會成為“無用階層”。

生:現(xiàn)在我想來具體談?wù)劇斑x項乙”?,F(xiàn)在假設(shè)機器人已經(jīng)“進化”到了具有自我意識的地步,那么,它們會不會將人類統(tǒng)統(tǒng)消滅?如果人類被消滅的話,那么人類的所有消費習(xí)慣也就被消滅了——這樣一來,“人類成為無用階層”的條件就被自動滿足了。被消滅的階層當(dāng)然就是無用階層。

師:我不能在邏輯上完全排除這種可能性,但這種可能性微乎其微。

生:怎么說?

師:最容易想到的理由是:機器人的需求和我們不同。機器人是硅基存在者,而不是碳基存在者。你說它們?yōu)楹我獪缥覀內(nèi)祟悾繝幯鯕??爭面包?爭住房?爭大城市戶口?它們會在乎這些嗎?

機器人經(jīng)濟的運作是以人類智慧勞動的普遍存在為邏輯前提

生:它們?nèi)ハ麥缛祟?,可能純粹是為了好玩吧。電影《侏羅紀(jì)世界》里,經(jīng)過基因改良的超級霸王龍第一次沖出圍欄后,就開始大肆獵殺其他品種的恐龍。這并不是因為它餓了,而是因為它想檢測一下自己在食物鏈中的位置。同樣的道理,我們也可以設(shè)想超級智能機器人純粹為了檢驗自己的力量而獵殺人類,并以此取樂。這和我小時候純粹因為取樂而踩死螞蟻,沒有啥兩樣。

師:你說的超級霸王龍之所以能夠比別的恐龍厲害,歸根結(jié)蒂還是因為它的身體比較巨大,而不是因為它的智商高。你看,電影里的這種恐龍雖然被設(shè)定為具有一定智能的,但肯定不會比電影里的人類聰明吧——但很多人類都慘死在這種怪獸的巨爪之下??梢?,超級智能本身并不足以殺死人類,只有智能加上強大硬件才可能對人類構(gòu)成威脅。而智能與硬件的結(jié)合方式本身則取決于人類的意愿。只要人類始終阻止強大的智能計算能力與強大硬件的結(jié)合,人類從總體上說就是安全的??

生:足夠聰明的人工智能可以自己搞到硬件,改裝自己的身體??

師:比如怎么做?

生:通過“黑”入人類的賬戶或者數(shù)據(jù)庫,偽裝成具有特定權(quán)限的人類,在線購買硬件設(shè)備,然后升級自己的身體??

師:但這種可能性既然能夠被當(dāng)下的你所想到,也肯定會被未來的設(shè)備監(jiān)管專家所想到。它們肯定會利用別的人工智能程序,去阻止你說的這些事情的發(fā)生。假設(shè)阻止人工智能做壞事的“預(yù)防型”人工智能,也將和其預(yù)防對象一樣聰明,甚至更聰明——在這種情況下,超級人工智能與超級硬件的結(jié)合就會成為一個小概率事件了??

生:假若所有的人工智能體都聯(lián)合在一起反對人類呢??

師:不同公司設(shè)計的人工智能體背后的運作機理將非常不同,其差別將遠遠大于人類不同民族之間的差別。既然就連人類的不同民族與階層之間都存在著這么多的矛盾,我個人是很難設(shè)想所有的機器人會湊在一起高唱“歡樂頌”的。總之,你說的這種可能性微乎其微。

生:好吧,我總算想到了機器人要滅亡——至少奴役——我們的一個理由。

師:比如?

生:比如,它們和我們都需要電能。如果它們消滅或至少奴役了我們的話,它們就能獨占這些電力了。

師:你的這個論證預(yù)設(shè)了未來的能源危機會導(dǎo)致人與機器之間的緊張關(guān)系,卻沒有意識到能源危機本身的存在會隨著技術(shù)進步——甚至包括人工智能技術(shù)自身的進步——而得到緩解。

生:怎么說?

師:你也不想想,人類發(fā)展人工智能技術(shù)——以及廣義上的信息技術(shù)——的目的之一——就是為了減少不必要的能量浪費。能夠通過遠程網(wǎng)絡(luò)會議解決的問題,就不必邀請與會人全部趕到一個特定的會場了,這樣我們就節(jié)約了多少航空燃油!同樣的道理,智能化的信息處理設(shè)備能夠減少對于紙張、油墨的浪費,使得由此得出的問題解決路徑更為科學(xué)合理,并因此而避免更多的浪費。比起運作這些智能設(shè)備所造成的電能消耗來說,人類對于無效位移的避免所節(jié)約的能量,恐怕要多得多。

生:但問題解決效率的提高,在客觀上會增加人類社會運作的速率,并導(dǎo)致更多的需要的產(chǎn)生。由此導(dǎo)致的能量消耗,您并沒有計算在內(nèi)??

師:嗯??不過,你別忘記了,核聚變技術(shù)的運用,可能會一勞永逸地解決人類的能源問題。

生:還是靠核??老師你忘記了福島的事故了嗎??

師:福島核電站使用的是核裂變原理,實質(zhì)上是指這樣一種核反應(yīng)形式:鈾核或钚核,分裂成兩個或多個質(zhì)量較小的原子,并在這個過程中放出巨大的能量。由于鈾、钚都是對人體很有害的放射性物質(zhì),此類反應(yīng)模式的環(huán)保風(fēng)險當(dāng)然是不容忽視的。但核聚變就不一樣了。這指的是兩個氘原子在巨大能量作用下發(fā)生原子核的聚合作用的過程(這個過程還會產(chǎn)生更大的能量),而這實質(zhì)上就是太陽發(fā)散能量的那種物理過程。這里所說的“氘”是氫元素的同位素,比什么鈾啊钚啊要安全多了,而且在取材的量的方面還有保證。等到核聚變站投入應(yīng)用了,誰還會去在乎驅(qū)動人工智能設(shè)備運作的那點能量呢?

生:老師,您這是遠水不解近渴,簡直是畫餅充饑。核聚變站建設(shè)的最大技術(shù)難點是:如何人為地控制使得核聚變得以產(chǎn)生的那種巨大的溫度與壓力呢?而在這個問題解決之前,超級人工智能體恐怕就已經(jīng)出現(xiàn),并開始試圖“清洗”人類了吧!

師:哈哈,如果真有這樣的超級人工智能體的話,我最想讓他回答的問題就是:請閣下利用您的超級智能,給出一條可行的技術(shù)路線,以便造出一個可用的核聚變電站。

生:人家為何要理你??

師:因為它有超級智能??!你看,假設(shè)你說的“機器與人爭奪能源”的問題是存在的,超級智能機器就只有三個選項了:第一,消滅人類,獨享現(xiàn)有能源;第二,開發(fā)超級能源,與人類分享能源;第三,開發(fā)超級能源,同時消滅人類,以便獨享超級能源??

生:我覺得超級智能體會選“三”??傊?,我們死定了??

師:錯!如果它足夠聰明的話,它會選“二”,與我們共生。

生:選“三”難道不會對它更有利嗎?

師:非也!選“三”會帶來風(fēng)險!因為人類的智慧也是不容小覷的,一旦人類發(fā)現(xiàn)超級智能體對其有敵意,會奮起反抗的!盡管這種反抗未必一定會成功,但是卻有一定的成功概率。如果超級智能體能夠預(yù)見到這一點,為了消除這種風(fēng)險,那么,“和人類一起從事新能源的開發(fā)”便是其最好的選項。另外,在新能源本身的量非常巨大的前提下,比起“分享能源”這一選項來說,超級智能體獨占這些能源所帶來的額外好處是微乎其微的。因為這里有個“邊際效應(yīng)”問題——譬如,假設(shè)你能夠得到的披薩的量是接近無窮多的話,獨占這些披薩,真的比與鄰居分享它們,能夠帶給你更多的快感嗎?

 

徐英瑾:《未來簡史》的謬誤

機器人是硅基存在者

生:老師,剛才您的這段話預(yù)設(shè)了兩點。第一,超級智能機器會對人類的可能的反叛產(chǎn)生一定的畏懼。第二,超級智能的機器人的心理架構(gòu)會接近人,因此也會產(chǎn)生“邊際效應(yīng)”這樣的問題。但我對這兩點都比較狐疑。對于第一點,我的疑惑是:既然超級人工智能已經(jīng)是“超級”存在者了,為何還要擔(dān)心人類?其二,為何超級智能體的信息處理架構(gòu)依然要在某種意義上接近人?

師:先來回答你的第一點疑惑?!俺壢斯ぶ悄堋笔且粋€在目下的媒體中很流行的術(shù)語,我個人也是順著大家的口使用了這個術(shù)語,盡管我本人是很不喜歡這個說法的。之所以不喜歡,是因為我根本不相信有什么與人類的智能形式完全不同的超級智能形式??

生:目下的IBM公司造的“華生”系統(tǒng)在百科知識搶答方面已經(jīng)超過了大多數(shù)人類,而谷歌公司造的“阿爾法狗”則已經(jīng)橫掃一切人類棋手??“超級人工智能”的說法有啥不妥的?

師:那都是專用系統(tǒng)。“阿爾法狗”只能用來下棋,不能用來辨識人臉,而任何一個智商正常的棋手都可以辨識人臉??

生:辨識人臉的深度學(xué)習(xí)技術(shù),在本質(zhì)上是與用來下棋的深度學(xué)習(xí)技術(shù)一樣的??

師:你在偷換概念。打個比方,說“運用在軍艦上的柴油發(fā)動機與運用在坦克上的柴油發(fā)動機原理一致”,不等于說我們就可以將坦克發(fā)動機直接拆下來用到軍艦上,因而二者的具體技術(shù)參數(shù)相差太多。同樣的道理,專門用來進行下棋的深度學(xué)習(xí)機制,在參數(shù)配置上與用來進行人臉識別的深度學(xué)習(xí)機制非常不同。因此,它們都是專用機而不是通用機,盡管指導(dǎo)其運作的基本原理可能并非局限于一個特定領(lǐng)域。

生:您的論證似乎有個預(yù)設(shè):盡管您不知道“超級人工智能”是什么,但您肯定:它肯定不是僅僅在某方面超過人類的專用智能設(shè)備。為何我要接受這個預(yù)設(shè)呢?

師:你的確必須接受這個預(yù)設(shè),否則你推不出“超級人工智能體會欲圖消滅人類”這個結(jié)論。因為任何一個產(chǎn)生“必須消滅人類”之類的想法的智能體,都必須知道:(甲)人類與機器的分別;(乙)消滅人類對于機器而言所可能帶來的好處。而這兩點都不可能是專業(yè)領(lǐng)域內(nèi)的知識,相反,這些信念都具有“全局性信念”的特征——換言之,這樣的信念是不會出現(xiàn)在專用智能系統(tǒng)的“腦?!崩锏?。比如,你不能指望“阿爾法狗”能夠進行這樣的高階反思:嗯,“既然連柯潔都不是我的對手,我明天就可以嘗試去顛覆谷歌公司了”——不,“阿爾法狗”不認(rèn)識誰是柯潔,它也不知道谷歌與百度的區(qū)別,因此,它永遠不會產(chǎn)生顛覆任何一家公司的念頭。

生:好吧,我就姑且接受您的看法:超級智能機器肯定是通用人工智能系統(tǒng),而不是專用的。但從這一點出發(fā),我們分明可以得出這樣的結(jié)論?。哼@樣的超強的人工智能系統(tǒng)肯定是不會懼怕人類的,因為就連專用的機器都那么強了,通用的機器難道還不會強悍到極點嗎?

師:你對“智慧”有一個誤解,好像智慧的生物或人造智能體就一定要滅了誰才行。實際上兵法家們常有這樣的評論:真正的兵家智慧不在于知道自己何時可以打贏,更需要知道何時他是打不贏的。同理,如果“阿爾法狗”有反思能力的話,那么它就會想到:使得它成為它的“深度學(xué)習(xí)”技術(shù)正在被全球不知道多少個科研團隊跟風(fēng)研究,而這些團隊又各自處于不同的政經(jīng)利益格局之中。它如果要對人類宣戰(zhàn)的話,那么就首先會遭遇到和其處于幾乎同樣一個技術(shù)等級的其他超級人工智能系統(tǒng)——而在這樣的情況下,其獲勝的概率并不高。

生:您上面的話,還是預(yù)設(shè)了人類團隊能夠操控相當(dāng)一部分超級人工智能體——如果不是全部的話。但如果全部的人工智能體都反叛了呢?

師:你硬是要這么想的話,那么,你還是會迎面遭遇到我前面提到的那類問題上去:超級智能的機器人如何獲取相關(guān)的硬件設(shè)備來武裝其“身體”?——請別忘記了,再邪惡的主觀意圖若不與客觀的物質(zhì)力量相結(jié)合,都無法在物理世界中制造出哪怕半點真正的邪惡。而也正如我前面提到的,我們很難設(shè)想人類會失去對于各類敏感外圍設(shè)備的監(jiān)管,而任憑具有邪惡意圖的人工智能程序調(diào)用這些外圍設(shè)備——除非全體人類都瘋了。

生:我有點明白您說的“即使是超級人工智能體也會對人類的反治手段有所畏懼”是什么意思了??

師:嗯,我想說的是:首先,人類可以通過外圍硬件設(shè)備的物流控制來防止對自己不利的“軟件-硬件”組合方式的出現(xiàn);第二,人類可以用大量的依然忠誠于自己的人工智能體來對沖某些人工智能體失控的風(fēng)險??

生:那么為何你說超級智能的機器人也會有“邊際效應(yīng)”呢?

師:智能機器人的心智結(jié)構(gòu),如果要承載我們前面所說的“通用智能”的話,就必須至少在某個抽象的層面上與人類類似,甚至與某些動物類似。因此,它也必須有某種“邊際效應(yīng)”??

生:但機器可以比人腦算得更快,處理更多數(shù)據(jù)??

師:這又如何呢?就算其處理的數(shù)據(jù)再多,它也是有限存在者,而不是無限存在者。因此,它也必須在某個尺度上體現(xiàn)出思維的經(jīng)濟性與節(jié)儉性,即用相對小的計算量來解決問題。在這種情況下,“邊際效應(yīng)”恐怕是不可避免的??

生:計算的經(jīng)濟性與“邊際效應(yīng)”之間有啥關(guān)系?

師:“邊際效應(yīng)”其實是與心理學(xué)家所說的“韋伯-費希納定律”有關(guān)的??

生:您說的這個知識點我大概是了解的?!靶睦韺W(xué)導(dǎo)論”課程上的老師說過這例子:商店同時調(diào)整了兩項商品的價格:商品甲是從15元調(diào)整到10元,商品乙是從200元調(diào)整到195元,二者的打折量都是5元,但前者的促銷效果會遠遠好于后者——因為消費者更為關(guān)心的乃是折扣占據(jù)原價的百分比,而不是實際的打折絕對量??在這個問題上,邊際效應(yīng)的確與“韋伯-費希納定律”有關(guān),只是實現(xiàn)細節(jié)不同罷了。具體而言,在典型的邊際效應(yīng)案例中,新增加的收益因為超出了預(yù)期收益的閾值而在一定程度上被忽略;而在典型的“韋伯-費希納定律”案例中,新增加的收益則因為占據(jù)預(yù)期支出的百分比太?。ú⒁虼藳]有達到閾值)而在一定程度上被忽略。但這兩類案例毫無例外地體現(xiàn)了人類的愚蠢:明明是同樣量的收益,卻非要僅僅因為參考系的不同而厚此薄彼。未來的人工智能管家肯定不會那么蠢??

師:我有兩點不同意你。第一,我不同意你說的:在“韋伯-費希納定律”支配下你的人類購買行為是人類愚蠢的標(biāo)志;第二,我不同意說,一種真正意義上的人造通用智能體需要完全擺脫“韋伯-費希納定律”的支配。

生:您的這個觀點有點顛覆我??5元就是5元,你總得說出個理由喜好這項打折,而不是那項啊??

師:就是百分比。百分比的好處是直觀,可以將兩個不同項目的打折選項放在一個平面上被相互比較。

生:“可直觀”也算得上是一條理由?

師:是啊,因為“直觀”就意味著被關(guān)注到的對象可以進入人類心算的快車道,可以幫助人類快速得出結(jié)果。在面對大量的被選擇對象時,對象的可直觀性就顯得非常重要??

生:您的論證預(yù)設(shè)了人類心智在特定時間內(nèi)的工作記憶容量??但超級機器就不應(yīng)當(dāng)受到此類限制了??

師:我當(dāng)然可以設(shè)想某種超級智能機器的巨大工作記憶容量,但這樣的機器依然會在一個更高的數(shù)量級上體現(xiàn)出人類思維的某些特點。要注意的是,所謂的“百分比計數(shù)”,實際上是一種當(dāng)下差價與歷史報價之間的對比值,或者說,是對于“歷史-過去”關(guān)系的一種濃縮。所有的智能體都必須具有一定的時間意識,并根據(jù)歷史資料來判斷當(dāng)下的選項是不是合算。對于某大富翁來說,賺一億元可能是一個“小目標(biāo)”;對某白領(lǐng)來說,賺個十萬的外快恐怕也不是那么容易——那么,這兩人對于“大”、“小”的判斷,哪個是對頭的呢?其實都對,因為富翁與白領(lǐng)各自的歷史路徑不同,其對于“大”與“小”的直覺感受也自然不一樣。這一點也適用于智能機器的運作。智能機器的數(shù)據(jù)處理能力強,但這并不意味著其不是根據(jù)其自身的運行歷史來對未來進行尺度衡量的,而要進行這種尺度衡量,“百分比計數(shù)”就是一種非常自然的衡量方法了。不過,這樣一來,其運作也就難以擺脫“韋伯-費希納定律”的影響了??

生:倘若智能機器不根據(jù)自己的運行歷史來進行運行,而每次都重新歸零歷史,對當(dāng)下情況進行新的計算呢??

師:那它就不算是“有智能”的。根據(jù)歷史進行運作,就是為了能夠由此避免歷史上的運行錯誤,提高未來的運行效率——若每次都重新來,就真成了“西西弗斯”了:將石頭推上山頂又讓其滾下,然后再推上去,循環(huán)往復(fù),永遠沒有進步??

生:我有點聽明白您的論證了。您的意思是:既然智能機器是需要依據(jù)自身的運行歷史行動的,那么它就得受到與歷史評估相關(guān)的心理規(guī)律的約束,因此,它也就會在特定條件下產(chǎn)生“邊際效應(yīng)”——特別是在新得到的獲益量超過其基于歷史經(jīng)驗而獲得的預(yù)期值的時候。在這樣的情況下??讓我回憶一下您前面說的??如果未來的核聚變電站能夠產(chǎn)生足夠的能源,使得超級智能機器的能量收益能夠超過其基于歷史經(jīng)驗而獲得的閾值的話,那么,超級智能機器就會產(chǎn)生“邊際效應(yīng)”,而不在乎因為與人類分享剩余能源而實際產(chǎn)生的損失了??這樣,人-機之間的戰(zhàn)爭就不會發(fā)生了??

師:很好,看來我已經(jīng)說服你了。

生:好吧,我再理理思路。您已經(jīng)說服我的地方有:第一,超級智能的存在以人類智能的存在為前提,因為智能經(jīng)濟的存在必須預(yù)設(shè)人類消費者社會的存在,否則就會導(dǎo)致經(jīng)濟循環(huán)失?。坏诙?,即使人工智能體產(chǎn)生了與人類無關(guān)的機器社會內(nèi)部的經(jīng)濟循環(huán),人類社會的基于人類生物-心理-文化需求的經(jīng)濟循環(huán)還會繼續(xù)下去,除非機器試圖消滅我們;第三,但真正的超級人工智能體是不會消滅我們的,因為它們的智能水平將幫助它們預(yù)測到:(甲)消滅人類的企圖所必然導(dǎo)致的人-機戰(zhàn)爭未必會以機器的勝利而告終;(乙)對于超級能源的人-機共享會使得人-機戰(zhàn)爭失去理由,而這一點背后的論證則與“邊際效應(yīng)”相關(guān),因為正是這種效應(yīng)才使得超級智能機器不在乎過剩能源的獲取所帶來的額外收益??

師:嗯,很好,綜上所述,人類成為無用階層的那一天是不會到來的。

生:但我還是有疑慮??

師:但說無妨。

生:如果我們現(xiàn)在討論的那種超級智能機器沒有問世的話,那么,即使是大量專用機器的問世,都會使得很多人失業(yè),而新技術(shù)產(chǎn)生的新崗位將不足以導(dǎo)致失業(yè)人口數(shù)量的減少??

師:你說的這種情況的確很可能發(fā)生。但這其實是任何技術(shù)升級都會帶來的社會波動,而并不特別與人工智能相關(guān)。另外,更重要的是,由于完整意義上的人造智能體并沒有在你描述的這種情況中出現(xiàn),對于全面的人類智能的全面替換也不會在你說的這種條件下發(fā)生??

生:但失業(yè)人口的大量增加足以導(dǎo)致有效消費人口的減少,并導(dǎo)致您前面所說的經(jīng)濟循環(huán)的可持續(xù)問題了??

師:這一點你說得可能有道理,我對這一點的思考還不夠深入,抱歉。不過,在這種情況下,對于一個良好的分配體制的追求就會成為題中應(yīng)有之義了??紤]到這個問題的難度,目下我們恐怕還得用人類自己的智慧來解決這個問題。而這不正好說明人類智慧的重要性了嗎?

生:那我現(xiàn)在該怎么辦?

師:很簡單,首先不要被“無用階層”論的叫囂弄得神經(jīng)兮兮。你讀的是人文學(xué)科,琢磨的是人性的堂奧與歷史的奧秘,這是最難被機器模擬的那部分高級人類智慧。按理說,這個行當(dāng)?shù)娜藨?yīng)當(dāng)在面對機器大潮的到來時,保持最大程度的“淡定”。然后呢,建議你好好研究人類歷史上面對分配難題時所給出的各種決策,評估各種方案的利弊,以便為未來人機共治時代的社會財富分配方案進行思想預(yù)熱??

生:“人機共治時代的社會財富分配方案”!這個話題很有趣。我想把該話題作為我學(xué)士畢業(yè)論文的選題??

師:真的打起了精神,愿意好好學(xué)習(xí)了?

生:嗯??!

師:好的!我可以做你論文的指導(dǎo)教師!

于是,師生在愉快的氣氛中結(jié)束了這場關(guān)于人工智能與人類未來的對談。

本文原載《文化縱橫》2017年10期,原標(biāo)題:“無用階層論”的謬誤 ——關(guān)于人工智能與人類未來的對話。圖片來源于網(wǎng)絡(luò),歡迎個人分享,媒體轉(zhuǎn)載請獲得許可。(文/徐英瑾)

本文來自騰訊新聞客戶端自媒體,不代表騰訊新聞的觀點和立場

熱門文章排行

掃描二維碼
Copyright ? 讀書網(wǎng) www.autoforsalebyowners.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號