正文

問題8 你是否是一個偽君子(1)

智能簡史:誰會替代人類成為主導物 作者:(美)雨果·德·加里斯


  問題8. “你是否是一個偽君子?!”

  我收到的大部分反應是比較禮貌的。下面的一些非常嘲諷的評論以一種比其他方式更強烈的、更情緒化的方式深深地震撼了我,它帶給我的痛苦影響了我回答的篇幅。我希望我能夠公正地回答。

  來信

  親愛的德·加里斯教授:

  最近,一個網(wǎng)絡新聞讀者偶然發(fā)現(xiàn)雨果·德·加里斯的描述。德·加里斯,一個人工智能專家,在CNN上面預示一場即將到來的戰(zhàn)爭,在這場戰(zhàn)爭中,他所努力發(fā)明的機器人大腦,稱作“人工智能”將最終摧毀人類。德·加里斯由此認為,他的責任正是現(xiàn)在,而不是遲些時候,去敲響警鐘,來告訴大家即將到來的機器人控制的死亡時代,因為他正是推動這個時代到來的人。德·加里斯在瑞士達沃斯的世界經(jīng)濟論壇上傳遞了這個聲明。

  德·加里斯同時正在尋求好萊塢幫忙撰寫一個關于即將到來的“人工智能”戰(zhàn)爭的電影劇本,他想在人類被摧毀之前完成。

  回答

  我經(jīng)常被詢問這樣的問題。一般的態(tài)度好像是:“既然你對未來人類被人工智能機器滅絕的可能性如此關心,那為什么還要從事它們早期的研究呢?”

  嗯,因為我最終還是一個宇宙主義者。我想看到人類制造出人工智能機器。當然,我不是那種厭惡人類的、瘋狂的宇宙主義者—— 可以鎮(zhèn)定地說:“我會為了一個人工智能機器而犧牲幾十億人類的生命?!币苍S在將來會有這樣的人,因為人的性格多種多樣。也許宇宙主義者當中確實包括這樣的極端分子,但是我肯定不是其中的一員。

  在我死之前的30~40年內(nèi),我希望我不會看到人工智能戰(zhàn)爭的“醞釀”。當然,如果這樣的大災難可以避免我將更加高興。但是現(xiàn)在,如果我和其他的大腦制造者們不去敲響警鐘,還有什么其他的選擇呢?難道只是盲目地推動人工智能的制造直到一切都變得太晚?大腦制造者們在這個領域是專家,因此,他們可以首先看到技術的發(fā)展趨勢,并且,如果他們有政治頭腦,他們也應該可以看到其政治后果,特別是如果他們具有西拉特(譯者注:Szilard Leo西拉特·利奧(1898—1964)匈牙利裔美國物理學家和生物學家。作為曼哈頓工程計劃的一員,他幫助研制出第一枚原子彈。西特拉后來反對研制與使用所有核武器并致力于研究分子生物學)的技術和政治才能。

  專家們可以比普通大眾早幾十年看到即將發(fā)生的情形。由于技術發(fā)展的速度,制造出足夠聰明且可以使人類感到恐懼的人工智能機器將可能不需要很多年,也許只要十幾年的時間。我猜測,它們可能在50年的時間內(nèi)達到人類的智慧水平,誰知道呢?

  我認為,世界上的那些大腦制造者們引發(fā)關于人工智能問題的討論只是出于道德上的責任,即在第一臺真正智慧的人工智能機器投入市場前,給予人類足夠的時間來徹底討論這個問題。

  但是,你可能會說,只要停止人工智能研究,不就行了嗎?這難道不是更符合邏輯嗎?

  這取決于你是宇宙主義的還是地球主義的研究者。個人來說,我是一個宇宙主義者。制造出擁有1040個組成部分或者更多部分的人工智能機器,我是指真正的超級機器,擁有神一樣的智慧,探索宇宙和其廣漠空間的秘密,永遠不死,思考著我們難以想象的問題,對于我來說,有一種催眠般的吸引力。

  它是我的終生夢想,對于我來說是一種宗教,并且非常強烈。我可以想象,在未來的某個時刻,有幾百萬人會和我擁有同樣的夢想,我希望這件事情發(fā)生的原因是我真正地希望人類制造這樣的事物,正如我在第4章關于宇宙主義的解釋一樣。

  但是,我不是一個如此片面的宇宙主義者以至于我認為大眾應該被蒙在鼓里。我有足夠的地球主義的同情以至于我不想看到人類冒著在人工智能機器手中被滅絕的危險。因此,大眾應有知情權,應該警示大眾,以便他們可以選擇自己的方式前進。


上一章目錄下一章

Copyright ? 讀書網(wǎng) www.autoforsalebyowners.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號