諸如著名科幻系列電影《終結(jié)者》中具有金屬骨架的仿生人或?qū)⑹侨祟愇拿鞯淖罱K敵人,人工智能技術(shù)的進步使這一切有可能實現(xiàn)。
在很多科幻書籍中都嵌入了邪惡機器人征服并扼殺人類的情景,比如經(jīng)典的電影《2001太空漫游》中就描述了一種令人恐怖的邪惡機器。不僅近些年的科幻片采用了恐怖機器作為線索,早在1970年代科幻大片中也有類似的元素,又如《巨人:福賓計劃》中“怪博士”打造了一臺超級機器,蘇聯(lián)人針對此也打造了一臺控制全境核武器的超級機器,但這兩臺超級機器卻聯(lián)手消滅人類。
隨著計算機技術(shù)的進步,一些未來學家警告我們現(xiàn)在努力打造的計算機技術(shù)在將來會對人類的生存構(gòu)成威脅,在不遠的未來可能導致一些災難性的后果或者不可逆轉(zhuǎn)的結(jié)局。在上周一,由劍橋大學的研究人員宣布建立起人類生存風險研究中心,試圖推演未來的智能機器人是否能取代我們并對人類的繼續(xù)生存產(chǎn)生威脅。當然,預測人類的未來具有相當大的難度,即使是古代瑪雅人也不可能預見到機器人能否取代人類而統(tǒng)治太陽系,甚至是銀河系。
劍橋大學宇宙科學家馬丁・里斯(Martin Rees)在他于2003年出版的一本名為《我們最后的世紀》一書中提到:人類可能在2100年前被某種先進力量所扼殺。來自劍橋大學的宇宙(未來)學家(派)所擔心的問題之一就是恐怖的殺人機器人可能是末日審判的主角,此外還有氣候變化、人類爆發(fā)的核戰(zhàn)爭和失控的生物技術(shù)等,都有可能成為人類末日來臨的情節(jié)。根據(jù)一份人類生存風險評估中心的報告:許多科學家擔心人類科技發(fā)展成果可能很快形成新的可滅絕人類文明的新風險。
從人工智能技術(shù)的進展、生物技術(shù)和人工生命工程的研究突破、納米技術(shù)等等都可能形成極端的風險,可怕的是這樣風險的嚴重性是難以評估的,但它們會引起我們更多的關注。著名的科幻小說家艾薩克・阿西莫夫在他的科幻作品中提到了關于機器人的三大定律,其中提到機器人不得傷害人類,或者當人類受到傷害不得袖手旁觀,在不違背第一法則的情況下,機器人必須服從人類的命令。
但是,就算是當今世界中,無人飛機在遠程控制下可以對敵方目標進行打擊,隨著人工智能技術(shù)的進步,它們最終會成為自主選擇攻擊目標的恐怖機器。到了2030年,微處理器的飛速發(fā)展也使得機器(人)大腦中央處理計算機將比現(xiàn)在強數(shù)百萬倍,但人工智能到達何種程度的時候才會對人類的生存構(gòu)成威脅呢?比如與人類進行競爭、爭奪資源等。英國數(shù)學家歐文・約翰・古德(Irving John Good)在1965年撰寫的文章中提到,機器人或?qū)⑹侨祟惖淖詈笠粋發(fā)明,其未來發(fā)展可超越人類自身,隨著“智能爆炸”的出現(xiàn),超級機器人將遠超人類智慧。
在2000年,太陽微系統(tǒng)公司的創(chuàng)始人之一、兼首席科學家比爾・喬伊(Bill Joy)認為巨大的變革力量正在的釋放出來,在人工智能上的飛速發(fā)展打開了一個全新的世界。根據(jù)賓夕法尼亞州卡內(nèi)基・梅隆大學機器人研究所所長介紹:“機器人最終會先戰(zhàn)勝我們,人類在超級智能機器人面前將瀕臨滅絕。”然而考慮到費米悖論,我們可得處為什么還沒有已經(jīng)經(jīng)歷人工智能化過程的機器人抵達地球的疑問。如果宇宙進化規(guī)模巨大,人工智能將不可避免地取代有血有肉的生物。