近年來,人工智能這個話題大熱。些科幻電影中,人工智能的發(fā)展終無法抑制,成為了人類文明的終結者。些大牛們,如比爾蓋茨、霍金,都對人工智能的發(fā)展提出了警告;不過也有人認為,人工智能在現在階段并不是什么威脅。
人工智能是否會帶來世界末日?
2014年,SpaceX的CEO Elon Musk發(fā)推說:“Bostrom的《超智慧(Superintelligence)》非常值得讀。對待AI,我們需要小心翼翼。”同年,劍橋大學的宇宙學史蒂芬·霍金(Stephen Hawking)在接受BBC的訪問時說:“完全的人工智能(full arTIficial intelligence)的發(fā)展可能會導致人類的終結。”微軟聯(lián)合創(chuàng)始人比爾·蓋茨(Bill Gates)也警告說:“關于AI,我持謹慎懷疑態(tài)度。”
關于AI帶來的世界末日將如何展開,計算機科學Eliezer Yudkowsky在2008年發(fā)表的《全球災難風險(Global Catastrophic Risks)》中提出:AI在未來從單細胞生物發(fā)展到人類智力水平的可能性有多大呢?他回答道:“形成個物理意義上的大腦是可能的,其計算的速度是人類大腦的百萬倍。..。如果人腦因此而加速,主觀上年的思考將在31秒內就完成了,千年將在八個半小時內就過去了。”Yudkowsky認為,如果我們不這么做就太晚了:“人工智能所運行的時間維度與我們不同,當你的神經元完成思考說‘我應該做這件事情’時,你已經錯過時機了。”
牛津大學哲學尼克·博斯特羅姆(Nick Bostrom)在他的《超智慧(Superintelligence)》中提出所謂的回形針大化的思想實驗:個AI被設計來制造回形針,并且在耗盡其初的原材料供應之后,它將利用在其可達范圍內的任何可用原子,包括人類。正如他在2003年的篇論文中所描述的那樣,從那時開始“轉化整個地球,為回形針制造設施增加空間”。短時間內,整個宇宙都由回形針和回形針制造器組成。
對此,我表示懷疑。先,所有這樣的末日情景都涉及長串的“如果-那么(if-then)”意外事件,在任何點的失敗都會推到所謂的世界末日。西英格蘭布里斯托大學的電氣工程教授艾倫·溫菲爾德(Alan Winfield)在2014年的篇文章中這樣說:“如果我們成功地構建與人類相同的AI,如果AI對它如何工作有著充分理解,如果它成功地改善自身成為超智能AI,如果這個超AI意外或惡意地開始消耗資源,如果我們不能拔插頭斷電,那么,是的,我們可能有問題。這種危險,不是不可能,是不太可能發(fā)生。”
第二,如果按照時間段來檢查的話,會發(fā)現人工智能的發(fā)展遠低于預期。正如Google執(zhí)行主席埃里克·施密特(Eric Schmidt)在回應馬斯克(Musk)和霍金(Hawking)時所說:“你認為人類不會注意到這種情況嗎?你認為人類不會關閉這些電腦嗎?”谷歌自己的DeepMind開發(fā)了個AI關閉開關的概念,被戲稱為“大紅色按鈕“,可以用來接管AI。正如百度副總裁吳安民(Andrew Ng)所說的那樣(回應Musk),“這就像是我們甚至還沒有踏上火星,就在擔心火星上會人口過剩。”
第三,AI的末日情景通?;谧匀恢悄芎腿斯ぶ悄苤g的錯誤對比。哈佛大學實驗心理學Steven Pinker在對2015年Edge.org年度問題“你對機器思考有什么看法”的回答中闡明:“AI反烏托邦項目將個狹隘的阿爾法男性心理學投射到智力概念上。他們認為,超人類的智能機器人將‘放棄他們的主人或接管世界’作為自己的發(fā)展目標。”同樣地,Pinker說道,“人工智能將沿著雌系自然發(fā)展——能夠完全解決問題,但不會想要消滅無辜或支配文明。“
第四,暗示計算機將“想要”做某事(例如將世界變成回形針)就等同于AI有情感。正如科學作Michael Chorost所言:“AI真的想要做某事時,它將會生活在個有獎勵和懲罰的宇宙中,這其中就包括來自我們對不良行為的懲罰。”
鑒于歷史上對世界末日的幾乎為0的預測率,加上人工智能在幾十年來緩慢發(fā)展,我們有足夠的時間建立故障安全系統(tǒng),防止任何這樣的人工智能所帶來的世界末日。