遠見華人精英論壇 | 霍金的憂慮
首頁 > 人物 > 李開復北京 > 霍金的憂慮
霍金的憂慮 發文時間: 2017/5/12   文 / 李開復北京 瀏覽數 / 18,250+

擔憂超人工智慧的出現,對人類未來抱持悲觀態度的人有不少。其中,理論物理學家,《時間簡史》(A Brief History of Time)的作者史蒂芬‧霍金(Stephen Hawking)是最有影響力的一個。早在谷歌AlphaGo在公眾間掀起AI熱潮之前,霍金就透過媒體告訴大家:「完全人工智慧的研發,可能意味著人類末日的到來。」

身為地球上少數有能力用數學公式精確描述和推導宇宙運行奧祕的人之一,霍金的宇宙觀和科技史觀,無疑是值得重視的。事實上,霍金並不否認,當代蓬勃發展的人工智慧技術,已經在許多產業發揮至關重要的作用。但是,他真正憂慮的,是機器與人在進化速度上的不對等性。霍金表示:「人工智慧可以在自身基礎上進化,可以一直保持加速度的趨勢,不斷地重新設計自己。而人類,我們的生物進化速度相當有限,無法競爭,終將被淘汰。」

此外,霍金還擔心人工智慧的普及所導致的人類失業問題。他說:「工廠自動化已經讓眾多傳統製造業工人失業,人工智慧的興起,很有可能會讓失業潮波及到中產階級,最後只為人類留下護理、創造和監督的工作。」

基本上,霍金的擔憂還是建立在人工智慧技術,將以加速度的趨勢不斷增速發展的基礎上。如果我們假設這個基礎的正確性,那麼霍金的邏輯推論和之前談到的「奇點」理論,並沒有本質的區別。反之,如果人工智慧在未來的發展,不一定永遠遵循加速度的趨勢,那麼霍金有關人類終將被淘汰的結論,就未必成立。

特斯拉與SpaceX公司的創辦人,被譽為「鋼鐵人」的伊隆‧馬斯克(Elon Musk),和霍金持有大致相似的擔憂。馬斯克說:「我們必須非常小心人工智慧。如果必須預測我們面臨的最大現實威脅,恐怕就是人工智慧了!」

事實上,從行動上來看,霍金和馬斯克並非單純的悲觀主義者。他們在警告世人提防人工智慧威脅的同時,也在積極採取行動,試圖為人類找出應付未來潛在威脅的對策。馬斯克說:「我愈來愈傾向於認為,也許在國家層面或國際層面,必須要有一種規範的監管機制,保證我們不會在這方面做任何蠢事。」

除了呼籲建立監管機制之外,馬斯克還和薩姆‧奧爾特曼(Sam Altman),一起創辦了非營利的科研公司OpenAI。談到創辦OpenAI的初衷,馬斯克表示:「為了保證一個美好的未來,我們最需要做什麼?我們可以冷眼旁觀,可以鼓勵立法監管,也可以將那些特別關心如何善用對人類有益的安全方式來開發AI的人,合理組織起來研發AI。」

如果說,在這個世界上,還有幾家純粹理想主義的公司,那OpenAI一定是其中一家。OpenAI一面聚集了一批AI領域的頂尖高手,研發最前沿的AI技術(主要是強化學習和無監督學習技術),甚至探索實現強人工智慧的可能性,一面反覆強調自己的使命是研發「安全的」人工智慧,透過實踐來探尋將人工智慧技術的潛在威脅降至最低的方法。

馬斯克和奧爾特曼的OpenAI,看起來是在做一件自相矛盾的事情:既積極研發人工智慧,甚至是強人工智慧,又希望將人工智慧關在道德或制度的「牢籠」裡,讓AI難以威脅人類。事實上,目前OpenAI所展開的工作,和其他人工智慧科研機構所做的,並沒有本質上的不同。據說,OpenAI的研究總監伊爾亞‧蘇茨克維(Ilya Sutskever)表示,OpenAI最重要的目標,就是發表具有影響力的文章。或許,馬斯克和奧爾特曼的意思是說,既然奇點來臨無法避免,那不如積極投入,至少當威脅真正來臨時,我們對威脅本身的理解會更加深刻。

2017年初,霍金和馬斯克都表示,為了防止人工智慧威脅人類,他們支持加州阿西洛馬會議通過的二十三條基本原則。這二十三條基本原則,主要涵蓋了三個範疇:1)科研問題;2)倫理和價值觀;3)長期問題。

阿西洛馬二十三條基本原則,像科幻大師艾西莫夫筆下著名的「機器人三定律」一樣,從方法、特徵、倫理、道德等多方面,限定未來的人工智慧可以做什麼、不可以做什麼。例如,有關人工智慧相關的倫理和價值觀,其中幾條原則是這樣規定的:

安全性:人工智慧系統應當在整個生命週期內確保安全性,還要針對這項技術的可行性及適用領域進行驗證。

價值觀一致性:需要確保高度自動化的人工智慧系統,在運作過程中秉持的目標和採取的行動,都符合人類的價值觀。

由人類控制:人類應當有權選擇是否及如何由人工智慧系統制定決策,以便完成人類選擇的目標。

非破壞性:透過控制高度先進的人工智慧系統獲得的權力,應當尊重和提升一個健康社會賴以維繼的社會和公民進程,而不是破壞這些進程。

在擔憂未來人工智慧威脅的人當中,霍金和馬斯克還是一直抱持著一種非常積極的態度,一方面基於邏輯判斷,相信人類未來面臨機器威脅的可能性非常大,另一方面又利用自己的影響力,積極採取行動,盡可能將人工智慧置於安全、友好的界限內。從這個角度來說,霍金和馬斯克至少比那些盲目的悲觀主義者,或那些因為未來的不確定性而喪失勇氣的怯懦者,要強上很多很多倍。

本文節錄自:《人工智慧來了》一書,李開復、王詠剛著,天下文化出版。

50%的工作都將消失,你害怕機器人搶飯碗?

李開復《人工智慧來了》深入剖析 https://goo.gl/D0faF2

天下文化 / 小天下 / 未來少年 / 遠見雜誌 / 30 雜誌 / 哈佛商業評論  Copyright© 1999~2017 遠見天下文化出版股份有限公司. All rights reserved.
讀者服務部電話:(02)2662-0012 時間:週一 ~ 週五 9:00 ~ 17:00 服務信箱:gvm@cwgv.com.tw