You’re viewing a text-only version of this website that uses less data. View the main version of the website including all images and videos.
人工智能未來可能會太聰明令其意外摧毀人類
從英國著名理論物理學家史蒂芬·霍金(Stephen Hawking)到特斯拉創始人伊隆·馬斯克( Elon Musk)等世界頂尖人工智能(AI)專家,都曾表示過AI對人類生存的威脅。
真有一天,人類會成為自己發明的機器人的受害者嗎?
加州大學伯克利分校(the University of California, Berkeley)的斯圖爾特•羅素教授(Stuart Russell)是該領域的專家。
他在剛出版的《人類相容:人工智能與控制問題》("Human Compatible: AI and the Problem of Control")一書中指出,這種威脅並非來自機器人開始有了自我意識,並起來反抗人類主人。
而是因為這些機器人能力變得超強,最後有可能是因為人類的疏忽,為機器人設置了錯誤的目標,讓他們無意中把我們都消滅了。
羅素教授表示,這才是我們應該擔心的,而不是像好萊塢大片中所描繪的那樣,人工智能開始有自主意識,並向人類倒戈,最後把我們都殺光。
羅素教授強調:我們應該擔憂的不是意識,而是它們的能力(competence)。
「超強能力」
羅素教授在接受BBC的採訪時表示,假設我們發明了一個可以用於控制氣候變化的強大人工智能系統,並且能將大氣中的二氧化碳水平恢復到工業革命前的水平。
該人工智能系統經過分析後認為,最容易的方式就是消滅人類,因為人類活動是產生二氧化碳的最主要來源。
當然人類可能會對機器人說,你做什麼都可以但就是不能把人類全滅絶。人工智能系統然後可能會說服人類少生孩子,直到最後沒有人生孩子,人類慢慢滅絶為止。
這個例子是想強調與人工智能有關的風險,這些風險都是人類在創造人工智能前並沒有想明白的。
超級智能
英國劍橋大學存在風險研究中心( the Centre for the Study of Existential Risk, at Cambridge University)表示,當前大多數AI系統都是相對「狹窄」的應用程序,專門用於解決某一領域中的特定問題。
但1997年,超級電腦深藍(Deep Blue) 打敗了國際象棋世界衛冕冠軍加裏•卡斯帕羅夫(Garry Kasparov),成為人工智能史上里程碑。
然而,雖然深藍擊敗了世界象棋衛冕冠軍,但深藍卻可能連一場簡單的跳棋遊戲都贏不了。因為深藍的設計者是專門讓它下象棋的。
但這才僅僅是開始,隨著人工智能的發展和進步,阿爾法圍棋的最新版AlphaGo Zero在經過短短3天跟自己練習之後,已經達到了超人水平。
AlphaGo Zero通過深度學習,已經不太需要太多的人工程序。 它成為圍棋、國際象棋以及將棋(又稱日本將棋)的高手。
這裏,最讓人感到震驚的是,AlphaGo Zero完全是自學成才。
劍橋大學存在風險研究中心表示,隨著人工智能逐漸強大,它可能會成為超級智能。它會在許多,或是幾乎所有領域都超越人類。
羅素教授說,這就是為什麼人類需要收回控制權。
如何收回控制權
羅素說,賦予人工智能更明確的目標並不是解決這一難題的方法,因為人類自己都無法確定這些目標是什麼。
羅素表示,人們應該徹底改變建立人工智能系統的整體基礎,例如,不再給機器人一個固定目標,而是讓人工智能系統必須明白,它不知道目標是什麼。
一旦人工智能系統以這種方式運作的話,它就會聽從於人類的指揮。在執行任務之前,它會尋求人類的許可,因為它不確定這是不是你想要的。
羅素教授表示,最至關重要的是,它們(AI)會樂意接受被隨時關閉的選擇,因為它們也希望避免做那些你不喜歡的事情。
神燈中的精靈
羅素說,我們現在發明的AI系統有點像傳說中的神燈中的精靈(a genie in the lamp)一樣,你輕拍神燈,燈裏的精靈出來了。你對精靈說:「你給我做這件事吧。」
「如果AI系統足夠強大,它就會完全按照你的要求去做,你也會得到你所要求的一抹一樣的結果。」
但羅素表示,問題是跟神燈中的精靈故事那樣,第三個願望總是要求精靈「取消前面的那兩個願望」,因為我們無法確定自己到底想要什麼。
其結果就可能造成,那個試圖完成錯誤指令的機器人實際上變成了人類的敵人,一個比我們強大得多的敵人。
到那時,一切就太晚了。