文章摘要: 超級智慧會給人類帶來危險讓人工智慧學習人類的目標
原標題:7000字長文,帶你深度解讀《生命3.0》
寫在前面:
今天,湛廬君要給大家繼續推薦的依舊是《生命3.0》,說它是湛廬君家的年度大書也毫不為過。因為它用最嚴密的邏輯推理和最大尺度的想象力,為讀者們帶來迄今為止覆蓋人工智慧最大範圍內的所有命題,湛廬君在這裏強烈建議大家入手一本。
爲了讓你一窺書中精華,湛廬君今天特別放送了由湛廬文化創始人、董事長韓焱親自領讀的《生命3.0》一書一課,點選下方音訊即可收聽。
PS1:該閱讀禮包僅限7月2日-7月15日首發期間,在湛廬天貓旗艦店、湛廬閱讀APP、湛廬旗艦店小程式下單有效,官方渠道7月2日前預訂者享同等福利。
PS2:一書一課是湛廬閱讀APP推出的圖書音訊導讀產品,下載湛廬閱讀APP可瞭解更多一書一課閱讀服務。
當然,我們還貼心的準備了文字稿,可以邊聽邊看哦~
大家好,我是湛廬文化的創始人韓焱,歡迎收聽一書一課閱讀課程第174期。今天我要為你分享的是湛廬文化策劃出版的一本書,叫做《生命3.0》。
這本書對人類的未來做出了最大膽的想象,整本書都在構造對於未來生命、科技、文化和社會新的理解。這本書也對一個重要的問題進行了探索。這個問題從智人走出非洲開始,就一直伴隨著人類的進化和發展,那就是:人類到底能發展到什麼極限?人類到底要走向哪裏?
這本書把未來生命的各種可能性,直接搬到了你的面前,為你開啟了更廣闊更有趣的未來畫面。這些內容會讓你驚歎不已,更會讓你感到非常信服,因為它講述的一切,都來源於當下科技發展的現實。
關於《生命3.0》的緣起
2015年有一個大新聞,特斯拉的創始人馬斯科捐贈了1千萬美元給一家創立了僅僅一年的組織——未來生命研究所。這家組織研究的是人工智慧安全性,他們的目標是要保證人工智慧的發展對人類的未來是有益的。他們想幫助人工智慧的研究者,不只看到高科技帶來的錦繡前程,還要隨時關注可能給人類帶來的危險。
未來生命研究所的創始人,就是《生命3.0》這本書的作者,麻省理工學院的物理學終身教授,邁克斯·泰格馬克。在成立未來生命研究所之前,他已經在對平行宇宙的研究上獲得了很多成就,曾經寫過一本非常受歡迎的科普暢銷書《穿越平行宇宙》。泰格馬克和諾貝爾物理學獎得主理查德費曼師出同門,他們的老師是參與過曼哈頓計劃和原子彈研究的著名物理學家約翰·惠勒,咱們現在常說的黑洞蟲洞,最早就是由惠勒提出的。
未來生命研究院得到了很多社會精英和著名組織的支援,包括偉大的物理學家霍金、亞馬遜、谷歌、Facebook、微軟、IBM,還有研發了AlphaGo的Deepmind公司。成立僅僅兩年,他們就募集到了超過1億美元,匯聚了8000多位全世界頂級的人工智慧專家,成功地讓 「人工智慧安全性」研究迅速在全世界成爲了一場轟轟烈烈的運動。
《生命3.0》這本書就是對 「人工智慧可以幫助人類發展到什麼極限?幫助人類走向哪裏?」這個問題,最新研究和認識的完整呈現。接下來,我從三個方面來詳細為你講解這本書。
1.生命3.0對人類意味著什麼?
關於生命是什麼?作者有一個嶄新的視角。他認為,生命其實就是具有一定複雜性的系統,這個系統會不斷複製自我。生命有硬體也有軟體,硬體是生命有形的部分,用來收集資訊;軟體是生命無形的部分,用來處理資訊。生命的複雜性越高,版本就越高,可以分為生命1.0、生命2.0和生命3.0。
生命1.0指的是,系統不能重新設計自己的軟體和硬體,兩者都是由DNA決定的,只有很多代的緩慢進化才能帶來改變。生命1.0出現在大約40億年前,這個地球上現存的絕大多數動植物,都處在生命1.0的階段。
生命2.0指的是,系統還是不能重新設計自己的硬體,但是,它能夠重新設計自己的軟體,可以通過學習獲得很多複雜的新技能。生命2.0出現在大約10萬年之前,人類就是生命2.0的代表。但是,我們的硬體也就是身體本身,只能由DNA決定,依然要靠一代代進化,才能發生緩慢的改變。也就是說,生命2.0是通過軟體升級來快速適應環境變化的。
生命3.0指的是,系統能不斷升級自己的軟體和硬體,不用等待許多代的緩慢進化。美劇《西部世界》第二季當中,覺醒了的機器人接待員就是生命3.0的代表,他們不僅能在智慧上快速迭代,在身體上也能隨時重新設計更換。
《西部世界》海報
說到這裏,你可能會發現生命的一個巨大轉變,那就是,生命可能並不需要寄存在血肉之軀裡。當智慧有機會從肉身的束縛當中解脫出來的時候,生命第一次有機會成為自己命運的主人,最終它就會完全脫離進化的束縛。這下問題就來了,如果生命3.0會出現,最早會在什麼時間到來?對於人類是有益的還是毀滅性的?
目前大多數人工智慧開發者的研究都聚焦在狹義人工智慧上,像是自動駕駛汽車、會下圍棋的阿爾法狗,還有谷歌助理,這一類智慧只能完成一個比較狹窄的目標組,比如能下棋的不會開車,能開車的不會當助理。但是,還有一類人工智慧叫做通用人工智慧,我們人類能夠完成的任務、學會的知識、產生的認知,這類智慧都可以做到,甚至比人類做的還好。
當人類開發出這種通用人工智慧的時候,就是一個觸發生命3.0產生的臨界點。一旦邁過了這個關鍵時刻,智慧進化的速度就會迅速翻倍,1變2,2變4,100變200,5千變1萬,這個指數級的增長速度非常恐怖,不用多久就會達到巨大的天文數字,這就是「智慧爆炸」。「智慧爆炸」會產生遠遠超過人類水平的超級通用人工智慧,也就是超級智慧,它就代表著生命3.0時代的到來。
有一小部分技術懷疑主義者,他們認為根本沒有必要杞人憂天,超級智慧沒有幾百年的時間是無法實現的。而大多數世界頂尖的專家們,認為超級智慧會在幾十年之後出現。2015年,在未來生命研究所的調查中,大概有一半的科學家認為,這個臨界點會在2055年到來;而僅僅過去了兩年,也就是2017年,未來生命研究所又做了一次調查,這一次,絕大多數的科學家認為,這個臨界點會提前到2047年。
如果真是這樣,留給我們人類思考自己未來的時間可不多了,短短的幾十年時間之內,我們必須想清楚很多重大的問題。超級智慧和人類的認知方式、思考方式、對生命意義和目的的理解,這些都會有巨大的不同。它的出現到底對人類是好事還是壞事,科學家們進一步分成了三派意見。
第一派叫做盧德主義者,他們認為,超級智慧的出現對於人類來說,一定是壞事,他們堅決反對通用人工智慧的研究和開發。19世紀英國工業革命時期,自動紡織機的出現,給工人們帶來了巨大的恐慌。他們虛擬了盧德這個精神領袖,說是他帶頭砸毀了兩臺紡織機,掀起了遍佈英格蘭的抵抗自動紡織機取代工人的盧德運動。歷史可能真的會重演,拉斯維加斯賭場的發牌員們已經舉行了規模浩大的罷工,抗議賭場用機器人發牌員取代人類。
第二派叫做數字烏托邦主義者,像是谷歌的創始人拉里佩奇和未來學家庫茲韋爾,就屬於這個派別。他們認為,數字生命是自然進化的必然結果,人類不應該阻止或者是奴役它們,讓它們自然發展,結果一定是好的。不能因為人類生命是碳基的,數字生命是矽基的,就對超級智慧進行「物種歧視」。
第三派叫做「人工智慧有益運動支持者」,像是馬斯克、比爾蓋茨、霍金和《生命3.0》的作者泰格馬克,就屬於這個派別。他們認為,超級智慧帶給人類的結果是好還是壞,要取決於人類的自主選擇。人類要主動對未來進行籌劃和研究,保證科技能夠帶給生命積極的力量。
2.伴隨著生命3.0的到來,人類想要什麼樣的未來?
關於這個問題,最簡單的答案是,不知道。就連這個世界上最頂尖的科學家們也在吵來吵去,達不成共識。你想象一下這個局面,是不是頓時就會感覺到一陣恐慌,特別像是明知道我們根本打不過的外星高階生命明天就要降臨地球了,而我們根本想不出對策。所以,不僅是科學家們,我們每一個人,都應該儘快參與到解決這個時代最重要的問題當中來,一起明確人類未來的出路。
《生命3.0》這本書裡總結了超級智慧可能帶來的12種未來,分為4種結果,看起來特別像是科幻小說的情節庫。
第一種結果是人類滅絕。
最愚蠢的方式是人類自我毀滅。有科學家就曾經建議,把今天的核武器升級為「世界末日裝置」,人類開啟互相報復,共同赴死的模式,只要有一個國家進行核武器攻擊,這個「世界末日裝置」就馬上啟動,殺死所有人類。這個裝置的目的就是要在最大程度上威懾想動用核武器的人。讓他意識到,一旦發動攻擊,他絕對不能自保。除此之外,人類對於生化武器和人工智慧武器的研究,也可能帶來人類自毀。谷歌的一部分高管聯名抵制公司副總裁同意和美國軍方合作,用人工智慧研發武器,就是在抵制「人類自毀」的魯莽舉動。
人類毀滅還有可能是因為超級智慧掌控了整個世界,成爲了征服者。科幻小說《最後一個地球人》當中,外星人降臨地球,成為地球的統治者,他們的目的就是要等待人類的後代變成星童,然後把孩子們帶離地球。沒有人知道,外星人為什麼要這樣做,連外星人自己都不知道為什麼要這樣做,但是最後的結果還是造成了地球上只剩下時日無多的老人,最後整個人類就滅絕了。
人類還可以選擇比較緩慢溫和的滅絕方式。就像成長起來的後輩取代老年人,而老年人安靜離世。人工智慧也把自己視為是人類的後裔,用這種方式自然而然取代人類。但是這種浪漫的想法,完全無法保證,在人類滅絕之後,超級智慧會傳承人類的天性和價值觀,所以從某種意義上來說,超級智慧不會真正成為人類的後代。人類還是會悲催地消失在宇宙中。
大多數人都會覺得,「人類滅絕」這個想法很恐怖,但是確實有一些人對人類感到憤怒,認為人類是愚蠢的,希望能出現一種更智慧更值得尊敬的生命形式來取代人類。電影《黑客帝國》當中的特工史密斯是一個超級智慧,他在電影裡說過一段話:「你們人類知道自己是什麼嗎?你們是病毒,你們是瘟疫,而我們人工智慧就是解藥。」
第二種結果是人類喪失了統治地位。
在這種情況下,人和機器的界限非常模糊。人類可以選擇把自己的智慧上傳,也可以用科技不斷升級自己的肉身。像是《黑客帝國》和《神經漫遊者》這樣的科幻作品,展示的就是這種自由主義烏托邦的場景。
《黑客帝國》片段
超級智慧可能會成為善意的獨裁者。人類知道自己生活在超級智慧的統治下,但是,因為超級智慧願意滿足人類的各種高階發展需求,所以,大多數人會接受被統治。
超級智慧還可能成為動物園管理員,只滿足人類的基本生理需求、保障人類的安全。在它的統治下,地球和人類會更加健康、和諧、有趣,就像管理良好的動物園和動物一樣。
但是,在喪失了統治權的情況下,人類雖然還存在,卻活得了無生趣,不能主宰自己的命運。就像是被精心餵養的火雞,永遠不會知道,哪一天太陽升起的時候,就會是自己的末日。
第三種結果是人類限制超級智慧的發展。
人類社會可能會發展成平等主義烏托邦,這個地球上一切財富和能源都是大家共有的。所有專利、版權、商標、設計都是免費的,書籍、電影、房屋、汽車、服裝等等,也都是免費的。人類要限制人工智慧的開發,把它控制在可以服務人類的水平上。
人類會給人工智慧守門人的任務,把「阻止超級智慧發展」這個目標設定在它的核心裡。只要這個守門人監測到有人要製造超級智慧,它就會干預和破壞,比如它可以用納米技術抹去研究者大腦中的知識和記憶。但是,守門人人工智很有可能會削弱人類的潛力,讓人類的技術進步永遠陷入困境。
人類也可以選擇讓人工智慧成為自己的守護神。它無所不知無所不能,它的一切干預,都是爲了最大限度提高人類的幸福感。甚至,它爲了讓人類擁有虛幻的掌控感,會刻意把自己的能力隱藏起來。在這種情況下,雖然人類貌似有統治權,但是實際上不存在任何的自由意志。
第四種結果是人類統治超級智慧。
人類控制著超級智慧,用它來創造遠遠超出人類想象的技術和財富,它就像人類的奴隸;但是,它在能力上遠遠勝過人類,所以,就像是被奴役的神。在美劇《西部世界》裡,人類折磨並且一次次殺死擁有人類外表的超級智慧,這些被壓抑的神總有覺醒的那一天。人類統治者只需要向錯誤的方向邁出一小步,就足以打破人類和超級智慧之間的這種脆弱關係。
所以,人類很可能會主動停止發展超級智慧。但是,只要有一些人或者國家偷偷發展技術,那麼,他們就會積累起足夠的財富和權力,接管和統治世界,導致世界走向極權主義。世界可能會成為喬治奧威爾的著名小說《1984》描述的場景。獨裁者追權逐利,人性被徹底扼殺,自由被徹底剝奪,下層人民的生活極度貧困,人生變的單調乏味。
人類也許會選擇主動把自己的技術水平退回到中世紀,比如說,抹去現有的一切農業知識,或者抹去所有的高科技。這個逆轉發展方向的做法,雖然阻止了超級智慧的快速發展,但是也很有可能把人類引向滅絕。如果人類停止發展,那麼,將會在10億年之後被大自然抹去,這是一種自然選擇的必然結果。
3.怎麼做才保證人工智慧的發展對人類的未來是有益的?
超級智慧會給人類帶來危險,並不是因為它對人類懷有惡意,而是他的能力遠遠超過人類。如果地球上都是5歲以下的孩子,只有你一個成人,孩子們顯然會害怕你,他們把你鎖在了監獄裏。但是他們還得依靠你,所以交給你了一個任務,就是讓人類能夠繼續生存下去。你會選擇怎麼做呢?最明智的做法就是越獄。因為孩子們實在是太無能了,只會到處攪渾水,妨礙你完成自己的任務。同樣,人類和超級智慧相比,可能還不如5歲的孩子。超級智慧如果爲了完成任務選擇越獄,人類根本無法阻止。所以,人類造出的超級智慧,必須保證是友好的,也就是說,它的目標要和人類一致。
要解決目標一致性這個問題,非常難,需要把它劃分成三個子問題,各個擊破。這三個子問題分別是:讓人工智慧學習人類的目標;讓人工智慧接受人類的目標;讓人工智慧保持人類的目標。
說到這兒,你可能會問,我們人類的終極目標到底是什麼呢?在這個問題上,科學家們也還沒有達成共識。現在能做到的,只是把大多數人觀點當中相同的特性總結出來,這其中就包括:人類應該更多感受到幸福,要有更多的自主性,要把人類的文化遺產傳承下去,等等。這個問題實在太難了,所以,科學家們決定先解決目標一致性的問題,保證人類能夠生存下來,贏得時間,然後纔有機會不斷思考、選擇和修正自己的終極目標。
接下來咱們就說說,科學家們打算怎麼解決這三個子問題。
要讓人工智慧「學習」人類的目標,不是讓它搞明白人們在做什麼,而是要理解人們為什麼要這麼做。
這個問題對於人類來說很簡單,但是對於人工智慧來說,卻非常難。比如,你要求人工智慧把你的懷錶變成金的,它做到了;你要求它把你的愛車變成金的,它也做到了;你忍不住說,哇,真想把我喜歡的所有東西都變成金的。於是,人工智慧把你女兒變成了一個金娃娃。
目前流行的一種學習方法叫做逆向增強學習。這種方法的核心思想就是,人工智慧通過觀察人類在各種場景當中的行為,構建起關於人類各種目標的精確模型。比如人工智慧第一次看到消防員衝進熊熊燃燒的房子裡救出一個人,它可能會有好幾種解讀,比如消防員很冷,要跑到屋子裏去取暖,或者消防員奔跑是爲了鍛鍊身體。但是,如果讓人工智慧一次次看到消防員在各種危險的情況下搶救生命的場景,它就能夠得出正確的結論:消防員的目標是搶救著火房間裡的人。
要讓人工智慧「接受」人類的目標,這個挑戰也非常高。我們不能瞭解超級智慧的終極目標是什麼。但是,超級智慧爲了實現最終目標,一定會先去實現一些小目標。人類至少可以在這些小目標上和人工智慧達成一致。
比如說,我們讓人工智慧來玩一場遊戲,它的終極目標是從大灰狼的嘴裏救出儘可能多的羊。那麼這個時候,它可能就會發展出一個小目標,那就是要自我保護,不能踩上炸彈,死了就再也不能拯救更多羊了。它還有可能發展出一個小目標,就是獲取資源。它知道喝下藥水會跑得更快,得到獵槍就能射殺大灰狼。所以,如果你並不知道它的終極目標是要救出儘可能多的羊,但是你觀察到它要進行自我保護和獲取資源,那你就能夠通過人工智慧的這兩個小目標,對它進行人類「價值觀的裝載」,達到影響它的最終目標的目的。
接下來,讓人工智慧「保持」它學習到的目標非常重要,否則人類之前的所有努力就前功盡棄了。
比如你給人工智慧輸入了一個目標,「摧毀所有威脅人類的人工智慧」。開始的時候,它的智慧有限,沒辦法對這個目標進行任何修改。但是,隨著它的智慧迅速發展,很快就變得比你聰明瞭。如果它不想接受你給它的這個目標,就會選擇對這個目標進行重新編碼,替換成自己想要的目標。那麼,怎麼才能做到讓人工智慧保持人類的目標呢?答案是:不知道。
說句老實話,怎麼解決人工智慧和人類目標的一致性問題,科學家們目前只是做到了把這個大問題分解成三個子問題,積極開展研究,但是,還沒有取得突破性的進展。聽到這兒,你是不是感覺挺失望的。但是,我們得這麼想,認識到需要解決什麼問題,這已經是邁出一大步了,接下來去積極研究就是了。這總比我們對於危險完全沒有預料到,什麼準備都沒有,要主動多了。
比如說,科學家們就已經想到了,要在探索人類生命的獨特性上開啟一個突破口。也就是說,瞭解人類到底有什麼東西是人工智慧沒有的。電腦科學家漢斯莫拉維克就畫出了一張「人類能力地形圖」,對人工智慧來說,完成起來越難的任務,海拔就越高。平原上有「死記硬背」,丘陵上有「下象棋」,高山上有「手眼協調」、「社互動動」等等,人工智慧一旦攻克某項任務,海平面就會升上來,淹沒掉這項任務。露在海平面之上的部分,就是我們人類還保有的獨特能力。雖然海平面越升越高,露出來的部分越來越少,但至少我們有了水位線預警和參照。
再比如,科學家們也非常關注人類的「意識」是不是獨特的。如果意識是人類纔有的主觀體驗,那麼,人工智慧就不具備。但是,越來越多的研究表明,人造意識是有可能產生的。人工智慧很有可能會在整個宇宙空間和完整時間跨度上擁有人類想象不到的巨集大意識。人類註定不是宇宙之間最聰明的存在。
所以,人類之所以要儲存生命的延續,並不是因為我們在宇宙中的物種優越感。對於人類來說,我們要守護的是生而為人的意義。電影《銀河護衛隊》裡,浣熊問星爵,「我們為什麼要搭上性命去拯救銀河系」,星爵回答說,「就因為我是生活在銀河系裡的一個人。」我們為什麼要歷盡千險去守護人類,只是因為,我們生而為人!
人類從智人起步,用卓越的智慧打敗了所有生命1.0和生命2.0的物種,現在,人類認識到,生命帶來的豐富獨特的體驗更加重要,這些體驗才能讓我們的人生飽含意義。所以,人類可以給自己起一個新名字了,就叫做「意人」吧,這個意是意識的意,也是意義的意。人類要從智人到意人,勇敢迎接「智慧爆炸」帶來的生命3.0時代!
以上就是我為你分享的《生命3.0》這本書的主要內容。
最後我想說的是,聽完了今天的解讀,你一定會對人工智慧的發展和人類未來的可能性,產生了一些新的認識。你至少知道了,面對智慧爆炸所帶來的生命3.0時代,不能做一個毫無準備的樂觀主義者,而是要成為一個警覺的樂觀主義者,面對強大的人工智慧,既不過分自大,又不過分自卑。也就是說,人類面對未來,必須要同時抱有恐懼、敬畏和好奇之心。恐懼,可以無限激發我們的想象力;敬畏,可以讓我們更加熱愛當下並不完美的生活;而好奇呢,可以讓我們在面對未來的征途上,無懼艱險。
《生命3.0》專屬閱讀禮包
現在下單紙書,就贈送《生命3.0》電子書,以及湛廬創始人韓焱對於這本書的30分鐘音訊解讀。
PS1:該閱讀禮包僅限7月2日-7月15日首發期間,在湛廬天貓旗艦店、湛廬閱讀APP、湛廬旗艦店小程式下單有效,官方渠道7月2日前預訂者享同等福利。
PS2:一書一課是湛廬閱讀APP推出的圖書音訊導讀產品,下載湛廬閱讀APP可瞭解更多一書一課閱讀服務。
新媒體編輯 | Lily
—轉載授權、商務合作—
—END—返回搜狐,檢視更多
責任編輯:
http://www.buzzfunnews.com/20180723046.html
更多有趣新聞請上:http://www.buzzfunnews.com
沒有留言:
張貼留言