農林漁牧網

您現在的位置是:首頁 > 農業

對話丹華資本谷安佳:人工智慧,人類文明的可能延續?

2023-01-23由 第一財經 發表于 農業

人工選擇能改變變異的方向嗎

谷安佳, 斯坦福大學應用物理學博士。 他與斯坦福大學張首晟教授共同創辦的丹華資本管理規模5。5億美元以上, 已經是矽谷地區最有影響力的華人風險投資基金之一。廣泛投資人工智慧等領域。年紀輕輕的他,今年在香港獲得了“ 世界傑出華人獎”。

學霸出身的谷安佳秉承傳統理科生對科學和規律的信仰,儘管投資是對未來事物可行性的一種判斷,他認為規律在起著決定性的作用。 而關於未來的種種不確定性都是規律中的變數。

“ 不確定性的東西也是規律的一部分。有一些東西一定會發生,不確定的東西發生也有一定機率存在。未來有很多確定的東西也有更多不確定的東西。這些加起來才構成規律。”

谷安佳說中文稍有些南方口音,語速稍快, 思維縝密。 矽谷精英多是穿著隨意的工程師, 而他西裝革履, 看世界的眼光是科學家的嚴謹和樂觀。 他和一財記者深入探討了人工智慧的發展以及對人類社會有可能帶來的深刻改變。

大資料使得人工智慧已經可以自己學習。最近三五年,人工智慧的巨大變化就是因為“專家系統”到“小孩系統”的轉變。人工智慧飛速發展是否會造成大量社會人口失業? 人工智慧隨著不斷的學習,是否也會渴望意義和權力? 這些可能性都讓很多人擔憂不已。

谷安佳認為,就目前情況來說,離這兩種情況還非常遠。人類進化到現在,邏輯方面的進步幾乎是不太可能了。人類社會需要依靠技術和創造出來的新事物,來反逼人類進步。這種進化是體現在一種更高層的模式,即人類和人類所創造出的新事物一起進化。

他進一步闡述, “人類是碳基文明, 人工智慧是矽基文明, 能夠作為人類文明的遺產留下來,人類的肉體並不如人工智慧。在極端條件下,人類如果可以開發出來一種可以承載文明、邏輯思考學習能力的載體,這其實是人類文明的延續。”

一財:從

2011

IBM

機器人Watson贏得Jeopardy 答題秀,到去年

alpha

狗擊敗柯潔,你覺得人工智慧經歷了一個什麼樣的過程?

谷安佳: 人工智慧質的突變在於讓它的演算法有提升的空間。它可以自己學習,可以自己跟自己比賽,這個是人工智慧讓我們感到驚異的一點。

一財: 為什麼機器可以自己學習?

谷安佳:其實機器自己學習也沒有什麼深奧的地方。機器學習其實就是在資料裡面找出規律。機器在大量的資料裡面透過重複的計算,像人的神經網路一樣,從表面現象再歸納,抽象,再一層層地推進。在這個過程中,實際上也是一種演算法。人類也是這樣的,只是一般人意識不到。計算機學會人類一些簡單的推理和演算法的演變也沒有什麼奇怪的。只是人類在最開始的時候認為計算機不太可能學會人類的思維模式。像當年IBM的“深藍”,它還是用比較簡單粗暴的方法,透過運用大量的例項,大量的演算。需要的資料庫也是幾棟樓。所以在那個時候人們認為這種機器的實用性,離日常生活比較遠。人類對於人工智慧的理解,是經過了幾個階段的,比如說,最開始的機器比人類算得更快,後來人類發現人工智慧不過如此。人類經過這種“狼來了”的效果後,覺得人工智慧在某些方面可以打敗人類,人類的整體認知就進入了兩極分化,一些人就很積極地,狂熱地投身於人工智慧;另外一些人就陷入悲觀,也進入一個瓶頸期。

最近三五年人工智慧的巨大變化就是因為“專家系統”到“小孩系統”的轉變。圖片識別也是最近幾年人工智慧發展的一個方面。當訓練一個機器去看圖的時候,其實跟小孩一樣。小孩小時候對貓狗或者周邊環境也是沒有感覺的,但當他不停接受外界刺激後,神經元就自然而然地被固化。這個過程跟訓練機器的過程非常相似。運用大量的資料透過一些演算法總結他的最基本的結構最基本的一些特徵之後,機器就學習到了。機器學習是透過引數實現的。人工智慧也是透過大資料的方式取得了大的突破。

一財: 當人工智慧學習到大量的資料後,會不會出現變異的可能性?

谷安佳: 人工智慧在資料歸納總結認知等方面是有可能超過人類的。比如說影象識別中,人工智慧所花費的時間和識別準確度都已經超過人類了。所以人工智慧超過人類已經不是什麼讓人吃驚的事情了。所有能量化的事情,比如圍棋,電子遊戲,或者其他的能夠定義好的東西,人工智慧在這些方面都有可能超過人類。

目前還沒有看到人工智慧會變異這種現象的發生。因為人工智慧現在都需要人類給它定義好工作範疇,當你告訴它目標和最佳化方向的時候,人工智慧可以做到比人類更好。對於一些簡單機械重複,靠時間日積月累的事情,人工智慧也能做得比人類好。

人工智慧在未來某些方面可能會出現一些延伸,但是在未來還是要看科學家或者研究人員的本性是不是要讓人工智慧為人類造福,如果是出於這種動機,我相信人工智慧是不會出現變異的問題的。因為在我們看來,人工智慧本身對人類是沒有敵意的。因為人工智慧所基於的矽基系統和人類的碳基系統在本質上是沒有衝突的。

一財: 但是這些不同是最基礎的生理方面的不同。人工智慧隨著不斷的學習可能也渴望意義和權力,那這種情況可能發生嗎?

谷安佳: 這些東西其實是需要人類給它定義的。這些東西其實是人類對自己的影射,也就是說我們有這種需要,那其他物種是不是都會有。人工智慧所謂的意義和我們人類定義的意義可能是不一樣的。我覺得人工智慧是不會去危害人類的。除非人工智慧被人利用。

一財: 但被人利用也很可怕呀。

谷安佳:所以說這些技術的作用其實取決於人類本身。如果有人故意用人工智慧達到一些邪惡目的,那也是很可怕的。所以關鍵是如何控制人。比如說透過立法,或者是一些倫理道德方面的控制,或者對研究經費方面的一些調控,嚴格定義人工智慧犯罪的範疇,才能防止人工智慧犯罪。

一財:人工智慧可能導致大量社會人口失業,也有可能變異危害人類社會。那您認為人工智慧可能導致的危害是否包含這兩點?

谷安佳: 這兩種可能性都是存在的。極端情況下,這兩方面的情況是可能造成社會問題的。就目前情況來說的話,離這兩種情況還非常遠。因為人工智慧本身來說,如果它真的做得比人類好的話,其實是一件樂見其成的事情,因為它確實減免了一些不必要的重複性勞動。

一財: 在現在這種相對成熟的社會模式下,人工智慧可能造成的大範圍失業會對人類社會的穩定造成巨大挑戰,這種可能性存在嗎?

谷安佳:人類的進步和技術的發展是密不可分的。每一次文明的升級都是依靠技術。在人類的發展過程中,不能因為某種技術可能會造成一些社會動盪和影響就去阻礙這種技術的發展。因為技術的發展是不可逆轉的。而且技術所帶來的陣痛其實是對人類社會有幫助的。即使是有失業情況的發生,但是最終人類還是可以透過自己的學習和自我演化來進步。人類進化到現在,邏輯方面的進步幾乎是不太可能了。人類社會的進步是依靠技術和創造出來的新事物來反逼人類進步。這種進化是體現在一種更高層的模式,即人類和人類所創造出的新事物一起進化。

一財: 這些新東西是敵是友呢?

谷安佳:我覺得目前來講人類所創造出的新事物是幫助人類自己的。所以雖然在某一階段,我們可能會看到雖然人工智慧會帶來巨大沖擊,但人類自己會去學習,失業的人會去找到新的工作。

一財: 你認為我們要對未來可能出現的科技發展對社會的影響保持“謙卑”的態度嗎?沒有人確切會知道會發生什麼

谷安佳:我認為人類應該謙卑。我認為人類更應該去適應。因為從自然進化的角度來說,人類已經處於生物鏈頂端,再沒有天敵會逼著人類走向一個更高階的社會形態。所以人類社會的發展更需要依靠人類自己的演化和人類自己創造的一些技術。

一財: 人類文明會毀滅嗎?

谷安佳: 這個到最後的話也是有可能的。我相信萬事萬物都有規律。比如出生發展鼎盛衰退滅亡。這個規律幾乎在所有事物中都可以看到。所以在我看來人類的毀滅最終是會發生的。

一財: 我的意思是人類因為自己創造出來的東西而毀滅。

谷安佳: 我相信這種機率會小一些,人類把自己作死的可能性比較小。人的個體很脆弱,但人類整體是擁有神奇的自我調整和糾錯能力的。人類善於從過去的失敗中找出經驗教訓。比如兩次世界大戰後,人類處理衝突的手段有了很大的改變。所以人類毀滅更有可能是因為一些自然災害或者大的變故。

我們人類的歷史非常短,在這麼短的時間內,我們還沒有遇到過滅頂之災,但這並不代表以後就不會遇到。比如以前恐龍就遇到過小行星碰撞。人類是碳基文明, 非常脆肉。如果地球出現問題,很難延續。 而人工智慧是矽基文明, 能夠作為人類文明的遺產留下來其實是對人類文明的一種儲存,是一種延續和技術的探索。所以我們不應該害怕人工智慧。人類的肉體並不如人工智慧。在極端條件下,人類如果可以開發出來一種可以承載文明,邏輯思考學習能力的載體,這其實是人類文明的延續。人工智慧其實是人類的後代,人類可以把自己的想法傾注到人工智慧上。如果人類把人工智慧看作自己的後代並允許它延續人類文明的話,其實人類文明可以延續地更久。

一財:人工智慧發展到現在產生了一些錯誤,你怎麼看待?人工智慧汽車也是個很熱的議題,但是像這種裝置如果出現bug可能會出人命,你對人工智慧的可靠性有信心嗎?

谷安佳: 這個取決於演算法是否完整。人工智慧從學習到應用的過程中確實可能會產生差錯,但總體來講,當我們應用一些機制的方式,比如正規化驗證,來檢查人工智慧中的錯誤。有一部分工程師在開發人工智慧,另外一部分是在做驗證工作。透過資料和系統的方式把人工智慧從頭到尾排查一遍。這種方式在現實當中也是存在的。做到100%沒有差錯也是有可能的。

其實人類開車出差錯的可能性從統計意義上來說更大。人工智慧和人類在相同的on road時間下,人工智慧反而出差錯的可能性更小。

一財: 但是人類可以為自己的駕駛錯誤負責,那誰來為人工智慧的駕駛錯誤負責?

谷安佳: 如果是機器出錯的話肯定是機器的責任,或者是開發機器的團隊的責任。

一財: 是不是人更願意相信自己而不是一個理論上是存在bug的機器?

谷安佳: 其實人類就是願意相信自己已經經歷過的事情。難道去外面吃飯就能一定保證飯裡沒毒嗎?人類自己開車難道就不會懷疑車會出問題嗎?所以人首先要相信這個東西。

一財: 但是人類建立信任需要一定時間,比如對車的信任是經歷和幾十年的時間,那對人工智慧的信任是不是也需要時間?

谷安佳: 我相信這是一個過程,我相信經過這個過程後,人類對人工智慧會更有信心。當所有汽車被人工智慧駕駛的時候,其實整個協調性會比人類更好。幾乎不可能出現剮蹭這種事故。因為這在系統中都是協調好的。那這些東西如果都是符合規律的,它的整體效果肯定是更好的。

一財: 您相信規律,做投資也是如此。 但是投資是對未來的判斷, 有很多不確定性的東西如果所有東西都是按照規律來發生,那也就不會有預見不到的情況了,那是不是沒什麼意思?

谷安佳: 在做投資的時候有一些規律性的東西也有一些不確定的東西。那麼這些不確定的東西應該考慮進去。不確定性的東西也是規律的一部分。有一些東西是一定會發生的,但也有不確定的東西。但不確定的東西發生有一定機率存在。未來有很多確定的東西也有更多不確定的東西。這些加起來才構成規律。

一財: 從美國2016大選,以及這次facebook 的資料醜聞來看, 大資料會不會被人操縱, 使真相更難被發現?

谷安佳:大資料所造成的這些問題是很大的挑戰。一些有很多資料的組織在網際網路上可能變成一箇中心化的組織。現在技術的發展是希望把一些掌握大資料的集權公司放到去中心化的模式中去。讓某些大公司不會變得那麼強大。這就可以透過區塊鏈的方式。透過這種去中心化的理念把資料權利還給使用者本身。

一財: 但是使用者不能控制自己看什麼,大公司依然可以推送資料給使用者,但使用者無法控制。

谷安佳: 但是未來的使用者擁有資料權利後,可以決定資料是否要共享。如果使用者資料都是保護起來的,那大公司是沒辦法知道使用者的喜好,所以資訊都是中立的,大公司就無法針對特定使用者做一些有預謀的推送。

一財: 但是區塊鏈能真的做到讓這些大公司放棄資料控制權嗎?

谷安佳: 這個取決於大眾能否意識到這個問題。如果人們只認為這些大公司提供的服務是巨大的好處,而忽略了這些大公司對於資訊的攫取和控制,那其實大量的資料就被這些中心化的公司控制了。在去中心化的社交網路中,公司為了拿到使用者的資料可以給他們一些激勵和好處。

一財: 激勵的做法解決了資料價值,但沒有解決資料有可能被操縱的社會問題。

谷安佳: 未來在一個去中心化網路中,任何一個網路中的節點需要看到什麼東西就不再是一箇中心化的演算法或者組織來決定推送給使用者的內容。所有內容應該是使用者去選擇的。

一財: 那誰來提供算力呢?

谷安佳: 那就可以藉助分散式的演算法,可以讓使用者自己選擇。使用者可以自己選擇內容,而不是由別人加工過以後再給我看。使用者可以知道資訊源頭是誰,釋出的觀點是什麼。去中心化演算法可能可以提供更真實,更由社群決定的東西。而這些工作就可以由人工智慧來完成。而不是像現在一些大公司來決定使用者應該看什麼。如果用區塊鏈這種公正透明的方式把資訊都打散的話,使用者是知道資訊是怎麼來的。由於現在這種中心化組織架構,人類在資訊面前是沒有力量的。

谷安佳: 人工智慧和區塊鏈其實是一個自然衍生的過程。人工智慧最近巨大的發展是來自於大資料,這些大資料為人工智慧提供了訓練。區塊鏈可以讓人工智慧更好地發展,因為它可以打破資訊的孤島。現在我們可以看到人工智慧都在巨頭手上,因為這些巨頭掌握了大量資料。如果人工智慧想要發展就必須打破這種中心化資料控制權。而如果想打破,就要靠區塊鏈,靠資訊加密,資訊分享,資訊認證個方面,變成公開透明,不可篡改,完好無損儲存在鏈上。透過這種方式,人工智慧可以更多更好吸收大資料的養分,對於演算法的提高,更好服務社會。所以人工智慧和區塊鏈是一個整體,這兩樣是相輔相成,互相推動的。