訂閱
糾錯
加入自媒體

李飛飛論戰(zhàn)赫拉利:AI之戰(zhàn)一旦爆發(fā),將碾壓核競賽

本周,斯坦福倫理與社會中心、斯坦福人類中心人工智能研究所以及斯坦福人類中心聯(lián)合舉辦了一次活動,邀請到人工智能領(lǐng)域的先驅(qū)李飛飛和暢銷書《人類簡史》、《未來簡史》作者尤瓦爾·赫拉利(Yuval Noah Harari)。

我們不僅面臨著一場技術(shù)危機,同時還有哲學(xué)危機

Yuval:在我看來,現(xiàn)代社會的哲學(xué)框架仍然來源于17世紀和18世紀,人類能動性、個人自由意志等理念正在受到前所未有的挑戰(zhàn),這種挑戰(zhàn)并非來源于其他哲學(xué)理念,而是來源于現(xiàn)代科學(xué)技術(shù)。越來越多原本屬于哲學(xué)領(lǐng)域的問題,正在轉(zhuǎn)變成工程類問題。這非?膳,因為工程師不像哲學(xué)家那么耐心,哲學(xué)家們可以為一個問題討論個幾千年,如果沒有找到滿意的答案,那么他們就不會停歇,工程師們則爭分奪秒。

這也就是說,我們已經(jīng)沒有太多的時間。為了簡單概括一下我們面臨的危機,我可以列出這么一個等式:B×C×D=HH。其中B代表的是生物學(xué)知識,C代表的是計算機的能力,D代表數(shù)據(jù),HH代表的是“hack human”。

而人工智能的革命并不只是涉足人工智能領(lǐng)域,這也和生物學(xué)有關(guān),這是一種生物科技。人們更多的只是看到計算機和人工智能,這只看到了這個技術(shù)的一半,它的另一半則與腦科學(xué)、生物學(xué)方面的知識有關(guān)系。一旦你將其與人工智能聯(lián)系上,那么你將獲得hack human的能力。這里允許我解釋一下hack human是什么意思,其字面意思是“黑入人類”,它指的是創(chuàng)建一種算法,能比你自己更了解你自己,因此它能夠操縱你,完善你,甚至取代你。這正是我們哲學(xué)上的信仰,也就是人類的能動性和自由意志,具體表現(xiàn)為“用戶就是上帝”、“投票者最了解自己”等等,而一旦我們具備了這種能力,這種信仰就會四分五裂。

這種能力就一定是被用來操縱或取締人類的?它就不能用于完善人類嗎?

Yuval:它當然可以用來提高人類的能力。但問題是,誰來斷定,這種強化到底是往好的方向還是往壞的方向?所以我們首先需要確定的是,我們必須回歸到最傳統(tǒng)的人類理念,“用戶永遠是對的”,“用戶會自行決定自己的強化方向”;蛘哒f“投票者永遠是對的”,他們自己會決定政治上的決策。如果這種強化方向感覺不錯,那么就繼續(xù)做,我們只需要根據(jù)自己的想法去做事就好了。但如果人類被大規(guī)模地“被黑”,那么這種情況將不復(fù)存在。你甚至不敢相信自己的感覺和投票權(quán)。那些信奉自由意志的人反而最容易被操控,因為他們不認為自己會被操控。所以說我們應(yīng)該如何決策自己的改進方向,這是一個非常有深度的道德和哲學(xué)方面的問題——到底什么是“好”的。我們應(yīng)該強化自己身上的哪些方面。如果用戶不可信,投票不可信,自己的感覺也不可信,那我們該何去何從?

Yuval的公式是否成立?Yuval給我們指引的方向是否正確?

李飛飛:我非常羨慕哲學(xué)家,因為他們只需要提出問題,卻不一定要回答問題。作為一個科學(xué)家及工程師,我覺得我們現(xiàn)在有必要解決這個危機。

為什么在20年后人工智能會演化成一場危機?

這是一項革命性的技術(shù),它還處于萌芽階段,相比物理學(xué)、化學(xué)、生物學(xué),它還很不成熟。但在數(shù)據(jù)和計算機的支撐下,人工智能的確在改變?nèi)藗兊纳,影響深刻且廣泛。為了回答這些問題,以及應(yīng)對人類的危機,我們能否改變教育、研究以及與利用人工智能的方式,讓它變得“以人為本”?當然我們不急著今天就找到答案,但我們可以逐漸改變?nèi)祟悓W(xué)家、哲學(xué)家、歷史學(xué)家、政治科學(xué)家、經(jīng)濟學(xué)家等各行各業(yè)的人來研究和推動人工智能進入新的篇章。

人們認為AI會帶來很多危機,例如失業(yè)、歧視,甚至擔心AI會出現(xiàn)自己的意識,這意味著什么?

李飛飛:任何人類創(chuàng)造的技術(shù)最初都是一把雙刃劍。它能改善生活、工作,造福社會,但同時也會有不利的一面,人工智能也不例外。每天醒來我都要擔心各種問題,包括用戶的隱私、公正性,以及對勞動力市場的影響。我們必須考慮這些問題,但也正因為如此,我們要繼續(xù)研究,人工智能的開發(fā)策略和互動方式也不應(yīng)該局限于代碼和產(chǎn)品,還應(yīng)該考慮到人類的生存空間以及社會問題。因此我絕對同意開放對話,并針對這些問題進行研究。

Yuval:我一部分的憂慮正是源于對話。人工智能專家和哲學(xué)家、歷史學(xué)家、文學(xué)評論家對話,都可以。我最害怕的是他們與生物學(xué)家交流。當他們產(chǎn)生共同語言,才真正有可能入侵人類的思想。人工智能將不僅僅是搜集我們的搜索關(guān)鍵字、購買習(xí)慣和出行信息,它還會更深入一步,直接搜集我們內(nèi)心所想的數(shù)據(jù)。

AI的誕生,正是源于人工智能科學(xué)家與神經(jīng)科學(xué)家的對話。AI給醫(yī)療保健行業(yè)帶來了巨大的改善。機器學(xué)習(xí)幫助收集了大量的生理學(xué)和病理學(xué)數(shù)據(jù)。

Yuval:這只是其中的一部分。一門科學(xué)技術(shù)如果沒有任何收益,那么它就不會有任何危險,因為就沒有人去研究它。我認為AI會帶來巨大的利益,尤其是當它和生物學(xué)結(jié)合在一起的時候。目前全世界的醫(yī)療水平已經(jīng)達到了歷史以來的新高,數(shù)十億人只需要點一點手機就能獲得便宜、可靠的服務(wù)。這也是我們無法抗拒它的原因。盡管有人認為這會引發(fā)隱私方面的問題,但在隱私和健康比起來,顯然后者更重要。但我必須指出它帶來的危險。特別是硅谷地區(qū)的人,已經(jīng)習(xí)慣了AI帶來的好處,但他們很少考慮它的危害。

如果這種事情真的發(fā)生,那么我們生活中的所有決策都將源于算法。這將產(chǎn)生兩種形式的反烏托邦。我們所有的決策都將是由算法幫我們決定的。這不僅包括早晨吃什么、去哪里購物,還包括去哪里工作和學(xué)習(xí)、和誰約會、和誰結(jié)婚、投票給誰等。我想知道的是,人類思想中是否有什么東西是無法被機器入侵的,這種技術(shù)將來作出的決策是否會優(yōu)于人類。這是其中一種反烏托邦。還有則是,基于一個能監(jiān)控一切的系統(tǒng),我們將產(chǎn)生一種高度集權(quán)的政體,這類似于上個世紀出現(xiàn)過的集權(quán)政體,但借助生物傳感器,它能全天候地監(jiān)控到每一個人。

李飛飛:當你問我這個問題時,我腦海里蹦出來的第一個詞是“愛”。你覺得愛也會被機器取代嗎?

Yuval:這個問題得看你指的是哪一種愛。如果你指的是希臘哲學(xué)中的愛或者佛教中的愛,那么這個問題會更加復(fù)雜。如果你指的是生物學(xué)意義上的,與哺乳動物之間求偶有關(guān)的,那么我的回答是“yes”。

人類之所以是人類,那是因為我們不止會求偶,對嗎?這部分也會被機器取代嗎?

Yuval:我認為你在大多數(shù)科幻小說中看到過答案。當來自外星的邪惡機器人入侵地球時,人類節(jié)節(jié)敗退,但最后關(guān)頭人類絕地反擊,反敗為勝,因為機器不懂什么是愛。

李飛飛:科幻小說中通常是一個白種人拯救人類。Yuval所說的兩種反烏托邦,我找不到答案。但我要強調(diào)的是,正是因此,我們現(xiàn)在就要尋找解決方案,現(xiàn)在就要尋找人類學(xué)家、社會科學(xué)家、商業(yè)巨頭、公共社會和國家政府進行會談,聯(lián)手譜寫人工智能的新篇章。我認為你的確引發(fā)了人們對這場潛在危機的關(guān)注。但我覺得,除了面對它,更重要的是采取行動。

Yuval:我也覺得我們應(yīng)該讓工程師與哲學(xué)家、歷史學(xué)家進行更加密切的合作。從哲學(xué)的角度看,我認為工程師身上也存在一些很優(yōu)秀的東西。工程師們少說多做。哲學(xué)家們總喜歡弄一堆稀奇古怪的比喻。所以如果工程師問哲學(xué)家“你到底想表達什么?”那么這些理論大多都站不住腳,因為他們很少能解釋這些理論——我們需要的就是這種合作。

如果我們都不能解釋愛,不能用代碼來表達愛,那么AI可以感受它嗎?

Yuval:我不認為機器能感受到愛,但如果只是為了監(jiān)控、預(yù)測和操縱這種感受,那么機器也沒必要感受到它。正如機器不可能喜歡玩游戲,但它就是具備這種功能。

李飛飛:個人而言,我們這段對話存在兩個非常重要的前提。

第一,人工智能已經(jīng)達到了一個全知全能的地步,它具備了感知能力,甚至愛的能力。但我要強調(diào)的是,這和目前的人工智能存在非常遙遠的差距,這種技術(shù)還很不成熟,目前媒體對它的炒作居多,具體實施還需要很多年的努力。

第二,我們所處的這個世界將存在一個非常強大的人工智能,或者這個技術(shù)只屬于少部分人,然后他們企圖用它來統(tǒng)治全人類。但實際上,人類社會非常復(fù)雜,人類數(shù)量非常多。在歷史上,我們已經(jīng)見過很多科技落入少數(shù)惡棍手中,在缺少監(jiān)管、協(xié)作、法律法規(guī)和道德準則的約束下,這些技術(shù)的確給人們社會帶來了巨大的傷害。

但總體上看,我們的社會在朝著更好的方向發(fā)展,人們也更傾向于對話解決問題。所以我們不僅要談?wù)撊斯ぶ悄艹蔀椤叭祟惤K結(jié)者”的問題,也要談?wù)撘恍┭巯赂o急的問題:多樣化、隱私、勞動力、法律調(diào)整和國際政治等。

1  2  下一頁>  
聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負責(zé),如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號