訂閱
糾錯
加入自媒體

人工智能的虛火燒出一地尸骨

4

人工智能的概念滿天飛,除了暗下以“人工”代替“人工智能”的造假,還有大量把數(shù)據(jù)分析當做人工智能的公司滿天飛。這些公司一般的演變路徑是:小數(shù)據(jù)分析公司——大數(shù)據(jù)公司——人工智能公司,實際上他們除了名稱在演變外,實際上的工作幾乎沒有發(fā)生變化。

很多人錯誤地認為,一家公司的業(yè)務只要與數(shù)據(jù)有關(guān),就可以被稱為人工智能。其實區(qū)別人工智能公司和一般數(shù)據(jù)分析公司的關(guān)鍵在于:人工智能系統(tǒng)具有迭代性,分析的數(shù)據(jù)越多,系統(tǒng)就會變得越智能。比如,Google大力研發(fā)的自動駕駛系統(tǒng)是人工智能,因為它可以根據(jù)車輛在路上的行駛里程來不斷完善自己。但如果只是根據(jù)數(shù)據(jù)來分析什么時候送外賣最好,就不是人工智能。因為前者會迭代和自我學習,而后者不會。

一般而言,一個人工智能項目如果隔三個月去看,它在算法上的進步只是代數(shù)級,而不是幾何級的,那么它更像是普通算法,就是偽人工智能。強的人工智能一定是進步神速,因為它本身會實現(xiàn)自我進化。

但實際上要實現(xiàn)這種自我進化,目前看起來還顯得相當艱難,即使目前拿最火熱的深度學習技術(shù)也讓人看不到很明顯的方向。2018年8月,在以“共享全球智慧,引領未來科技”為主題的世界科技創(chuàng)新論壇上,諾貝爾經(jīng)濟學獎獲得者Thomas J. Sargent表示:當前的人工智能其實就是統(tǒng)計學,只不過用了一個很華麗的辭藻,好多的公式都非常老。

被譽為“硅谷精神布道師”的皮埃羅·斯加魯菲(Piero Scaruffi)是全球人工智能及認知科學專家,他也認為:“人工智能最大的問題是沒有常識,人們已經(jīng)花了幾十年去嘗試解決這個問題,可能我們的方法用錯了,F(xiàn)在所有的重點都在深度學習,但深度學習不能獲取常識。深度學習只是收集許許多多的數(shù)據(jù),基本上做的是統(tǒng)計工作!

5

當然,并不是所有的公司都只是打著人工智能的旗號,做著騙取資本的事情,而是實實在在在做一些推動人工智能發(fā)展的工作。但是,一些人工智能探索的方向仍然是值得警惕的。

比如,一些人工智能似乎走向了一個不是那么正確的方向:一味追求和人很像。如果真的很像了,又能怎么樣呢?事實上,人越覺得輕而易舉的事情,機器越覺得困難,比如走路,比如平衡感,比如情感。而人覺得越難的事情,機器覺得越簡單,比如大型數(shù)據(jù)處理能力,記憶等等。所以,人工智能的方向也許應該是替代那些人覺得難的部分,而非替代人覺得容易的部分。

人工智能有兩種應用形態(tài):一種是弱人工智能,即只擅長單個領域,比如只會下圍棋的AlphaGo;另一種是強人工智能,即各方面都很強。現(xiàn)階段,弱人工智能比人強,強人工智能比人弱,且非常不成熟。

人工智能的好處,不是說他們比人聰明,而是他們的思維方式和人類不一樣,因為人工智能的發(fā)展方向并不是強調(diào)它跟人類如何像,而是補充與增強人類智慧。人的思維方式只是具體的某一種思維方式,而世界上還有許多思維方式。凱文·凱利在此前的《科技想要什么》一書中,就把科技描述成生命的第七種存在方式,就像人類已經(jīng)定義的六種生命形態(tài),植物、動物、原生生物、真菌、原細菌、真細菌一樣,科技也是一種具備自主進化能力的生命。

另外,人工智能要真正實現(xiàn)助推人類的發(fā)展,必須還要具有跟人類情感交互的能力,否則就永遠是一件機器。人和人之間互動之所以有意義,是因為人類互動的百分之七八十都是情緒。

人和人之間之所以能夠感受到相互的感情溝通和交流,是因為我們大腦有一組叫做鏡像的神經(jīng)元,它的作用就是當對方臉上出現(xiàn)或者快樂或者悲傷或者焦慮的各種表情的時候,你的臉上下意識的就會呈現(xiàn)出同樣的表情跟他來呼應。人工智能盡管獲得了一些發(fā)展,但是在解決情緒方面還有很大的差距。如果情緒問題沒有進入人工智能底層,人工智能終究只是一個機器配置,無法獲得人類的交互。

因此,人工智能需要情緒鏡像的技術(shù),用攝像頭來捕捉人類的面部表情,再通過算法來理解人類的情緒,然后以情緒與人類進行交互。

6

人工智能一定是未來的方向,這點毋庸置疑。但是我們短時間,切記不可期望過高,否則可能又是一地的“尸骨”。

我們不要馬上就期待看到路上不需要人工駕駛的汽車。其實,我們離那個時代還很遠。坦率地講,當前的人工智能領域就像是一杯搖晃很久的啤酒,既有真酒,更多是存在很大的泡沫。人工智能就像早期的互聯(lián)網(wǎng)一樣,成為了圈錢的金字招牌。

曾在IBM研究院和沃森團隊工作了15年的Michelle Zhou把人工智能分為三個階段:第一個階段是識別智能,更強大的計算機和更強大的算法,可以從大量文本中識別模式和主題;第二個階段是認知智能機器超越模式識別,能夠從數(shù)據(jù)中做出推論;第三個階段是機器可以像人類一樣思考和行動。

目前我們還處在第一階段,所有的人工智能都依賴人類提供數(shù)據(jù),無論是計算機視覺還是語音識別都是如此。

至少到現(xiàn)在為止,很多宣稱是人工智能的東西,也許叫做“機器自動”會更好。智能時代還遠沒有來臨。

即使那一天來臨,我們也要時刻警惕兩點:一是因為個別機構(gòu)或群體對人工智能的掌控,造成的整體社會權(quán)利的失衡。二是人工智能的暴力傾向。

英國哲學家羅素曾說:物理學中的基礎概念是能量,而社會科學中的基礎概念是權(quán)力,對社會動力學規(guī)律的闡釋一定離不開權(quán)力。中世紀的社會活動家馬基雅維利從當時殘酷的社會現(xiàn)實出發(fā),指出權(quán)力就其本質(zhì)而言,與暴力、欺騙、殘酷和戰(zhàn)略侵犯密不可分,越能掌握這種工具的群體就會擁有越大的權(quán)力。一旦失去暴力、欺騙、殘酷和戰(zhàn)略侵犯等手段,就失去了權(quán)力存在的基礎。

作為未來基礎工具的人工智能,由于內(nèi)核只可能被極少數(shù)的群體掌握,去影響人們生活的方方面面,因而會使人類之間已然失衡的權(quán)力變得更加失衡。

另外,隨著人工智能技術(shù)的進步,未來可能一個普通人也具有了廣泛制造暴力的能力。比如隨著面部識別、無人機導航等開源技術(shù)的傳播,使一些犯罪分子利用這些技術(shù)實施犯罪成為了可能。想象一下,如果一架自動飛行的無人機具備了面部識別能力,然后針對目標對象精準發(fā)動攻擊,世界將會如何呢?

7

盡管人類離人工智能社會還很遙遠,但是人工智能的發(fā)展還是帶來了一些恐懼。2018年3月,Google被披露與軍方合作,引起大量員工抗議,受到各路抨擊。作為回應,Google CEO桑達爾 · 皮查伊(Sundar Pichai)在2018年6月宣布了他們使用人工智能的七項原則,以及四條底線。

這七項原則具體內(nèi)容包括:①對社會有益;②避免制造或加劇社會偏見;③提前測試以保證安全;④由人類承擔責任,即AI技術(shù)將受到適當?shù)娜祟愔笇Ш涂刂;⑤保證隱私;⑥堅持科學的高標準;⑦從主要用途、技術(shù)獨特性、規(guī)模等方面來權(quán)衡。

四條底線是:①對于那些將產(chǎn)生或者導致傷害的整體性技術(shù),我們會確保其利大于弊,并將做好確保安全的相關(guān)限制;②不會將AI用于制造武器及其它將會對人類產(chǎn)生傷害的產(chǎn)品;③不會將AI用于收集或使用用戶信息,以進行違反國際公認規(guī)范的監(jiān)視;④不會將AI用于違反國際法和人權(quán)的技術(shù)開發(fā)。

這不應是Google一家公司的原則與底線,而是所有從事開發(fā)人工智能公司的原則與底線。只有這樣,人工智能才是造福人類的工具,而不是毀滅自己的工具。

作者 | 劉國華

<上一頁  1  2  
聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負責,如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號