訂閱
糾錯
加入自媒體

藏在GPT背后的治理分歧:那些贊同和反對的人們|AI百態(tài)(下篇)

2023-04-19 14:33
算力智庫
關注

AGI的火種正在燎原。

一面是無可否認的AI生產(chǎn)力,正在賦能千行百業(yè);而另一面,這團火似乎燒向了我們不可控的隱秘角落。

在《AI百態(tài)(上篇)——ChatGPT的“N宗罪”》中,我們提到監(jiān)管重錘在落下,意大利率先下達禁令,法國、愛爾蘭、德國等不少國家開始效仿,準備封殺ChatGPT,而加拿大隱私專員辦公室(OPC)就在近日宣布將對OpenAI展開調(diào)查,指控ChatGPT在未經(jīng)同意的情況下收集、使用和披露個人信息。

伴隨呼嘯而來的爭議和監(jiān)管風暴,GPT走在了命運的關口。

阿西莫夫的科幻世界中,在底層邏輯上給人工智能設置了三大定律,保證它們作為工具,無法威脅到主人。那么在新世界里,又該如何建立AI世界的文明守則呢?

繼續(xù)Or暫停?一場圍繞AI的激辯正在展開。

是為序。

若按外媒《Axios》的口風來看。

4月12日,在舊金山,本該有一場高規(guī)格的會議,由硅谷知名投資人& SV Angel創(chuàng)始人Ron Conway發(fā)起召集,而參與會議的來客皆是科技圈頂流巨頭——OpenAI、Google、Microsoft、Stability AI、Nvidia、Hugging Face、Anthropic、Apple......這次聚首將Battle搬到了臺面上,目標直指如何建立盡責又安全的AI。

而這出戲的前傳則始于一封題為《暫停巨型人工智能實驗》的“千人聯(lián)名”公開信,馬斯克、圖靈獎得主Yoshua Bengio、Stability AI首席執(zhí)行官Emad Mostaque、紐約大學教授馬庫斯,以及《人類簡史》作者Yuval Noah Harari、蘋果聯(lián)合創(chuàng)始人等多名大佬簽名呼吁暫停開發(fā)強大的人工智能(AI)系統(tǒng),以便有時間確保它們的安全,他們還為這次暫停定了個時間:至少六個月。

這份極具分量的公開信一舉將AI送上了風口浪尖,而隨后比爾蓋茨也公開回應:暫停人工智能發(fā)展的呼吁解決不了未來的挑戰(zhàn)。蓋茨稱,大家關注的焦點應該是如何最大程度上利用好人工智能的發(fā)展,停止人工智能的發(fā)展是很難實現(xiàn)的事情。

針尖對麥芒,盡管截至算力智庫發(fā)稿前,并沒有關于此次“硅谷會議”的更多消息流出,但顯而易見,關于ChatGPT,關于AI,仿佛歷史的車輪已經(jīng)駛向了關乎人類福祉的抉擇時刻,支持者,反對者,激進者、觀望者或者還有另有目的者,各持主張,論戰(zhàn)正酣,以試圖影響AI的發(fā)展進程。

反對派 VS 支持派

反對派舉的旗幟是什么?在他們看來:

1、AI有可能會造成信息污染和擠壓就業(yè)空間

2、人類會陷入一場失控競賽,對于更強大的AI,沒有人能理解、預測和控制。

3、只有確信AI的影響是正面且風險可控的時候,才能去開發(fā)更強大的AI系統(tǒng)

4、從危險的競賽中退一步,避免研究更大、更難以預測、具有突現(xiàn)性能力的黑箱模型。

公開信指出:正如大量研究表明的那樣,具有人類競爭智能的人工智能系統(tǒng)會對社會和人類構成深刻的風險。就連OpenAI創(chuàng)始人Sam Altman也說,無法理解GPT-4的進化邏輯。如果人類無法預測AI的下一步發(fā)展,不知道它未來是好是壞,那么確實應該更加謹慎。

按照公開信的提議,在暫停期間,人工智能實驗室和獨立專家應該共同開發(fā)一套用于高級人工智能設計和開發(fā)的共享安全協(xié)議,并由獨立的外部專家進行嚴格審計和監(jiān)督。如果這種暫停不能迅速頒布,各國政府應該介入并制定暫停令。

反對派的聲浪裹挾著監(jiān)管層的動作,4月11日,據(jù)《華爾街日報》報道,拜登政府已經(jīng)開始研究是否需要對ChatGPT等人工智能工具實行檢查。作為潛在監(jiān)管的第一步,美國商務部4月11日就相關問責措施正式公開征求意見,包括新人工智能模型在發(fā)布前是否應經(jīng)過認證程序,征求意見期限為60天。一家非營利性研究機構人工智能和數(shù)字政策中心(Center for AI and Digital Policy,CAIDP)也將狀告到了美國政府部門。他們要求聯(lián)邦貿(mào)易委員會(簡稱 FTC)調(diào)查 OpenAI,聲稱這家新貴公司發(fā)布了 GPT-4,違反了商業(yè)法,同時他們認為該產(chǎn)品具有欺騙性并將人們置于危險之中。

反對派認為當下的AI是猛獸,野性十足,還有待馴服,這點“AI支持派”不置可否。

而較為激烈的爭執(zhí)之一則是是否要讓政府直接重度介入,吳恩達——反對“反對派”的陣營中的大拿代表,同時也是當前人工智能和機器學習領域的一方泰斗,谷歌大腦的締造者、世界上最大的在線學習平臺之一Coursera的創(chuàng)始人。他直接反駁了馬斯克等人要求政府介入干預的觀點:讓政府暫停他們不了解的新興技術是反競爭的,這會樹立一個可怕先例,是糟糕的創(chuàng)新政策,尤其是對6個月的暫停期他表達的了強烈的反感。

這位著名學者認為:提高人工智能安全性的解決方法,應該是圍繞透明度和審計建立更加實用的法規(guī),而不是政府“因噎廢食”般的一紙禁令。

“政府的手可以伸,但利用政府之手來消滅市場矛盾,其實是諾斯悖論的體現(xiàn),最極端的結果是創(chuàng)新失活,經(jīng)濟倒退,而或許別有用心者借國家暴力機器來打壓對手為自己謀得時間機會,這個口子一旦打開,風險遠比AI更甚”。一位業(yè)內(nèi)專家向算力智庫坦言。

一直以來性格溫和的吳恩達此番言辭激烈的表態(tài)并不多見。在他的推文下面,Meta數(shù)據(jù)科學家林致遠,英偉達AI研究科學家Jim Fan也表示了贊同和支持。

而更核心的分歧則是,一眾學者認為反對派在混淆認知,散布AI威脅論,其意是想鼓動公眾情緒,卻并沒有在正視如何解決問題。Hugging Face 的研究科學家兼氣候負責人 Sasha Luccioni 表示,“這(公開信)本質(zhì)上是誤導:讓每個人都注意到 LLM (大型語言模型)的假設權力和危害,并提出一種(非常模糊和無效的)解決方法,而不是此時此地正確看待風險并嘗試解決這些問題——例如,在 LLM 出現(xiàn)時,可以要求相關企業(yè)對 LLM 的訓練數(shù)據(jù)和能力實行更高的透明度 ,或有關何時何地可以使用它們進行立法。”

華盛頓大學語言學系教授、公開信中引用的第一篇論文的共同作者 Emily M. Bender 在推特上表示,這封公開信摻雜了“Aihype”(AI炒作),她也認為問題的癥結,不是AI本身,而是更要提防AI背后的人和權力體系,Bender 反駁說:“我們在 2020 年底寫了一篇論文《隨機鸚鵡》(2021年發(fā)表),指出這種不考慮風險就一頭扎進越來越大的語言模型的做法是一件壞事。但風險和危害從來都不是關于‘太強大的人工智能’本身,相反,它們是關于權力集中在人的手中,關于壓迫制度的再現(xiàn),關于對信息生態(tài)系統(tǒng)的損害,以及關于對自然生態(tài)系統(tǒng)的損害(通過對能源資源的暴殄天物)。”

相比吳恩達等人旗幟鮮明的反對公開信的主張之外,還有另一位人工智能領域大神級人物也亮明了自己的觀點,他就是圖靈三巨頭之一,卷積之父楊立昆,不過他的出發(fā)點,是在于:公開信無用,人類叫停不了AI。

他在推特上表示,自己并未簽署這封公開信,“我沒簽,我不同意這封信的前提。”之后,他通過網(wǎng)友的推文繼續(xù)表露反感。一位網(wǎng)友表示,OpenAI足足等了6個月,才發(fā)布了GPT4,而他們甚至為此還寫了一份白皮書。楊立昆轉發(fā)了這條推文并附上了自己的評論:所謂“暫停研發(fā)”,不過就是“秘密研發(fā)”,這與一些公開信簽名者所希望的會恰恰相反。

的確,暫停巨型AI實驗就像是一個幌子,人類過去的歷史證明,在國際競爭的語境下,“你有我無”的這種情況是不被允許的,“你有我也必須有”,擁核國家牽頭制定“核不擴散條約”,但所有人放棄了核武器嗎?并沒有,猜疑鏈已形成,這種足以帶來先進生產(chǎn)力甚至下一代科技革命的超級AI工具,沒有國家會試圖放棄和叫停。

國外Reddit論壇上的一條評論已經(jīng)能說明這一問題:Guess who’s not gonna stop:China。國內(nèi)科技界的聲音似乎也在印證這點,360創(chuàng)始人周鴻祎在微博上回應馬斯克請愿叫停GPT-5研發(fā)一事,“不管你愿不愿意,GPT都將引領一場新的工業(yè)革命,意義超越互聯(lián)網(wǎng)和iPhone的發(fā)明。它將帶來生產(chǎn)力的大幅提升,進而提升國家競爭力。中國一定要迎頭趕上。”周鴻祎表示。

周鴻祎也承認,最近人工智能的指數(shù)級躍變確實有點讓人措手不及。對于馬斯克的請愿信,他不了解內(nèi)幕,但猜測是GPT的進化路上出現(xiàn)了超乎人類想象的現(xiàn)象。對于人類如何應對AI帶來的未來安全挑戰(zhàn),誰也沒法給出確定答案,但做安全出身的他堅定認為,不發(fā)展才是最大的不安全。

值得一提的是,在這場各派系此起彼伏的不休爭論中,伴隨著支持派的高密度游說,監(jiān)管層面的信號似乎也有所松動。

當?shù)貢r間4月12日,意大利數(shù)據(jù)保護局 (Garante)提出了一系列聊天機器人ChatGPT在該國恢復使用的要求。并表示,在解決監(jiān)管機構的擔憂后,意大利當局將暫停對OpenAI處理該國用戶數(shù)據(jù)的臨時限制令,OpenAl也將再次在意大利開放。根據(jù)Garante的要求,OpenAI必須在其網(wǎng)站上發(fā)布信息,說明它如何以及為什么處理用戶和非用戶的個人信息,并提供更正或刪除這些數(shù)據(jù)的選項。

即便OpenAI作為這場唇槍舌劍的靶子,首當其沖,但不得不承認這波技術炒作周期還是讓OpenAI吃足了紅利。在持續(xù)的熱度下,一些競爭對手和企業(yè)利用OpenAI開發(fā)的生成式AI軟件制作應用。使用OpenAI技術需要獲得授權,拿到授權要付費,一美分或者稍多能生成2萬單詞的文本,按照書面提示生成一張圖片大約要2美分。根據(jù) PitchBook 的數(shù)據(jù),OpenAI 今年營收將達到 2 億美元,比 2022 年增長 150%,2024 年將達到 10 億美元,這意味著增長 400%,公司估值達到200億美元。

Reaction背后的“不同算盤“

公共場域的議論,從來都是箭無虛發(fā),每一支箭頭的去向,都藏著利益相關者的訴求。

人工智能領域的資深作家莎倫·戈爾德曼指出,企業(yè)高管并不擔心人工智能摧毀人類,他們只關心人工智能和機器學習是否能提高工人的工作效率、優(yōu)化客戶服務。

OpenAI的首席執(zhí)行官Sam Altman一邊宣稱他“有點害怕”公司的人工智能技術,一邊“正幫助建設和盡可能廣泛地推廣技術,以獲取利潤”。洛杉磯時報表示:一個高調(diào)的技術公司的首席執(zhí)行官或高管,反復在公眾舞臺上渲染對自己正在建設和銷售的產(chǎn)品的擔憂,這種行為背后的邏輯只能是“關于人工智能可怖力量的世界末日論有助于他的營銷戰(zhàn)略”。

深諳此套路的不止Sam Altman,馬斯克堪稱“AI威脅論”的擁躉,在各種公開場合貢獻了不少激進語錄,譬如“AI對人類文明的威脅程度遠高于車禍、飛機失事、毒品泛濫等、人工智能可能引發(fā)第三次世界大戰(zhàn)、通過人工智能,我們正在召喚惡魔、人工智能要比核武器危險得多、未來AI若達到人類智商水平并掌握了財政、武器及關鍵基礎設施,將有可能摧毀文明甚至毀滅人類”。但在炮制AI恐怖論的另一邊,馬斯克在美國內(nèi)華達州成立了一家名為X.AI的人工智能(AI)公司,旨在與聊天機器人ChatGPT的開發(fā)公司Open AI展開競爭。內(nèi)華達州備案文件顯示,馬斯克是為X.AI的唯一董事。

似乎這封公開信成為了一出“緩兵之計”,潛臺詞是:在AI這條跑道,等等我,先停一下,再過6個月,我就能趕上你們了。

前白宮科技政策辦公室助理主任文卡塔蘇尼安認為,“很多偽裝成技術討論的東西,背后都有一個巨大的政治議程。” 圍繞人工智能的討論已經(jīng)從技術和科學領域轉移到了政治和權力領域。

的確,這場AI之爭的戰(zhàn)線,并沒有止戈于科技圈,在AI的陣地上,各國都意在借此機會,搶奪話語權。

歐盟首先打響了第一槍,意大利之后,德國,法國、愛爾蘭、西班牙等歐洲國家都勢在收緊對AI的監(jiān)管,隱私安全只是其因一,更深層次的原因或許是從《通用數(shù)據(jù)保護條例》(GDPR)到《數(shù)字市場法案》一脈相承的理念,即在互聯(lián)網(wǎng)世界里建立歐盟的數(shù)字邊疆。

據(jù)悉,在歐盟逐步制定全世界最具約束性的人工智能管理方法之際,歐洲議會準備對人工智能的使用實施嚴厲的新措施,其中包括要求聊天機器人開發(fā)商披露他們是否使用了受版權保護的材料。此舉旨在讓內(nèi)容創(chuàng)作者有權獲得報酬,議員們還希望,誤用或濫用人工智能項目的責任由OpenAI這樣的開發(fā)者而不是使用人工智能的小企業(yè)來承擔。

很顯然,歐盟對于ChatGPT強硬態(tài)度的背后,是對美國科技巨頭在歐洲攫取用戶數(shù)據(jù)并大獲其利的長期積怨,如今在互聯(lián)網(wǎng)世界,諸如Facebook、Amazon、Microsoft、Apple、騰訊、阿里巴巴、字節(jié)跳動等叫得上號的科技巨頭都是來自中美,歐盟則幾乎是互聯(lián)網(wǎng)時代的失意者,此舉或許是想為本土的生成式人工智能留足生存空間。

此前,歐盟對谷歌、蘋果、Facebook、亞馬遜和微軟等美國科技巨頭都提出過多項重大指控,其中包括濫用個人數(shù)據(jù)、扼殺競爭、未繳納足夠稅款、竊取媒體內(nèi)容以及通過傳播虛假新聞等。

而作為既得利益者的美國,在AI監(jiān)管方式的選擇上,美國更強調(diào)AI的創(chuàng)新和發(fā)展,以維護美國作為全球AI創(chuàng)新領導者的地位,因此對于立法監(jiān)管采取非常謹慎的態(tài)度,因此更傾向于通過組織自愿適用的指引、框架或標準等非監(jiān)管方法對AI應用采取軟治理。

美國NIST在今年1月26日發(fā)布的《AI風險管理框架1.0》便是例子,其遵循的思路主要是“基于風險的治理”,在美國的這份框架中,包括治理、映射、測量和管理的四個部分,治理指要在組織的制度流程、組織建設、組織文化、技術能力等方面踐行AI風險管理框架;映射主要用于確定特定場景與其對應的AI風險解決方案;測量主要采用定量和/或定性的工具、技術和方法來分析、評估、測試和監(jiān)控AI風險及其相關影響;管理主要是將相關資源分配給相應的AI風險,進行風險處置。從這份框架以及美國4月頒布的《人工智能問責政策征求意見》可以看出美國在制定人工智能監(jiān)管方面政策時,重點在于問責明確。

值得關注的是,與歐盟相同,美國也拒絕對AI應用進行無差別監(jiān)管,強調(diào)應根據(jù)AI應用帶來的風險和后果進行差異化的分級監(jiān)管。

與此同時,4月11日,中國國家互聯(lián)網(wǎng)信息辦公室也下發(fā)了《生成式人工智能服務管理辦法(征求意見稿)》的通知,其透露的監(jiān)管思路也是“基于風險的管理”,重點體現(xiàn)在對作為AI核心技術的數(shù)據(jù)和算法的監(jiān)管上,目前已有《數(shù)據(jù)安全法》《個人信息保護法》《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》等法規(guī)有交叉涉及,但尚未有一個專門針對AI的整體立法框架。

人工智能需要“鎖在籠子里”,但鎖住后的結果會如愿嗎?

研究表明,歐盟的人工智能法案的實施成本將吞噬歐洲人工智能投資的17%,目前該風險并非僅是理論性存在。2020年6月歐盟進展報告顯示《通用數(shù)據(jù)保護條例》實施的碎片化和各實施機構的資源投入不足,不僅導致其生效的附加治理的效應不足,還降低了進入歐洲市場的風投資本規(guī)模,谷歌在歐洲的市場份額不僅沒有下降,反而劇增!锻ㄓ脭(shù)據(jù)保護條例》的實踐證明嚴格的標準正在產(chǎn)生意外的后果。

而今AI法案即將落定,作為全球首部人工智能立法,其效力范圍不僅局限于歐盟范圍內(nèi),而且有廣泛的域外效應,不僅是歐盟統(tǒng)一大市場的規(guī)模讓任何企業(yè)都無法忽視AI法案,更重要的是在新技術領域內(nèi)規(guī)范影響力的獨特的路徑依賴效應,一旦規(guī)則形成將難以撼動。正如歐盟《通用數(shù)據(jù)保護條例》所顯示的,歐洲規(guī)則很快成為在數(shù)據(jù)保護領域內(nèi)的國際標準,這種意外的后果很難說不會再發(fā)生在人工智能身上,屆時吹響的不知道該是AI的哀歌?還是號角?

       原文標題 : 藏在GPT背后的治理分歧:那些贊同和反對的人們|AI百態(tài)(下篇)

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號