降低人工智能導致人類滅絕的風險,應該與流行病及核戰(zhàn)爭等其他社會規(guī)模的風險一起,成為全球優(yōu)先事項" />
訂閱
糾錯
加入自媒體

層出不窮的AI問題,該如何監(jiān)管?

2023-09-18 13:56
根新未來
關注

文/陳根

今年5月,人工智能安全中心曾發(fā)布一份由350位人工智能領域的科學家與企業(yè)高管聯(lián)名簽署的《人工智能風險聲明》,聲明稱降低人工智能導致人類滅絕的風險,應該與流行病及核戰(zhàn)爭等其他社會規(guī)模的風險一起,成為全球優(yōu)先事項。彼時,由 OpenAI、谷歌和微軟等公司的數(shù)百名首席執(zhí)行官和科學家簽署的這一句援引人類滅絕威脅的話,也成為了全球頭條新聞。

4個多月過去,今天,社會對人工智能技術的擔憂不減反增。隨著以ChatGPT為代表的大模型進入應用,人們越來越意識到它的危險性:它有可能制造和傳播錯誤信息;它有能力取代或改變工作崗位;以及它變得比人類更智能并取代人類的風險。如何對人工智能技術進行監(jiān)管已成為當前迫在眉睫的全球議題。

 

層出不窮的問題

從來沒有哪項技術能夠像人工智能一樣引發(fā)人類無限的暢想,而在給人們帶來快捷和便利的同時,人工智能也成為一個突出的國際性的科學爭議熱題,人工智能技術的顛覆性讓我們也不得不考慮其背后潛藏的巨大危險。

早在2016年11月世界經濟論壇編纂的《全球風險報告》列出的12項亟需妥善治理的新興科技中,人工智能與機器人技術就名列榜首。尤瓦爾·赫拉利在《未來簡史》中也曾預言,智人時代可能會因技術顛覆,特別是人工智能和生物工程技術的進步而終結,因為人工智能會導致絕大多數(shù)人類失去功用。

究其原因,人工智能技術不是一項單一技術,其涵蓋面及其廣泛,而“智能”二字所代表的意義又幾乎可以代替所有的人類活動。就當前的現(xiàn)實來說,生成式人工智能的爭議性主要集中在對人們的隱私權構成新的挑戰(zhàn),使內容造假或者作惡的門檻降低。

比如,前段時間,在互聯(lián)網平臺,“AI孫燕姿”翻唱的《發(fā)如雪》《下雨天》等走紅,抖音平臺上也出現(xiàn)了“AI孫燕姿”的合集。很快,“AI周杰倫”“AI王菲”等也都相繼問世。“AI歌手”主要是利用AI技術提取歌手的音色特征,對其他歌曲進行翻唱。但“AI歌手”是否涉及侵權卻并無定論,也無監(jiān)管。

與“AI歌手”相似的,是AI繪畫。AI繪畫是指利用AI技術來生成內容的新型創(chuàng)作方式,同樣因著作權的歸屬問題頻頻惹出爭議,遭到大批畫師抵制。全球知名視覺藝術網站ArtStation上的千名畫師曾發(fā)起聯(lián)合抵制,禁止用戶將其畫作投放AI繪畫系統(tǒng)。

 

除了AI歌手和AI繪畫外,AI寫書、AI新聞采編也越來越多的出現(xiàn)在互聯(lián)網中,此前,就有網友發(fā)現(xiàn),亞馬遜網上書店有兩本關于蘑菇的書籍AI所創(chuàng)造這兩本書的作者,署名都為 Edwin J. Smith,但事實上,根本不存在這個人。書籍內容經過軟件檢測,85% 以上為 AI 撰寫。更糟糕的是,它關于毒蘑菇的部分是錯的,如果相信它的描述,可能會誤食有毒蘑菇。紐約真菌學會為此發(fā)了一條推特,提醒用戶只購買知名作者和真實采集者的書籍,這可能會關系到你的生命。

AI合成除了引發(fā)版權相關的爭議,也讓AI詐騙有了更多的空間。當前,AIGC的制作成本越來越低,也就是說,誰都可以通過AIGC產品生成想要的圖片或者其他內容,但問題是,沒有人能承擔這項技術被濫用的風險。今年以來,已經有太多新聞,報道了AI生成軟件偽造家人的音頻和視頻,騙錢騙財。據FBI統(tǒng)計,AI生成的DeepFake在勒索案中已經成為了不可忽視的因素,尤其是跟性相關的勒索。當假的東西越真時,我們辨別假東西的成本也越大。

AI技術同時也引發(fā)了數(shù)據安全的爭議。比如,今年6月,由16人匿名提起訴訟,聲稱OpenAI與其主要支持者微軟公司在數(shù)據采集方面違背了合法獲取途徑,選擇了未經同意與付費的方式,進行個人信息與數(shù)據的收集。起訴人稱,OpenAI為了贏得“AI軍備競賽”,大規(guī)模挪用個人數(shù)據,非法訪問用戶與其產品的互動以及與ChatGPT集成的應用程序產生的私人信息,根據這份長達157頁的訴訟文件,OpenAI以秘密方式從互聯(lián)網上抓取了3000億個單詞,并獲取了“書籍、文章、網站和帖子——包括未經同意獲得的個人信息”,行為違反了隱私法。

顯然,盡管ChatGPT稱得上是一項革命性的突破,但其與其他生成式AI應用對人類社會造出的風險也是不可忽視的。

全球醞釀監(jiān)管措施 

隨著AI風險的凸顯,各國也把對于AI的監(jiān)管提上日程。

斯坦福大學發(fā)布的《2023年人工智能指數(shù)報告》中提到,對127個國家立法記錄調研的結果顯示,包含“人工智能”的法案被通過成為法律的數(shù)量,從2016年的僅1個增長到2022年的37個。報告對81個國家2016年以來的人工智能法律法規(guī)記錄的分析也同樣表明,全球立法程序中提及人工智能的次數(shù)增加了近6.5倍。

具體監(jiān)管方面,歐洲議會在今年6月,率先通過了一項名為《人工智能法案》(AI Act)的法律草案,該法案將對被視為該技術最危險的用途施加新的限制——投票禁止實時遠程生物識別技術,歐盟禁令意味著不能在公共場合實時人臉掃描;同時要求OpenAI和谷歌等公司必須進行風險評估,并披露更多用于創(chuàng)建程序的數(shù)據。不僅如此,《人工智能法案》將人工智能風險分為不可接受的風險、高風險、有限的風險和極小的風險四級,對應不同的監(jiān)管要求。

在美國,7月21日,包含亞馬遜、谷歌、微軟、OpenAI、Meta、Anthropic和Inflection在內的7家人工智能巨頭公司參與了白宮峰會,這些公司的代表與美國總統(tǒng)拜登會面,為防范AI風險做出8項承諾。

其中有一項內容很有意思,這7家AI巨頭聯(lián)合宣布——將會開發(fā)出一種水印技術,在所有AI生成的內容中嵌入水印。OpenAI在官網中表示,將會研發(fā)一種水印機制,加入到視頻或音頻中。還會開發(fā)一種檢測工具,判斷特定內容是否含有系統(tǒng)創(chuàng)建的工具或API。谷歌也表示,除了水印以外,還會有其它創(chuàng)新型技術,把關信息推廣。

就國內來看,今年4月11日,國家網信辦起草《生成式人工智能服務管理辦法(征求意見稿)》,到7月13日,國家網信辦聯(lián)合國家發(fā)展改革委、教育部、科技部、工業(yè)和信息化部、公安部、廣電總局發(fā)布《生成式人工智能服務管理暫行辦法》,僅僅用了3個月的時間,并且自2023年8月15日起施行。

與此同時,《辦法》做出了一系列的規(guī)范和管理措施,《辦法》明確了提供和使用生成式人工智能服務的總體要求,提出國家堅持發(fā)展和安全并重、促進創(chuàng)新和依法治理相結合的原則,采取有效措施鼓勵生成式人工智能創(chuàng)新發(fā)展,對生成式人工智能服務實行包容審慎和分類分級監(jiān)管。

也讓我們看到,面對AI技術挑戰(zhàn),人類已經開始了自律行動,目的就是讓AI更好的服務于人類社會。正如以往的任何一次工業(yè)革命,盡管都對人類社會帶來了巨大的影響,也存在一些負面?zhèn)Γ祟愖罱K都能在技術的協(xié)同中,將正向價值發(fā)揮到最大,并且最大程度的通過一些規(guī)則來降低技術的負面影響。

同樣,在AI技術所引發(fā)的第四次工業(yè)革命浪潮下,盡管目前我們還不清楚技術的潛在負面,但對于已經預見到的潛在影響,人類已經在尋找解決方案。

 

人工智能向善發(fā)展

其實,不管監(jiān)管會怎樣前進,最終目的都是引導人工智能向善發(fā)展,只有人工智能向善,人類才能與機器協(xié)同建設人類文明。當然,這個問題本身并不復雜,本質上來看,作為一種技術,人工智能并沒有善惡之分,但人類卻有。

可以預見,隨著ChatGPT的進一步發(fā)展,人工智能還將滲透到社會生活的各領域并逐漸接管世界,諸多個人、企業(yè)、公共決策背后都將有人工智能的參與。而如果我們任憑算法的設計者和使用者將一些價值觀進行數(shù)據化和規(guī)則化,那么人工智能即便是自己做出道德選擇時,也會天然帶著價值導向而并非中立。

說到底,ChatGPT是人類教育與訓練的結果,它的信息來源于我們人類社會。ChatGPT的善惡也由人類決定。如果用通俗的方式來表達,教育與訓練ChatGPT正如果我們訓練小孩一樣,給它投喂什么樣的數(shù)據,它就會被教育成什么類型的人。這是因為人工智能通過深度學習 “學會”如何處理任務的唯一根據就是數(shù)據。

因此,數(shù)據具有怎么樣的價值導向,有怎么樣的底線,就會訓練出怎么樣的人工智,如果沒有普世價值觀與道德底線,那么所訓練出來的人工智能將會成為非常恐怖的工具。而如果通過在訓練數(shù)據里加入偽裝數(shù)據、惡意樣本等破壞數(shù)據的完整性,進而導致訓練的算法模型決策出現(xiàn)偏差,就可以污染人工智能系統(tǒng)。

有報道表示,ChatGPT在新聞領域的應用會成為造謠基地。這種看法本身就是人類的偏見與造謠。因為任何技術的本身都不存在善與惡,只是一種中性的技術。而技術所表現(xiàn)出來的善惡背后是人類對于這項技術的使用,比如核技術的發(fā)展,被應用于能源領域就能成為服務人類社會,能夠發(fā)電給人類社會帶來光明。但是這項技術如果使用于戰(zhàn)爭,那對于人類來說就是一種毀滅,一種黑暗,一種惡。人工智能由人創(chuàng)造,為人服務,這也將使我們的價值觀變得更加重要。

過去,無論是汽車的問世,還是電腦和互聯(lián)網的崛起,人們都很好地應對了這些轉型時刻,盡管經歷了不少波折,但人類社會最終變得更好了。在汽車首次上路后不久,就發(fā)生了第一起車禍。但我們并沒有禁止汽車,而是頒布了限速措施、安全標準、駕照要求、酒駕法規(guī)和其他交通規(guī)則。

我們現(xiàn)在正處于另一個深刻變革的初期階段——人工智能時代。這類似于在限速和安全帶出現(xiàn)之前的那段不確定時期。人工智能發(fā)展得如此迅速,導致我們尚不清楚接下來會發(fā)生什么。當前技術如何運作,人們將如何利用人工智能違法亂紀,以及人工智能將如何改變社會和作為獨立個體的我們,這些都對我們提出了一系列嚴峻考驗。

在這樣的時刻,感到不安是很正常的。但歷史表明,解決新技術帶來的挑戰(zhàn)依然是完全有可能的。而這種可能性,正取決于我們人類。

       原文標題 : 陳根:層出不窮的AI問題,該如何監(jiān)管?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網
獲取更多精彩內容
文章糾錯
x
*文字標題:
*糾錯內容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網安備 44030502002758號