訂閱
糾錯
加入自媒體

當AI開始保護她

當AI被把握在女性手中

AI不能理解語境嗎?顯然不是,大量涉及到長本文語義理解的算法就是干這個的。只不過面對性別侮辱這類相對復雜的語境,需要大量的訓練樣本和反復調(diào)試。

當?shù)貌坏絋witter的支持時,大赦國際做了兩件事:

第一是找了6500位志愿者,在推特上分別尋找收集那些侮辱女性的言論和正常言論,作為標注數(shù)據(jù)累積,建立起了全世界最大的“仇女言論”數(shù)據(jù)集。

第二是找到Element AI,一家提供AI既服務的創(chuàng)業(yè)企業(yè),利用數(shù)據(jù)進行訓練和分析,最終得出了上述完整的數(shù)據(jù),并且訓練出了一個可以判斷女性侮辱言論的神經(jīng)網(wǎng)絡模型。大赦國際在報告中提出,目前這一模型的準確度已經(jīng)達到了50%,并且還在不斷提高中。

當然最后的結局沒有人們想象中那么美好,Twitter并沒有直接采用模型,借此保護平臺上的女性用戶。但通過這兩件事,大赦國際明確了自己的需求,給Twitter提了很多富有價值的意見,例如Twitter應該改進舉報機制,讓關于女性侮辱的舉報可以得到更多重視;Twitter應該更加清晰的解釋平臺過濾算法如何運行,如何識別那些針對女性的語言暴力;Twitter應該加強對女性用戶的教育,提醒她們?nèi)绾伪Wo自己;更重要的是,Twitter應該更多的公開相關數(shù)據(jù),讓更多人知道女性正在社交媒體上承受著更多壓力。

打破技術即權力:保護她和他們的AI

這件事情其實帶來了一個非常有趣的思考:當AI發(fā)展的愈發(fā)成熟,技術即權力的魔咒是不是正在被默默打破?

女性如今之所以處在一個讓她們略感不適的地位之中,很大一部分原因在于對技術的掌控不如男性,所以她們不能創(chuàng)造和男性一樣多的價值。千百年前女性不知道如何開墾更多土地種植糧食;幾十年前女性不知道如何使用電腦;到今年女性不知道Twitter的算法為什么不能過濾掉那些仇恨言論。

而隨著科技的發(fā)展,阻礙女性獲取技術的門檻正在逐漸被磨平。從生理結構上天然的體力差別,到社會和家庭身份對于時間的占用,直到今天。

我們發(fā)現(xiàn),號召志愿者收集數(shù)據(jù),加上一家愿意幫忙的AI服務企業(yè),女性可以輕易打破Twitter的“男權謊言”——你說算法做不到?她們就去證明算法可以做到。

當AI模型的開發(fā)越來越走向低門檻,當谷歌和百度都在推出小孩子都能使用的模型訓練平臺,這便意味著(綜合來看)開發(fā)經(jīng)驗更少的女性群體也可以創(chuàng)造和利用AI的技術能力。

這也是AI作為工具而言最重要的價值,將以往高密度的經(jīng)驗與智慧集成為人人可以利用的算法,讓馬路殺手像老司機一樣行駛在路上,讓分不清PS和Photoshop的人也能拍出好照片。如今對于算法開發(fā)過程的簡易化,更加提升了AI的工具價值。讓我們感到欣慰的,不僅僅是女性開始利用AI的力量保護自己、為自己發(fā)聲,而是大赦國際的成功是可以復制的,除了那些在社交媒體上被辱罵的女性,其他的弱勢群體其實也可以利用類似的方式發(fā)出聲響和自我拯救。

AI正在保護她,并且還可以保護他們。(作者:腦極體)

<上一頁  1  2  
聲明: 本文系OFweek根據(jù)授權轉(zhuǎn)載自其它媒體或授權刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負責,如有新聞稿件和圖片作品的內(nèi)容、版權以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號