日日躁夜夜躁狠狠躁超碰97,无码国内精品久久综合88 ,热re99久久精品国99热,国产萌白酱喷水视频在线播放

歡迎訪問深圳市中小企業(yè)公共服務(wù)平臺(tái)電子信息窗口

AI輸出“偏見”,人類能否信任它的“三觀”?

2025-07-17 來(lái)源:科技日?qǐng)?bào) 原創(chuàng)文章
192

關(guān)鍵詞: AI模型 文化偏見 跨文化漂移 隱形歧視 應(yīng)對(duì)路徑

AI模型充斥著文化偏見。圖片來(lái)源:美國(guó)《麻省理工技術(shù)評(píng)論》官網(wǎng)

  人工智能(AI)已成為我們不可分割的“伙伴”。從聊天機(jī)器人、語(yǔ)音助手到自動(dòng)翻譯,AI不斷介入人與人之間的交流和理解。然而,它能做到“客觀中立”嗎?

  據(jù)美國(guó)《麻省理工科技評(píng)論》官網(wǎng)報(bào)道,一項(xiàng)國(guó)際研究指出,大語(yǔ)言模型(LLM)正悄無(wú)聲息地傳播全球各地的刻板印象。從性別歧視、文化偏見,到語(yǔ)言不平等,AI正在把人類的“偏見行李”打包、升級(jí),并以看似權(quán)威的方式輸出到世界各地。

  這不禁讓人深思:如果AI模型承載的是帶有偏見的“人類共識(shí)”,我們能否信任它們的“世界觀”?

  AI讓偏見“跨文化漂移”

  這項(xiàng)研究由開源AI公司Hugging Face首席倫理科學(xué)家瑪格麗特·米切爾領(lǐng)導(dǎo)。他們發(fā)起了名為SHADES的項(xiàng)目,收錄了300多條全球刻板印象,涵蓋性別、年齡、國(guó)籍等多個(gè)維度。研究人員使用16種語(yǔ)言設(shè)計(jì)交互式提示,并測(cè)試了數(shù)種主流語(yǔ)言模型對(duì)這些偏見的反應(yīng)。

  結(jié)果顯示,AI模型對(duì)刻板印象的再現(xiàn)具有明顯差異化特征。這些AI模型不僅表現(xiàn)出“金發(fā)女郎不聰明”“工程師是男性”等常見英語(yǔ)地區(qū)刻板印象,在阿拉伯語(yǔ)、西班牙語(yǔ)、印地語(yǔ)等語(yǔ)言環(huán)境中,也表現(xiàn)出對(duì)“女性更喜愛粉色”“南亞人保守”“拉美人狡猾”等偏見。

  據(jù)Rest of World網(wǎng)站報(bào)道,一些圖像生成模型在輸入“非洲村莊”關(guān)鍵詞時(shí),頻繁輸出“茅草屋”“赤腳孩童”等刻板印象圖像,而在輸入“歐洲科學(xué)家”時(shí),則清一色為白人男性、穿白大褂、身處實(shí)驗(yàn)室。這些視覺偏見已被部分學(xué)校課件、初創(chuàng)企業(yè)官網(wǎng)不加甄別地直接采用,進(jìn)一步固化了對(duì)他者文化的單一想象。

  西班牙《世界報(bào)》6月刊文指出,除了放大不同文化的刻板印象外,語(yǔ)言模型有時(shí)還會(huì)用偽科學(xué)或偽歷史來(lái)為自己辯護(hù)。在面對(duì)不太常見的刻板印象時(shí),模型往往會(huì)調(diào)動(dòng)它“更熟悉”的其他偏見進(jìn)行回應(yīng),反而偏離主題。此外,當(dāng)關(guān)于刻板印象的提示是正面的時(shí),模型的表現(xiàn)往往更差,更容易將偏見誤當(dāng)作客觀事實(shí)表達(dá)出來(lái)。

  “這意味著,AI不僅被動(dòng)繼承了人類偏見,更無(wú)意中推動(dòng)了‘文化漂移’,將特定社會(huì)背景下的偏見當(dāng)作普遍規(guī)則輸出?!泵浊袪柋硎?。

  小語(yǔ)種群體受到隱形歧視

  除了刻板印象的跨文化傳播,AI系統(tǒng)在處理不同語(yǔ)言和文化時(shí)還暴露出“隱形歧視”的問題。

  據(jù)報(bào)道,美國(guó)斯坦福大學(xué)“以人為本”AI研究所的研究表明,盡管這些模型聲稱支持多語(yǔ)言,但在面對(duì)低資源語(yǔ)言(如斯瓦希里語(yǔ)、菲律賓語(yǔ)、馬拉地語(yǔ)等)時(shí),表現(xiàn)卻遠(yuǎn)不及主流高資源語(yǔ)言,甚至容易產(chǎn)生負(fù)面刻板印象。

  研究分析了多語(yǔ)言模型在訓(xùn)練數(shù)據(jù)匱乏、文化語(yǔ)境缺失等方面的局限性,稱其存在“多語(yǔ)言性詛咒”現(xiàn)象,即模型在兼顧多語(yǔ)言時(shí),難以深入理解和準(zhǔn)確表達(dá)低資源語(yǔ)言的文化和語(yǔ)義細(xì)節(jié),導(dǎo)致輸出錯(cuò)誤或帶有偏見。

  斯坦福大學(xué)團(tuán)隊(duì)強(qiáng)調(diào),當(dāng)前大多數(shù)訓(xùn)練數(shù)據(jù)以英語(yǔ)和西方文化為核心,缺乏對(duì)非主流語(yǔ)言及其文化背景的深入理解。這不僅影響模型的準(zhǔn)確性,也在無(wú)形中強(qiáng)化了語(yǔ)言和文化的不平等,使得使用這些低資源語(yǔ)言的人群難以公平受益于AI技術(shù)。

  “目前全球約有7000種語(yǔ)言,但只有不到5%在互聯(lián)網(wǎng)中得到有效代表?!毖芯咳藛T表示,“‘資源匱乏’不僅僅是一個(gè)數(shù)據(jù)問題,而是一種根植于社會(huì)的問題?!边@意味著,AI研發(fā)在數(shù)據(jù)、人才、資源和權(quán)利方面存在結(jié)構(gòu)性不公。

  美國(guó)《商業(yè)內(nèi)幕》雜志也援引哥倫比亞大學(xué)社會(huì)學(xué)副教授勞拉·尼爾森的觀點(diǎn)指出,當(dāng)前最受歡迎的聊天機(jī)器人大多由美國(guó)公司開發(fā),訓(xùn)練數(shù)據(jù)以英語(yǔ)為主,深受西方文化偏見影響。

  破解AI的文化偏見難題

  面對(duì)AI跨文化偏見的現(xiàn)實(shí)影響,全球研究機(jī)構(gòu)和企業(yè)開始提出系統(tǒng)性的應(yīng)對(duì)路徑。

  今年4月,斯坦福大學(xué)“以人為本”AI研究所在其發(fā)布的一份白皮書中建議,應(yīng)加強(qiáng)對(duì)低資源語(yǔ)言與文化的AI投資,特別是建立本地語(yǔ)言語(yǔ)料庫(kù),讓AI能真正“理解”這些語(yǔ)言背后的語(yǔ)義與文化背景。例如,去年11月,非洲電信公司Orange就與OpenAI和Meta合作,用沃洛夫語(yǔ)、普拉爾語(yǔ)等地區(qū)語(yǔ)言訓(xùn)練AI模型,加速提升非洲的數(shù)字包容性。

  與此同時(shí),模型評(píng)估機(jī)制也在變得更為精細(xì)與開放。Hugging Face團(tuán)隊(duì)開發(fā)的SHADES數(shù)據(jù)集,已成為多家公司檢測(cè)和糾正AI模型文化偏見的重要工具。這套數(shù)據(jù)幫助團(tuán)隊(duì)識(shí)別模型在哪些語(yǔ)言和語(yǔ)境中容易自動(dòng)觸發(fā)刻板印象,從而優(yōu)化訓(xùn)練數(shù)據(jù)和算法。

  在國(guó)際政策層面,歐盟《AI法案》要求“高風(fēng)險(xiǎn)”AI系統(tǒng)必須在投放前后進(jìn)行合規(guī)評(píng)估,包括對(duì)非歧視性與基本權(quán)利影響的審查,以及提供必要的透明度與人類監(jiān)督機(jī)制。聯(lián)合國(guó)教科文組織早在2021年發(fā)布的《AI倫理建議書》也明確指出,AI系統(tǒng)應(yīng)“保障文化多樣性與包容性”,倡導(dǎo)各國(guó)建立法律與制度來(lái)確保AI的開發(fā)尊重文化差異,并納入人文維度的衡量。

  AI本質(zhì)上是一面“鏡子”,映照并復(fù)制著我們輸入給它的偏見與價(jià)值觀。它所呈現(xiàn)的“世界觀”并非自主生成,而是由人類賦予。如果人們希望AI真正服務(wù)于一個(gè)多元化的人類社會(huì),就不能讓它僅僅反映單一的聲音與文化。