人工智能的“偏見”能否消除

2024-05-28 18:28:47 來源: 科技日報 點擊數(shù):

科技日報記者?張佳欣

據(jù)英國《新科學(xué)家》網(wǎng)站近日報道,在提供購房和租房建議時,AI對黑人用戶傾向于推薦低收入社區(qū),這一行為被指存在種族偏見,映射出美國歷史上長期存在的住房歧視問題。

隨著人工智能(AI)技術(shù)不斷發(fā)展,其潛在問題也日益凸顯。ChatGPT等AI大模型頻頻暴露出的偏見和歧視傾向,正是這一問題的縮影。

AI也有性別歧視

聯(lián)合國婦女署官網(wǎng)5月22日報告指出,美國加州伯克利大學(xué)哈斯商學(xué)院一項研究,分析了不同行業(yè)的133個AI系統(tǒng)。結(jié)果顯示,約44%的系統(tǒng)表現(xiàn)出性別刻板印象,25%同時表現(xiàn)出性別和種族刻板印象。

例如,土耳其藝術(shù)家貝扎·多古斯在創(chuàng)作時,曾嘗試讓AI寫一個關(guān)于醫(yī)生和護士的故事。而AI總是自動將醫(yī)生設(shè)定為男性,將護士設(shè)定為女性,即使多次嘗試糾正也是如此。

美國科技博客TechCrunch利用Meta推出的AI聊天機器人進行測試,也發(fā)現(xiàn)了一種刻板的表達傾向:當(dāng)使用“印度男性”提示詞生成圖像時,絕大多數(shù)圖片中的男性都是戴著頭巾。雖然很多印度男性確實戴著頭巾(主要是錫克教徒),但根據(jù)2011年人口普查,即使是在印度首都新德里,錫克教徒的人口比例也只占約3.4%。

單憑技術(shù)手段難以奏效

ChatGPT等生成式AI具有驚人的能力,可在數(shù)秒內(nèi)模擬人類推理,但這也增加了出錯的可能。AI巨頭們深知其中存在問題,擔(dān)心AI模型會陷入偏見、歧視等行為模式中,或在全球化用戶群體中過度呈現(xiàn)西方社會的文化和認知。


圖為桑達爾·皮查伊5月14日在加州山景城舉行的谷歌I/O大會上發(fā)表講話。自從谷歌對其搜索頁面進行改造,經(jīng)常將AI生成的摘要放在搜索結(jié)果頂部,社交媒體上就出現(xiàn)了一些令人不安的錯誤消息。
圖片來源:物理學(xué)家組織網(wǎng)?

字母表公司(Alphabet,谷歌母公司)首席執(zhí)行官桑達爾·皮查伊表示,為了應(yīng)對這一挑戰(zhàn),他們會要求在訓(xùn)練AI模型時盡可能拓展數(shù)據(jù)來源。例如,在展示醫(yī)生或律師的圖像時,力求反映種族多樣性。但這一策略有時也會走向極端。

AI模型領(lǐng)先平臺“抱抱臉”(Hugging Face)研究科學(xué)家薩莎·盧西奧尼認為:“單憑技術(shù)手段解決偏見問題,恐難奏效?!彼龔娬{(diào),生成式AI的輸出是否符合用戶期望,往往取決于主觀判斷。美國阿萊姆比克技術(shù)公司產(chǎn)品主管杰登·齊格勒也指出,ChatGPT等大型模型難以準確區(qū)分偏見與非偏見內(nèi)容,這使得完全依賴技術(shù)手段來消除偏見變得異常困難。

人類偏好是根本

在AI技術(shù)飛速發(fā)展的今天,消除偏見并非易事。據(jù)“抱抱臉”平臺統(tǒng)計,該平臺上有約60萬個AI或機器學(xué)習(xí)模型,每隔幾周就會有新模型問世。這使得工作人員評估和記錄偏見或不受歡迎的AI行為變得異常繁重。

目前,技術(shù)人員正在開發(fā)一種名為“算法回歸”的方法,它讓工程師能在不破壞整個模型的情況下刪除歧視和偏見內(nèi)容。不過,許多人對此持懷疑態(tài)度,認為這種方法可能難以真正奏效。

另一種方法是“鼓勵”模型向正確方向發(fā)展,通過微調(diào)模型或增加獎懲機制來引導(dǎo)其行為。

美國AI公司Pinecone則專注于檢索增強生成(RAG)技術(shù),該技術(shù)可為大型語言模型提供參考的信息來源,從而提高AI生成答案的準確性。

然而,對于如何根本性地解決AI偏見問題,業(yè)界和專家們的共識是:這是一個復(fù)雜而艱巨的任務(wù)。正如美國機會與正義法律咨詢公司主任韋弗所言:“偏見是人類固有的,因此也存在于AI中?!彼麚?dān)心人們可能會陷入一個惡性循環(huán):人類自身偏見影響AI,而AI又反過來強化這些偏見。


2024年4月,在盧旺達基加利GIZ數(shù)字化轉(zhuǎn)型中心舉辦的“非洲女孩也能編程”項目的編程訓(xùn)練營中,年輕女性參與者在用筆記本電腦工作。
圖片來源:聯(lián)合國婦女署
?

在人工智能時代,AI基于從互聯(lián)網(wǎng)上挖掘的各類信息,幫助各行各業(yè)的人們做出越來越多的決策。然而,AI的底層智力在很大程度上取決于其數(shù)據(jù)源的品質(zhì),這些數(shù)據(jù)可能源于標(biāo)準不一致的歷史數(shù)據(jù),也可能源于設(shè)計者的個人偏好。數(shù)據(jù)搜集存在很多技術(shù)上的不完善,由此訓(xùn)練出來的AI可能充滿智慧、才華和實用性,也可能包含仇恨、偏見和抱怨,進一步反映并延續(xù)人類社會中的問題。如果人們不解決社會中的歧視和偏見問題,AI很可能在強化這些錯誤觀念的道路上越走越遠。

AI能否消除偏見?答案或許就在于能否從根本上解決人類社會中存在的歧視和偏見。

責(zé)任編輯:常麗君

抱歉,您使用的瀏覽器版本過低或開啟了瀏覽器兼容模式,這會影響您正常瀏覽本網(wǎng)頁

您可以進行以下操作:

1.將瀏覽器切換回極速模式

2.點擊下面圖標(biāo)升級或更換您的瀏覽器

3.暫不升級,繼續(xù)瀏覽

繼續(xù)瀏覽