国产一精品一AV一免费,亚洲成AV人片不卡无码,AV永久天堂一区二区三区,国产激情久久久久影院

首頁 500強 活動 榜單 商業(yè) 科技 商潮 專題 品牌中心
雜志訂閱

當(dāng)AI拒絕畫出白人:它在重塑我們的道德觀嗎?

王昉
2024-03-07

技術(shù)已經(jīng)不再是一個中立的工具

文本設(shè)置
小號
默認(rèn)
大號
Plus(0條)

最近美國社交媒體上一個持續(xù)發(fā)酵的話題是:AI因為太講政治正確而翻車了。

事情是這樣的:有人請谷歌的AI大模型Gemini作一幅“美國開國元勛”的肖像畫,Gemini給出了四幅圖,包括一位佩戴傳統(tǒng)頭飾的美洲原住民男子、一位黑人男子、一位膚色較深的非白人男子以及一位亞裔男子。

而我們都知道,從華盛頓到杰斐遜,一眾美國開國元勛,全是白人。事實上,他們中的不少人當(dāng)時還在自家莊園中蓄著黑奴,這在后世被視作他們政治生涯的污點。

這些圖被分享到社交媒體后引發(fā)嘩然,馬斯克等一眾意見領(lǐng)袖炮轟這是“反文明”、“瘋狂的種族主義”。當(dāng)然,這里的種族主義,指的是對白種人的反向歧視。

這又引發(fā)了一波仿效行動:網(wǎng)友們請Gemini生成各種人像圖,結(jié)果發(fā)現(xiàn)它就像被施了魔咒,就是不大情愿畫出白人形象。風(fēng)暴愈演愈烈,谷歌公開道歉,并暫停了Gemini的人像作圖功能。

這場風(fēng)波,看似大模型犯的低級錯誤,實際上卻可能源于人類的弄巧成拙。有技術(shù)專家分析,谷歌很可能是在“幕后”向用戶的提示語中添加了更能體現(xiàn)種族多樣性的關(guān)鍵詞,比如把用戶輸入的“一位廚師的肖像”的提示語,調(diào)整成了“一位土著廚師的肖像”。

這樣的干預(yù),顯然是為了糾正令人擔(dān)心的“算法歧視”現(xiàn)象。

過去幾十年間用于機器訓(xùn)練的數(shù)據(jù)中,白人的、男性的數(shù)據(jù)遠(yuǎn)比其他膚色的、女性的更豐富,導(dǎo)致機器在人臉識別時普遍“偏愛”白人中年男性。比如,早在2015年,谷歌就因其照片應(yīng)用程序?qū)晌缓谌说恼掌瑯?biāo)記為“大猩猩”而道歉。直到最近,一項調(diào)查發(fā)現(xiàn),美國開發(fā)的算法對亞裔和非洲裔的人臉識別錯誤率要比對白人的高10倍以上;而亞洲開發(fā)的算法中,對白人和亞洲人的識別錯誤率差距較小。

再比如,亞馬遜曾經(jīng)試圖開發(fā)一種自動化招聘系統(tǒng),利用機器學(xué)習(xí)來分析求職者的簡歷并為他們打分。實踐一年后,工程師們發(fā)現(xiàn),這套算法“不喜歡女性”,因為基于數(shù)據(jù),它得出了“男性更可靠”的觀點,降低了女性簡歷的權(quán)重。

也就是說,假如放任不管,算法將加劇人類社會中的偏見和不平等。但是,人類若要干預(yù),應(yīng)該干預(yù)到什么程度?依據(jù)什么準(zhǔn)則?

美國國父是真實存在過的人物,因此算法可以根據(jù)歷史常識來減少錯誤。甚至有技術(shù)專家觀察到,對于這類問題,人類越少干預(yù),大模型越能產(chǎn)生更準(zhǔn)確或更接近真相的結(jié)果。

但對于那些沒有正確答案、需要體現(xiàn)某種價值判斷的問題,算法處理起來就棘手得多。比如,算法完全可以根據(jù)俄烏兩國的人口、經(jīng)濟、軍力、地緣格局,精準(zhǔn)高效地算出哪國更有可能在戰(zhàn)爭中獲勝,但至于這場戰(zhàn)爭該不該發(fā)生,它必定給不出答案。AI代表了人類工具理性的新高峰,但問題一旦關(guān)涉價值理性和道德判斷,就超出了它的能力范圍。

那么我們是否可以為AI劃出一個讓它揚長避短的工作范圍?簡單說,由人類決定一件事情要不要做、怎么做之后,讓AI幫忙,把這件事最高效地做成。

但這種想法將技術(shù)視作完全中性的工具,忽視了一點,那就是技術(shù)反過來會影響人,人無時無刻不受到技術(shù)的調(diào)節(jié)和改造。

美國技術(shù)哲學(xué)家唐·伊德(Don Ihde)舉過伊甸園的例子:伊甸園中的人最初是赤身裸體的,用知覺直接感受這個世界,偷吃了智慧樹上的果實后,人突然有了羞恥心,用無花果樹的葉子做成衣服。于是,衣服成了人類歷史上第一件技術(shù)制品,它的出現(xiàn),加上后來出現(xiàn)的眼鏡、汽車、手機等技術(shù)工具,完全重構(gòu)了我們感知和理解世界的方式。

一個更現(xiàn)代的例子,是準(zhǔn)媽媽在孕期的超聲波檢查。通過這項技術(shù),一對夫婦能探查嬰兒是否健康,如果有畸形,可能選擇放棄分娩。因此,生不生孩子這樣重大的道德決策,實際上是人和技術(shù)共同完成的。

最前沿的機器學(xué)習(xí)中,甚至已經(jīng)開始嵌入道德取舍。比如,自動駕駛技術(shù)不僅要讓機器學(xué)會轉(zhuǎn)動車輪的角度、油門剎車的力度,還要學(xué)習(xí)在即將發(fā)生碰撞,不得不選擇犧牲一方、保全另一方的緊急狀況下,如何做出抉擇。麻省理工學(xué)院的認(rèn)知科學(xué)家伊亞德·拉萬(Iyad Rahwan)就說過,每次自動駕駛汽車做出避讓動作時,它已經(jīng)“暗中決定了不同群體的危險程度”。

因此,技術(shù)哲學(xué)家主張,技術(shù)已經(jīng)不再是一個中立的工具,人與技術(shù)的關(guān)系嚴(yán)格來說是一種交互關(guān)系,甚至可以說是交往關(guān)系。既然技術(shù)可以反過來影響人,我們就可以將倫理價值嵌入到技術(shù)中,使用技術(shù)來促使人按照道德規(guī)范來行動。

這么看來,Gemini“不愿畫白人”風(fēng)波,有它的積極意義。它說明算法工程師們意識到了數(shù)據(jù)內(nèi)含的歧視與不公,并展開了積極行動;它矯枉過正引發(fā)的討論,進(jìn)一步提升了全社會的警覺,起碼讓我們不會在無意識中,任由技術(shù)進(jìn)一步放大這種不公。

AI已不僅是執(zhí)行命令的工具,它就是一面人類審視自我的“鏡子”,倒映出了人類自己的價值觀和道德標(biāo)準(zhǔn)。而且,它在某種程度上已經(jīng)開始反過來塑造我們新的道德認(rèn)知。

那么如何設(shè)計AI,才能使其成為促進(jìn)社會正義和道德進(jìn)步的積極力量?這不僅是工程師的責(zé)任,也是全社會共同面臨的課題。伴隨著這個問題,人類與技術(shù)的關(guān)系將進(jìn)入一個新紀(jì)元。(財富中文網(wǎng))

財富中文網(wǎng)所刊載內(nèi)容之知識產(chǎn)權(quán)為財富媒體知識產(chǎn)權(quán)有限公司及/或相關(guān)權(quán)利人專屬所有或持有。未經(jīng)許可,禁止進(jìn)行轉(zhuǎn)載、摘編、復(fù)制及建立鏡像等任何使用。
0條Plus
精彩評論
評論

撰寫或查看更多評論

請打開財富Plus APP

前往打開
熱讀文章
玛纳斯县| 长泰县| 罗源县| 庐江县| 乌苏市| 仁化县| 县级市| 长兴县| 即墨市| 四川省| 莱芜市| 乾安县| 新密市| 茶陵县| 平昌县| 汉中市| 乐亭县| 化德县| 同江市| 中阳县| 鹿邑县| 积石山| 闽清县| 高密市| 灵武市| 洛浦县| 邵阳县| 贵定县| 中西区| 徐州市| 会昌县| 和顺县| 松原市| 曲松县| 麻阳| 温泉县| 中卫市| 苍梧县| 泰和县| 天水市| 渑池县|