AI模型“生成不了白人”,谷歌高級副總裁道歉

蘇牧野
在美國國父一例中,Gemini違反了歷史常識,而這令人發(fā)笑的低級錯誤可能是最容易“糾正”的一類。有技術(shù)專家分析Gemini出錯原因時猜測,谷歌很可能是在“幕后”向用戶的提示語中添加了更能體現(xiàn)種族多樣性的關(guān)鍵詞,比如用戶輸入的“一個廚師的肖像”這樣的提示語,會被調(diào)整為“一位土著廚師的肖像”。
事實上,人工智能最近幾年的發(fā)展一而再、再而三地說明,人類專家越少的干預反而越能產(chǎn)生好的模型效果。
換句話說,“美國國父”是真實存在過的人物,對他們的描繪大致可以被判定為準確或不準確的。相比較起來,那些沒有正確答案的問題,對AI來說要棘手得多。

福榮
谷歌Gemini的圖片生成功能因為過于“政治正確”,生成了很多嚴重偏離事實的圖片,遭到網(wǎng)友吐槽,稱其為“人工智能種族主義”,谷歌致歉,連夜下架Gemini文生圖功能,現(xiàn)在谷歌高級副總裁也來道歉了,可見事態(tài)嚴重。
大家肯定會好奇為什么會出現(xiàn)這個問題呢?我在網(wǎng)上看到一位谷歌AI的前高管說法:谷歌可能在背后在用戶提示詞基礎(chǔ)上添加了種族多樣性術(shù)語。在這種情況下,像“士兵的肖像”這樣的提示詞可能會變成“土著士兵的肖像”。在這種情況下,可以隨機選擇附加術(shù)語,那么谷歌算法上的某種“政治正確”就很可能會更加優(yōu)先地顯示基于深色膚色生成的圖像。比如說,如果 Gemini 為每個提示生成 10 張圖像,谷歌會讓系統(tǒng)分析圖像中描繪的人的膚色,并將膚色較深的人的圖像推到隊列中的較高位置。因此,如果 Gemini 只顯示前 4 張圖,那么最有可能看到膚色較深的。這也就解釋了為什么人們看到這些本應是白人形象的歷史人物變成深膚色了。
我感覺這會是一個轉(zhuǎn)折點事件。大家都知道互聯(lián)網(wǎng)平臺發(fā)布內(nèi)容都是要進行內(nèi)容審核。很顯然這次Gemini沒有進行審核,也很難審核,這是否意味著未來加強AIGC的監(jiān)管會先從內(nèi)容審核切入?讓我們拭目以待吧。