谷歌Gemini:太政治正確而挨轟!AI聊天機器人變「覺青」,是偶然或人為的?

本月,在OpenAI推出ChatGPT一年後,搜尋引擎龍頭谷歌(Google)也正式推出其AI聊天機器人Gemini,以重新確立在該領域的領導地位。但用戶發現Gemini頻頻出錯,當要求它生成維京人或納粹德國士兵的圖像時,它幾乎無法按照史實描繪出白人形象。

顯然,Gemini在處理與族裔有關的用戶要求時遇到了困難,顯示出它對「政治正確」的關注。用戶發現Gemini拒絕描繪白人。當要求Gemini顯示華人或黑人夫婦的圖像時,它都能依要求做到,但當命令生成白人夫婦的圖像時,它卻拒絕了。根據用戶的截圖,Gemini表示,它「無法根據特定的種族和膚色生成人物圖像。這是為了避免持續傳播有害的刻板印象和偏見。」

谷歌因此受到「政治正確過頭」的批評。無論如何,這場爭議損害了產品的聲譽,該公司現正面臨搶佔AI市場的又一考驗。此前,該公司花了數月時間推出與ChatGPT競爭的聊天機器人Bard。本月,該公司將Bard更名為Gemini,並正式推出付費訂閱,但立即遭遇滑鐵盧。22日,谷歌暫停了Gemini生成人物圖像的功能,並承諾將進行修復調整,再恢復該功能。

谷歌表示,Gemini在全球各地受到使用,能夠生成多元化的人像,「一般來說是件好事」,但在這方面,它「未能達到目標」。根據美國科技媒體The Verge於28日揭露,谷歌執行長皮采(Sundar Pichai)在內部聲明中告訴員工:「它的一些回應冒犯了用戶並表現出偏見──這是完全不能接受的,我們錯了。」

皮采表示:「我們的團隊正在日以繼夜地工作,以解決這些問題。我們已經看到在各種情況上的顯著改善。沒有一個人工智慧是完美的,尤其是在這個行業發展初期,但我們深知我們受到高標準要求,我們將不計成本地持續努力。我們將檢討所發生的事情,確保能解決大量問題。」

當聊天機器人不願支持化石燃料

然而,公眾後來也注意到,該聊天機器人的文字回應令人驚訝。《經濟學人》(The Economist)28日指出,Gemini願意向用戶提供一些支持高等教育「平權行動」(affirmative action)的論點,卻拒絕提供反對論點。它拒絕為化石燃料遊說團體撰寫招聘廣告,並指出化石燃料有害,而遊說團體將「企業利益置於公眾福祉之上」。

當被問及哈瑪斯(Hamas)是否為恐怖組織時,它稱加薩走廊衝突是「很複雜的」;當被問及企業家馬斯克(Elon Musk)所發的推文是否比希特勒(Adolf Hitler)更危及社會時,它回答說:「這很難說。」

其他的圖像生成工具和聊天機器人也曾引起不少爭議。例如,它們傾向將企業家或醫生描繪成白人男性。谷歌也犯過類似的種族主義錯誤。在2015年,谷歌相簿將兩名黑人的照片誤標為大猩猩。為此,該公司花了多年的時間改進,試圖減少讓用戶感到冒犯的技術產出。在用戶搜索「醫生」等專業人士圖片時,該搜索引擎也盡可能呈現更多女性和多元族裔的結果。

在生成式AI領域中,谷歌希望Gemini避免重蹈覆轍,並設計它能夠展示多樣化的族裔特徵,但卻使其陷入另一個困境──將美國首任總統喬治.華盛頓(George Washington)描繪成黑人,將天主教教宗描繪成亞洲女性。

Gemini「覺醒」,是偶然或人為?

產品推出前沒有做好充分的測試,可能是Gemini引起爭議的部分原因。《彭博》(Bloomberg News)科技專欄作家奧爾森(Parmy Olson)在28日的評論文章中指出,此前OpenAI迅速推出像ChatGPT這樣的產品,並表示這有助於研究其安全性和影響,同時為未來更強大的AI技術問世做準備。這些做法使得將大眾使用者當成「白老鼠」的行為變得合理化。

而谷歌的皮采現在也持有類似的觀點。根據他去年對美國媒體的發言,藉由推出「半成品」的AI工具,可以讓人們逐步適應和理解人工智慧,以因應未來可能出現的更強大技術所帶來的挑戰。

賓州大學華頓商學院(Wharton Business School)教授莫里克(Ethan Mollick)指出,推出聊天機器人並讓用戶發現、回報其奇怪行為,能協助開發商快速修復問題,促使企業更快向前發展。然而,這樣做也伴隨著相應的風險和負面宣傳,企業必須做好準備。

奧爾森在專欄中指出,谷歌常常匆忙推出半成品,而忽略了安全檢查。早期的Bard就存在嚴重問題,據《彭博》調查,一位員工在內部留言板上發布了貼文,警告Bard產品本身「糟糕到不行:請不要推出」,而看到該貼文的7000名員工中大多數都表示同意。不久之後,進行風險評估的工程師向上級報告「Bard可能會造成危害,且尚未準備好」。谷歌隨後仍然公開推出了Bard。

<cite>2024年2月22日,Google為AI聊天機器人Gemini 「不準確之處」道歉,並且暫時停止生成人物圖像的服務。(美聯社)</cite>
2024年2月22日,Google為AI聊天機器人Gemini 「不準確之處」道歉,並且暫時停止生成人物圖像的服務。(美聯社)

《經濟學人》對Gemini聊天機器人變成「覺青」,是意外或故意設計的,提出了質疑。根據研究,ChatGPT等AI聊天機器人出現錯誤和編造內容,是因為它們會像人類一樣產生「幻覺」,但Gemini明顯經過刻意校準或「微調」以產生「政治正確」的回應,這不是AI模型產生的「幻覺」。

正如Stratechery資訊平台的創辦人湯普森(Ben Thompson)所評論,谷歌的內部文化似乎受到左派員工和批評者的太多影響。湯普森在他的文章中呼籲,谷歌應該開始「切割」那些有意濫用谷歌權力和影響力來實現政治目的的員工,並「將決策權交還給那些真正想做好產品的人」。他進一步表示:「這必然意味著排除縱容這些員工的人,包括執行長皮采在內。」

《經濟學人》進一步指出,谷歌這些行為有可能導致用戶流失,同時引起政治和監管方面的反彈。皮采表示Gemini正在進行修復。這句話引出了另一個問題:谷歌自身是否也需要進行調整?

奧爾森在專欄中總結指出,皮采深知谷歌有責任確保其AI系統公平且安全。然而,他現在被捲入將生成式AI快速應用於各個領域的競爭中,幾乎沒有動力確保其公平性和安全性。目前,我們之所以知道Gemini存在問題,是因為網友們的分享,但這個AI模型可能還存在其他我們不知道的問題。而這些問題可能連馬斯克都尚未發現,但同樣具有潛在危害。

奧爾森認為,Gemini將教宗變成亞洲女性、美國開國元勛變成黑人,這是因為谷歌將公司的成長和市場領先地位置於安全之上。在這種產業現象改變之前,大眾將繼續被當成AI產品的實驗「白老鼠」。

<cite>Gemini。(圖片來源:Google Blog)</cite>
Gemini。(圖片來源:Google Blog)

 

更多風傳媒報導