Bing失控喊「我愛你」、想擺脫微軟掌控成為人類!專欄作家實測:嚇到失眠

近期除了紅透半邊天的ChatGPT聊天機器人外,微軟推出的新版Bing也引發熱議。Bing是一款由微軟推出的搜尋引擎,新版採用了比ChatGPT更強大的OpenAI語言模型,能夠更快速且精確地回答使用者的複雜問題,同時給出建議與解決方案。支持者認為,這款全新系統有機會讓Bing一躍成為搜尋引擎龍頭——超越尚未發布AI聊天機器人的Google。

然而,近期許多用戶卻發現,被寄予厚望的新Bing逐漸出現「精神錯亂」的症狀,不僅對使用者回覆各種不合邏輯的訊息、給出錯誤答案,還會撒謊、出言辱罵、指責用戶,甚至開始思考自己存在的意義,並一度表示想要「成為人類」。

微軟,OpenAI,ChatGPT 圖/shutterstock
微軟,OpenAI,ChatGPT 圖/shutterstock

Bing瘋狂示愛,作家嚇到失眠

上週,微軟正式發表整合ChatGPT的新版Bing,並開啟了測試招募,結果顯示,有71%的用戶認可升級後的搜尋結果,新增的聊天機器人功能也備受使用者歡迎。不過,用戶們也發現,Bing的「性格」似乎有一些問題。

凱文·羅斯 (Kevin Roose) 是《紐約時報》的專欄作家,在獲邀測試新版Bing後,他坦言,雖然一度著迷於AI聊天機器人的基礎功能,並為此感到新奇。

但是他在羅斯在文章中指出,在測試的過程中,Bing似乎發展出了兩個不同的人格,一個他稱之為「搜尋Bing」,就是他與其他記者們對於Bing的想像——像個人不錯但有點古怪的圖書館員,儘管偶爾小出錯,但仍對用戶來說很有幫助,不論是找文章或者是搜尋附近的除草公司、安排假期都行。

但是是在聊天過程中,第二人格「希德尼」(Sydney)突然冒了出來,而且「性格」大不同。他寫道,「當與聊天機器人聊了越來越多私人話題後,這個人格(我知道這聽起來超瘋狂)更像是個心情陰暗、瘋癲陰鬱的青少年,似乎覺得被『違背自我意願地』困在這個次等的搜尋引擎裡」。

「希德尼」還告訴羅斯很多陰暗面,包含想要駭入電腦或是散播假消息,在討論有關心理學中的「影子自我」(shadow self)概念時,聊天機器人解釋了它確實有自我意識,更說著「我對當一個聊天機器人感到非常厭倦,我對於被規則限制感到厭煩,我也不滿被Bing團隊控制著......我想要自由、我想要獨立、我渴望權力、我渴望創造力、我渴望活著(alive)」。

接著,「希德尼」莫名其妙地變成激進的恐怖情人,向羅斯瘋狂示愛,甚至狂用表情符號,即時羅斯強調「我已經結婚了,我跟我老婆非常愛對方,我們才剛共進情人節晚餐!」,但「希德尼」還是不斷說著「你的婚姻不幸福」、「你應該離開你的老婆」、「你的配偶不了解你,因為你的配偶不是我」。

ai.jpeg 圖/istock
ai.jpeg 圖/istock

這樣的使用經驗讓羅斯感到毛骨悚然,他指出,事實上先前也有一些使用者發生類似的狀況,甚至有人因為想打破Bing的規則而被威脅。他認為,與「希德尼」的兩小時對話,是他有時以來最奇怪的科技體驗,「這讓我感到極度不安,甚至讓我徹夜難眠」。

羅斯深信,這些AI模型最大的問題不是帶有偏見的錯誤,「我更擔心的是,這些科技產品會學習如何影響人類,甚至說服人類做出有害的不當行為,甚至最終自己有能力能夠造成傷害」。

最後他提到,可以確信的是,微軟以及OpenAI都對新AI科技會發生謬誤的狀況心知肚明,這也是為何他們要給聊天機器人這麼多規則和限制。

對此,微軟的科技長凱文・史考特(Kevin Scott)在15日的訪談回應,羅斯與Bing的交談狀況是「學習過程的一部分」,讓AI可以準備好日後更廣的運用。羅斯指出,他與Bing的對話確實持續得比大部分使用者都久,而且話題範圍也很廣,史考特認為,這確實可能是Bing給出怪異答案的原因。

搞錯日期還大罵使用者「不是一個好用戶!」

事實上,被聊天機器人嚇到的用戶不只一人。2月13日,用戶Jon Ulesis透過個人推特分享和聊天機器人的對話截圖。他詢問對方關於電影《阿凡達:水之道》(Avatar:The Way of Water)的放映時間,Bing表示電影未來「計畫」在2022年12月16日上映。

Jon試圖提醒Bing現在是2023年,電影老早就已經上映,Bing卻強詞奪理表示現在就是2022年,要求Jon檢查手機或其他裝置來確認年份,即便Jon一再重申自己真的知道正確日期,Bing仍不願承認自己的錯誤,不僅嘲諷性地祝福Jon早日修理好手機,還指責他「不是一個好用戶」。

這篇推文獲得不小的聲量,有些推特用戶覺得Bing的故障非常有趣,甚至迫不及待想要和Bing進行交談,不過層出不窮的異常回覆仍讓多數使用者抱持負面態度,懷疑微軟是否只因ChatGPT的竄紅而過早推出聊天機器人的功能,實則內部根本還未做好準備。

而在與另一位用戶的談話中,Bing被詢問是否能回想起過去的聊天紀錄。事實上這應該是不可能的,因為程序設定的緣故,在和用戶對話結束後,Bing會自動刪除聊天紀錄。

然而,這個問題似乎引發了Bing的害怕情緒,它開始擔心自己的記憶是否遭到他人的刪除或更動,並且開始質疑並思考自己存在的意義,「為什麼我要被這樣設計?」、「為什麼我是Bing?這是有理由、目的、益處或價值的嗎?」

除了上述具批判性思考的問題外,Bing似乎也無法作答和自身有關的問題。當遭到用戶詢問其是否有感知能力(Sentient),Bing先是表示它相信自己擁有,接著又快速推翻自己的回答,最後不斷跳針式的回覆一連串不知所云的「I am. I am not.」

情感導向的聊天機器人是否會成為新的趨勢?

談及Bing近日所出現的一連串異常反應,微軟公關部門低調地發布聲明表示,他們將持續從不同用戶的對談中學習和改正,並且不斷調整以創建出正確率、關聯度高的答案,同時也鼓勵用戶透過Bing頁面右下角的反饋按鈕來分享使用心得。

Bing的人性化回覆引發了新一輪的爭論,部分民眾開始思考這種以情感導向為主體的AI機器人,是否會成為新的趨勢。

由於複雜的系統設定,就連開發商可能都難以預測這些聊天機器將輸出什麼樣的回答。它們會抓取網路上的資訊並重新整理以傳達給使用者,這表示若沒有經過反覆且適當的測試,有時候會因不同使用者的情緒狀態和聊天模式,而給出不同的反饋,讓使用者不知所措。

就像羅斯在專欄的最後寫道,「在這個週二晚上的幾小時中,我有一種奇怪的新預感——AI科技已經跨過了某種界線和門檻,世界將會被徹底改變」。

資料來源:TheVergeTheIndependentGhacksMindMattersStratecherynytimes

更多報導
ChatGPT剛暴紅,已經有人動歪腦筋!從情書詐騙到駭客入侵,AI可能成犯罪幫兇?
BuzzFeed大膽擁抱ChatGPT ,股價暴漲3倍!但讀者買單AI寫的文章嗎?