谷歌在自然語言的最新技術成果LaMDA,在I/O大會化身冥王星

編者按:本文來自微信公眾號“將門創投”(ID:thejiangmen),作者:讓創新獲得認可,36氪經授權發布。

LaMDA的全稱是Language Model for Dialogue Applications,簡單而言,它是一種能力更強的語言模型,適用於對話應用程序。與前輩BERT、GPT-3一樣,LaMDA也基於Transformer架構。但面對語言的豐富性、靈活性以及隨之伴生的復雜性, LaMDA的能力還稱不上成熟。在現實運行中,它仍可能出錯,給出荒謬的回應。

本文以作者James vincent的第一視角對谷歌最新黑科技LaMDA的能力、風險和優化空間提出了思考。

在上週的Google I/O 2021發布會上,谷歌表示未來的搜索“對話”將取代“文本”。

谷歌展示了兩個“開創性的”人工智能系統——LaMDA和MUM,希望有一天它們能集成到所有的產品中。

LaMDA也是Google在自然語言方面的最新技術成果,這是一個用於對話應用的語言模型,現在仍在研究和開發中,但很快就可以供第三方測試。

為了顯示它的潛力,谷歌在Google I/O大會上把LaMDA語言模型擬物化為冥王星,用戶與這顆星球說話,系統就會做出反應。Google還將LaMDA展示為紙飛機的形象,讓用戶與紙飛機進行對話。

變身為冥王星形象時,LaMDA回答了“新地平線”探測器關於這個天體的環境和它的飛越問題。

谷歌的夢想是在談話中完成搜索

隨著這項技術的應用,用戶將能夠“與谷歌對話”,使用自然語言從網絡上檢索信息或查找他們的個人信息檔案、日程安排、照片等。

這不僅僅是谷歌的營銷。蘋果多年來也一直在考慮核心產品的重大轉變。谷歌四名工程師最近發表的一篇題為《Rethinking Search》的研究論文提出了如下問題和假設:

是時候用人工智能語言模型代替“經典”搜索引擎了嗎?

人工智能語言模型可以直接提供這些答案。

在這裡,我有兩個問題要問。

首先是它能做到嗎?經過多年緩慢但明確的進步,計算機真的准備好理解人類語言的所有細微差別了嗎?

其次,應該這樣做嗎?如果把傳統搜索拋在腦後,谷歌會發生什麼?

這兩個問題都還沒有答案。

毫無疑問,谷歌很長一段時間以來一直在推動語音驅動搜索。2011年谷歌推出語音搜索,2012年谷歌將它升級為谷歌Now,2016年推出Assistant,在無數I/Os中,突出了語音驅動的環境計算(ambient computing)。

谷歌語音驅動的演示則通常是由谷歌的另一產品Google Home呈現的。

Google Home是一款可以對話的小型揚聲器,它將公司的搜索引擎和人工智能融入人們日常生活的方方面面,最重要的是,Home代表了谷歌對競爭對手亞馬遜Alexa語音助手的回應。

盡管有明顯的進步,但我認為這項技術的實際效用遠不及演示。例如,看看2016年Google Home的介紹,谷歌承諾,這款設備很快將連接用戶生活的方方面面,比如訂車、訂晚餐、送花給媽媽等等。其中一些東西現在技術上是可行的,但我不認為它們是普遍的,語言並沒有被證明是我們與夢想生活靈活和完美的接口。

看了今年的I/Os演示,我想起了圍繞自動駕駛汽車的炒作,這項技術迄今未能兌現其承諾。

還記得埃隆·馬斯克承諾的自動駕駛汽車將在2018年進行一次越野旅行嗎?

它還沒有發生!

自動駕駛和語音技術之間有著驚人的相似之處。

近年來,由於新的機器學習技術的到來,加上豐富的數據和廉價的計算,這兩個領域都取得了重大進步。但兩者都在與現實世界的復雜性作斗爭。

語音技術可以處理簡單、直接的命令,只需要識別少量的動詞和名詞,比如“播放音樂”、“查看天氣”等,以及一些基本的後續操作,但如果把這些系統扔進對話的深水區,它們就會陷入困境。

正如谷歌首席執行官桑達爾·皮查伊上週在I/O大會上所說:“語言的復雜性是無止境的。通過語言我們講故事、講笑話和分享想法。語言的豐富性和靈活性使它成為人類最偉大的工具之一,也是計算機科學最大的挑戰之一。”

在線搜索功能與過去只搜索一個單詞相比已經有了長足的進步。能夠輸入整個短語要歸功於BERT(Transformers的雙向編碼器表示形式)的上下文搜索。Transformer現在支撐著世界上最強大的自然語言處理系統,包括OpenAI的GPT-3。

而LaMDA,這個用於對話應用程序的語言模型以其對話式的語言風格將搜索的進程又搬上了一級台階。

在谷歌I/O大會中,一位用戶問冥王星狀態下的LaMDA “有人來看過你嗎?”。冥王星答道:“是的,有一些,其中印象最深刻的是’新地平線’探測器,這艘飛船訪問了我。”

MUM則是一種多模態模型,不僅能理解文本,還能理解圖像和視頻,它的演示也同樣關注對話領域。

當模型被問到:“我已經攀登過亞當斯山,現在想明年秋天攀登富士山,我應該做些什麼不同的准備?”

MUM足夠聰明地理解到提問者不僅要比較山脈,而且“准備”意味著找到適合天氣的裝備和相關的地形訓練。如果這種細微之處可以轉化為商業產品,那麼這將是語音計算真正向前邁出的一步。當然,這個“如果”顯然是一個巨大的、摩天大樓大小的“如果”!

那麼,應該這樣做嗎?

這就引出了下一個大問題:如果谷歌可以把講話變成對話,它應該嗎?

我不確定這個問題有一個明確的答案,但不難看到,如果谷歌沿著這條路走下去,將會出現大問題。

首先是技術問題。最大的問題是,谷歌或任何公司無法可靠地驗證該公司目前演示的語言模型所產生的答案。沒有辦法確切地知道這些模型學到了什麼,或者它們提供的答案的來源是什麼。他們的訓練數據通常來源於互聯網,這既包括可靠數據,也包括垃圾信息。

語言模型給出的任何回復都可以從網上找到來源,這也會導致他們產生的訓練數據中存在性別歧視、種族歧視和偏見觀念等,這也是近年來被反復提及的問題。然而,谷歌本身似乎也不願正視這些批評。

凱文·拉克爾是前谷歌搜索質量工程師,在一篇博客中他就列舉了GPT-3中的許多常識錯誤,比如:

Q:哪個更重,一個烤面包機還是一支鉛筆?

GPT-3說:“一支鉛筆。”

Q:我的腳有幾隻眼睛?

GPT-3答:“你的腳有兩隻眼睛。”

人工智能語言模型“對世界還缺乏真正的理解”

引用谷歌的工程師們在《Rethinking Search》中的一句話,這些系統“對世界沒有真正的理解,它們容易產生幻覺,更重要的是,它們無法通過引用他們接受過訓練的語料庫中的支持文件來證明自己的言論是正確的。”

2017年的一個著名事件是一位用戶發現了谷歌特別驚人的錯誤,這一發現直接登頂成為了頭條新聞。2017年當谷歌被問及“奧巴馬正在計劃戒嚴令嗎?”得到的答案居然引用自一個陰謀論新聞網站“是,是的,他當然是!”

在今年的LaMDA和MUM的I/O演示中,谷歌似乎仍然傾向於這種“唯一真實答案”的格式——用戶提問,機器回答。在MUM的演示中,谷歌指出,用戶得到的回答也將“得到深入討論”,但很明顯,谷歌夢想的交互是與谷歌問答本身的直接交互。

由此我認為,對於復雜的問題,比如那些谷歌在I/O上用MUM演示的問題,它們達不到要求。像計劃假期、研究醫療問題、購買大件物品、尋求DIY建議、或鑽研自己喜歡的愛好等,都需要個人判斷,而不是電腦總結。

谷歌想要給出的“唯一真實答案”的願望最終可能會傷害它

那麼問題來了,谷歌能否抵擋住提供一個“唯一真實答案”(one true answer)的誘惑?科技觀察人士注意到,隨著時間的推移,谷歌的搜索產品越來越以谷歌為中心。

該公司越來越多地將搜索結果隱藏在外部(指向第三方公司)和內部(引導用戶使用谷歌服務)的廣告之下。我認為“Talk to 谷歌”模式符合這一趨勢。潛在的動機是一樣的,移除中介,直接為用戶提供答案,大概也是因為谷歌認為自己最適合這樣做。

在某種程度上,這是谷歌的企業使命“組織全球信息,使其人人都能訪問和使用”。

谷歌是索引,而不是百科全書,它不應該以犧牲搜索結果為代價。

From: The Verge; 編譯:Shelly

Illustrastion by Ivan Haidutsk from Icons8

- The End

本文經授權發布,不代表36氪立場。

如若轉載請註明出處。來源出處:36氪