【稽叔夜專欄】OpenAI 鬧劇對人工智慧進步和安全意味著什麼?

OpenAI——轟動一時的人工智慧 (AI) 機器人 ChatGPT 背後的公司——近一周來一直在經歷瘋狂的變化。11 月 17 日,該公司解雇了富有魅力的執行長薩姆·奧爾特曼 (Sam Altman)。五天之後,發生了很多戲劇性的事情,OpenAI 宣布 Altman 將帶著對公司董事會的徹底改革回歸。尼古拉瓊斯Nicola Jones發表在最新一期《自然》(Nature)的< OpenAI 鬧劇對人工智慧進步和安全意味著什麼?>(What the OpenAI drama means for AI progress — and safety)指出,「建立 ChatGPT 的公司的慘敗凸顯了人們對商業力量正在反對人工智慧系統的負責任開發的擔憂。」(A debacle at the company that built ChatGPT highlights concern that commercial forces are acting against the responsible development of artificial-intelligence systems.)這場災難讓人們關注一場持續不斷的爭論,即商業競爭如何影響人工智慧系統的發展,以及人工智慧能夠以多快的速度以合乎道德和安全的方式部署。
「確保通用人工智慧造福全人類」的可能影響
「維持主導地位的努力正在導致惡性競爭。這是一場逐底競爭。」紐約市政策研究組織 AI Now Institute 的董事總經理 Sarah Myers West 說。Altman 是一位成功的投資者和企業家,也是 OpenAI 及其公眾形象的共同創辦人。他自 2019 年以來一直擔任首席執行官,並監督微軟約 130 億美元的投資。在 Altman最初被驅逐後,使用 OpenAI 技術為其搜尋引擎 Bing 提供支援的微軟為Altman 提供了一份領導新的高級 AI 研究團隊的工作。在Altman重返 OpenAI之前,數百名公司員工簽署了一封信,威脅要跟隨 Altman 加入微軟,除非他復職。
上週罷免 Altman 的 OpenAI 董事會沒有給出該決定的詳細原因,起初表示他被解僱是因為他“在與董事會的溝通中始終不坦誠”,後來又補充說,該決定與“瀆職或任何與我們的財務、業務、安全或安保/隱私實踐相關的行為」。
但有些人猜測,此次解僱可能源於據報道OpenAI 內部的分裂,兩派之間的分歧是那些專注於商業增長的人和那些對快速發展的壓力感到不安的人及其對公司使命「確保通用人工智慧造福全人類」的可能影響。 」。
這是一種文化和目標的衝突
OpenAI 總部位於加州舊金山,成立於 2015 年,是一家非營利組織。2019 年,該公司轉向了一種不尋常的上限利潤模式,董事會明確不對包括微軟在內的股東或投資者負責。在奧特曼被解僱的背景下,「非常明顯的是非營利組織與有限利潤之間的衝突;澳洲墨爾本莫納什大學技術社會科學家賈森·薩多斯基 (Jathan Sadowski) 表示:“這是一種文化和目標的衝突。”
Ilya Sutskever 是 OpenAI 的首席科學家,也是罷免 Altman 的董事會成員,今年 7 月,他將工作重點轉向了“超級聯盟” ,這是一個為期四年的項目,試圖確保未來的超級智能為人類造福。
目前還不清楚 Altman 和 Sutskever 在發展速度方面是否存在分歧:在董事會解僱 Altman 後,Sutskever對他的行為所造成的影響表示遺憾,並且是簽署這封信的員工之一,威脅要離開,除非Altman回來。
隨著 Altman 的回歸,OpenAI 重新洗牌了董事會:Sutskever 和華盛頓特區喬治城大學安全與新興技術中心人工智慧治理和安全研究員 Helen Toner 不再擔任董事會成員。新董事會成員包括 Bret Taylor,他是電子商務平台 Shopify 的董事會成員,並曾領導軟體公司 Salesforce。Sadowski 表示,OpenAI 似乎將進一步擺脫其非營利起源,重組為典型的以利潤為導向的矽谷科技公司。
競爭日趨白熱化,行為、用途和濫用之前就出現了
OpenAI 大約一年前發布了 ChatGPT,使該公司享譽全球。該機器人基於該公司的 GPT-3.5大語言模型 (LLM),該模型利用數十億個訓練句子中單字之間的統計相關性來產生對提示的流暢響應。這項技術所展現出的廣泛能力(包括一些人眼中的邏輯推理)令科學家和大眾感到震驚和擔憂。
OpenAI 並不是唯一一家追求大型語言模型的公司,但 ChatGPT 的發布可能推動了其他公司的部署:Google於 2023 年 3 月推出了聊天機器人 Bard,同月發布了基於 GPT-4 的 ChatGPT 更新版本。韋斯特擔心,產品在人們完全了解其行為、用途和濫用之前就出現了,這可能「對社會有害」。
對話式人工智慧的競爭格局正在升溫。谷歌暗示未來會有更多人工智慧產品。亞馬遜擁有自己的人工智慧產品 Titan。旨在與 ChatGPT 競爭的小型公司包括德國公司 Aleph Alpha 和美國 Anthropic(由前 OpenAI 員工於 2021 年創立),該公司於 11 月 21 日發布了聊天機器人 Claude 2.1。Stability AI 和 Cohere 是其他經常被提及的競爭對手。
韋斯特指出,這些新創公司嚴重依賴谷歌、微軟和亞馬遜這三家公司提供的龐大而昂貴的運算資源,這可能會在這些控制巨頭之間引發爭奪主導地位的競爭。
通用人工智慧 (AGI)是一種深度學習系統
加拿大多倫多大學電腦科學家傑弗瑞辛頓(Geoffrey Hinton)是深度學習的先驅,他對人工智慧的發展速度深感擔憂。「如果你指定一場比賽讓汽車跑得盡可能快,你要做的第一件事就是取消煞車,」他說。(自 11 月 17 日以來,Hinton 拒絕就OpenAI 事件向Nature發表評論。)
OpenAI 成立的具體目標是開發通用人工智慧 (AGI),這是一種深度學習系統,經過訓練不僅可以擅長某一特定事物,而且可以像人一樣聰明。目前尚不清楚通用人工智慧是否可能。「陪審團在這方面的意見非常明確,」韋斯特說。但有些人開始押注於此。Hinton 表示,他曾經認為 AGI 會在 30 年、50 年甚至 100 年的時間尺度內發生。「現在,我認為我們可能會在 5 到 20 年內實現這一目標,」他說。
人工智慧迫在眉睫的危險與其被人類不良行為者用作工具有關——例如,人們利用人工智慧製造錯誤訊息、實施詐騙,或可能發明新的生物恐怖主義武器1。韋斯特說,由於當今的人工智慧系統透過尋找現有數據中的模式來運作,因此它們也傾向於加劇歷史偏見和社會不公。
關注人工智慧已經存在的威脅
從長遠來看,Hinton 和其他人擔心人工智慧系統本身會成為一個壞角色,發展出足夠的機構來引導世界事件朝負面方向發展。Hinton 表示,即使 AGI 的設計符合 OpenAI 的「超級對齊」使命,以促進人類的最大利益,這種情況也可能發生。例如,它可能會決定,人類遭受的苦難是如此巨大,以至於人類寧可死去,也不要面臨更多的苦難。這些說法聽起來像科幻小說,但 Hinton 認為,無法關閉並轉向破壞性道路的人工智慧所帶來的生存威脅是非常真實的。
英國於 11 月主辦的人工智慧安全高峰會就是為了消除此類擔憂而設計的。到目前為止,大約有二十幾個國家已同意共同解決這個問題,儘管他們具體會做什麼仍不清楚。
韋斯特強調,重要的是要在廣泛關注人工智慧已經存在的威脅,並確保現有法律適用於開發人工智慧的科技公司。她表示,OpenAI 的事件凸顯了少數擁有資金和運算資源來支持人工智慧的公司如何擁有巨大的權力——她認為這需要反壟斷監管機構進行更多審查。「長期以來,監管機構對這個市場採取了非常寬鬆的態度,」韋斯特說。“我們需要從執行現有法律開始。”