ChatGPT成為各家模型挑戰對象 2025年獨領風騷的10個大語言模型

輝達執行長黃仁勳在今年CES展上談到大型語言模型(Large language model)是AI產業發展的指標,從矽谷到杭州,各家ai公司今年都將推出最新的LLM模型。(圖片來源/Gemini的AI生成圖片)

大型語言模型(Large language model)是AI產業發展的指標,2024年OpenAI的ChatGPT把輝達的股價推到高價,讓全球各大企業、政府欲開發自家的大型語言模型,然而進入2025年,許多大型語言模型急起直追,又有那些值得我們關注的呢。

OpenAI的Chat GPT

Chat GPT系列仍是全球用於內容創作的頂級模型,它可以在各個領域產生最高品質的文字。該模型每次發布新版本時都不斷超越先前的功能。與先前的型號相比,最新的 ChatGPT-4o 和 ChatGPT-4o mini 型號的處理速度明顯更快,且文字、語音和視覺功能得到增強,仍是其他大語言模型苦苦追趕的對象。

2025年最新Chat GPT模型擁有超過 1750 億個參數(超過了 ChatGPT-3 的 1750 億個參數數量),並且擁有 128,000 個標記的大量上下文長度,這使得它們能夠高效處理和生成大量數據。這兩種型號都配備了多模式功能,可以處理影像和音訊資料。

Google的三款大型語言模型

谷哥google一共有LaMDA、PaLM、Gemini三款大型語言模型,LaMDA是精密的LLM,是專為人機對話設計的,一名Google人工智能(AI)工程師聲稱,與公司研發的AI語言模型「對話應用語言模型」(LaMDA)對話幾個月後,發覺它已有「自我感受」,他因此事在本月初遭Google勒令休假。

到底LaMDA是否已經有自我意識引起廣泛的討論,甚至還有專家撰文《LaMDA有知覺嗎?》,但也顯示這款模型的深度反應。

然而一般大眾更能接觸到的是Gemini模型,這是google的AI鉅做,它在30項評分超越GPT-4V,解決問題數量是一代的兩倍,外界評論其能很好地處理細微的語言結構,使其成為大規模翻譯任務的首選。

Gemini模型不僅支援英語還能同時支援多個語種,在不同語種執行效能也能維持一致並大量使用Google自家設計的TPU訓練,2025年還會有新的版本推出。

亞馬遜Anthropic的Claude

亞馬遜旗下雲端服務供應商 Amazon Web Services(AWS)與 AI 新星獨角獸 Anthropic 公司不僅宣佈合作引領生成式 AI 未來發展,更領先任何雲端服務商,在 AWS 的 Amazon Bedrock 平台推出全系列 Claude 3 Sonnet、Claude 3 Haiku 以及 Claude 3 Opus 模型。

Claude被視為ChatGPT 最有力的競爭對手之一,其具有令人難以置信的語境理解能力,這些能力使它們成為最頂尖的對話式AI。其具有200,000 個標記的上下文長度(Context Window),相當於大約 150,000 個單字或 300 頁文字。

阿里巴巴通義千問

中國企業的大型語言模型也值得關注,阿里巴巴的通義千問讓西方媒體也高度關注,阿里巴巴最新發表的QWQ在人工智慧界引起轟動。 QwQ-32B-Preview 是 Qwen 團隊開發的實驗研究模型,專注於提高 AI 推理能力。

QwQ-32B-Preview最新模型擁有 325 億個參數,在這些領域的表現優於一些現有模型,具有處理複雜任務的能力。即使作為預覽模型,它也在編碼和分析任務(例如數學計算和邏輯推理)等領域中表現出顯著的優勢。它在數學和 AIME 性能上取得了更高的成績,超越了 OpenAI 的 o1-preview 和 GPT-4 模型。

中國DeepSeek的DeepSeek-R1模型

中國杭州的AI新創公司「深度求索」(DeepSeek)趕在農曆年前,1月20日,對外正式發表新的AI模型DeepSeek-R1,因性能與OpenAI最新的o1相媲美,引發轟動。DeepSeek公司宣布以MIT授權開源R1推論模型系列,該系列在數學與程式開發等相關測試中表現出色,部分領域已達到與OpenAI O1模型相當的水準。

去年12月27日,DeepSeek推出開源模型「DeepSeek-V3」,該模型在各種基準測試中都表現出色。該模型在多個基準測試中表現出色,與 Qwen 2.5 72B 等模型相匹配,並優於 GPT-4o 和 Mistral Large 模型。

V3擁有令人印象深刻的 6,710 億個參數,是人工智慧領域最大的模型之一。它具有多達 128,000 個標記的上下文視窗和多頭潛在註意力機制,能夠以出色的準確性和連貫性處理複雜任務。 DeepSeek-V3 還接受了 14.8 兆個高品質標記(tokens)的訓練,這使其在不同領域和應用程式中具有極強的通用性,但是公司當局聲稱的低成本開發已遭到各界質疑真實性,2025年1月就發表了新款模型,到年底前,是否再發表新的模型,令外界高度關注。

韓國LG的Exaone模型

韓國電子鉅子LG公司轉投資的LG AI Research在2024年CES展上首度公告開發大型語言模型,歷經一年時間,2024 年 12 月發布了其最新模型EXAONE 3.0版本。

EXAONE 3.0 擁有 78 億個參數,能夠理解並產生跨複雜領域的多種語言的類人文本,包括編碼、數學、專利和化學。模型也經過最佳化,推理處理時間減少56%,記憶體使用量減少35%,營運成本減少72%,確保在維持高效能的同時,仍保持成本效益。

臉書Meta 的LLaMA

臉書在2024 年 9 月發布了最新型號 LlaMA 3.2,具有多模式功能,可以處理文字和圖像進行深入分析和回應生成,例如解釋圖表、地圖或翻譯圖像中識別的文字。包含具有 80 億、700 億和 4050 億個參數的強大模型,為不同用例提供了多功能範圍。它具有 128,000 個標記的上下文長度,可以一次處理大量複雜的資料輸入。

但也有國際評論寫到Meta 最大的型號。它可以很好地處理複雜的程式碼任務,但速度較慢。它還缺乏與主要編碼助手的整合。然而在今年,臉書預計發布新一版本的LlaMA。

亞馬遜的Titan

Amazon Titan 基礎模型,包括Amazon Titan 嵌入模型和Amazon Titan 圖像生成器模型,亞馬遜網路服務公司(AWS)不僅構建了AI訓練專用的Trainium晶片,還推出Titan大型語言模型,協助企業快速部署AI解決方案。

Titan的成形靠輝達的幫助,NVIDIA 為部分最大型的Amazon Titan Foundation 模型提供訓練. Amazon 利用NVIDIA NeMo 框架、GPU 和AWS EFA 訓練新一代LLM。Amazon Titan擅長文字處理。

Mistral AI的Mistral 模型

Mistral AI是一家法國新創公司,本身獲得輝達、微軟和法國企業的投資,Mistral 模型擁有 1230 億個參數和 128,000 個標記上下文長度,這意味著它能夠保持長段文本的連貫性,非常適合需要大量文件處理的複雜應用程式。

去年最新的版本是Mistral Large 2,工程師把規格輸 入進去,Mistral Large 2直接把所有程式碼Code 寫妥,幾乎不用改,業界認為跟 Claude 3.5 Sonnet 不相上下。它本身是一個開源模型,目前有Mistral 7B、Mistral NeMo 、Mistral Large和Mixtra 8x7B等四大版本。

Cohere的Command R

大型語言模型不一定必須全部仰賴訓練,也可以透過搜索,所謂的擷取增強產生RAG技術,RAG運用到LLM中透過結合檢索與生成的能力,不僅提高內容的準確性和相關性,還大幅拓展了模型的知識範圍。

根據資策會的報導,Cohere於2024年3月提出了Command-R技術,這一突破性的技術旨在進一步增強大型語言模型在基於私人知識庫進行搜尋時的準確度。Command-R技術透過對檢索機制的優化,使LLM能夠更精準地理解與回應基於特定知識庫的查詢,進而提升了基於私人或專業知識庫的資訊檢索和內容生成的品質與效率。

Cohere推出的Command R 和 Command R+ 模型都提供專門針對擷取增強產生 (RAG) 最佳化的 API。目前,Command R+ 模型擁有 1040 億個參數,並提供業界領先的 128,000 個標記上下文長度,以增強長格式處理和多輪對話功能。

(原始連結)


更多信傳媒報導
乾眼症患者新希望 中醫靠顏面針灸、雷射針灸改善
腦袋裡的不定時炸彈...醫解析「腦動脈瘤」風險背後的致命頭痛與救命關鍵
團聚時光不將就 細品高雄的團聚滋味