「AMD史上最大晶片」炸場CES:1460億電晶體,可大幅壓縮ChatGPT訓練時間

一顆晶片塞進1460億個電晶體。

還號稱能將ChatGPT、DALL·E等大模型的訓練時間,從幾個月縮短到幾週,節省百萬美元電費。

就在科技春晚CES 2023上,蘇媽帶著AMD“迄今為止最大晶片”來炸場子了。

這顆代號為Instinct MI300的晶片,也是AMD首款資料中心/HPC級的APU。

參數性能

1460億個電晶體是個什麼概念?

此前,英特爾的伺服器GPU Ponte Vecchio擁有的電晶體數量是1000億+,而輝達新核彈H100,則整合了800億個電晶體。

不過,熟悉AMD的胖友們都知道,APU簡單來說就是CPU和GPU封裝在了一起。從這個角度上來說,遠超競爭對手的電晶體數量似乎也是情理之中(手動狗頭)。

具體來說,這顆擁有1460億個電晶體的晶片,採用的是小晶片(Chiplet)設計方案。

基於3D堆疊技術,在4塊6nm工藝小晶片之上,堆疊了9塊5nm的計算晶片(CPU+GPU)。

根據AMD公開的資訊,CPU方面採用的是Zen 4架構,包含24核。GPU則採用了AMD的CDNA 3架構。

由於Zen 4架構通常是8核設計,外界普遍猜測,9塊計算晶片中有3塊是CPU,6塊是GPU。

另外,MI300擁有8顆共128GB HBM3視訊記憶體。

性能方面,AMD並未公佈太多資訊,僅與Instinct MI250X進行了比較。

蘇媽表示,相比於MI250X,MI300每瓦AI性能提升了5倍,AI訓練性能整體提高了8倍。

而據Tom‘s Hardwre消息,AMD還透露,MI300能將ChatGPT、DALL·E等大模型的訓練時間,從幾個月縮短到幾週。

Instinct MI300預計將在2023年下半年交付。屆時,這顆晶片還將被部署到兩台新的百億億次等級(ExaFLOP)超級電腦上。

One More Thing

同樣是在今年的CES上,AMD還直接對標蘋果M系列晶片,推出了“世界最快的超薄處理器”——銳龍7040系列。

具體型號包括:Ryzen 5 7640HS、Ryzen 7 7840HS、Ryzen 9 7940HS。

對於其中最高端R9 7940HS,蘇媽大讚說:

R9 7940HS在多執行緒性能方面,比蘋果M1 Pro快34%;在AI任務處理上,比蘋果M2快20%

還給出了更直觀的體驗資料:搭載銳龍7040系列晶片的超薄筆記本,能連續播放30+小時視頻。

首批搭載銳龍7040處理器的筆記型電腦,將在今年3月份出貨。

不管怎麼說,這消息可把吃瓜群眾樂壞了:

蘋果下場自研PC晶片,加強了晶片製造商之間的競爭,這種局面其實10年前就該有了。

參考連結

[1]https://www.youtube.com/watch?v=OMxU4BDIm4M

[2]https://www.tomshardware.com/news/amd-instinct-mi300-data-center-apu-pictured-up-close-15-chiplets-146-billion-transistors

[3]https://www.anandtech.com/show/18721/ces-2023-amd-instinct-mi300-data-center-apu-silicon-in-hand-146b-transistors-shipping-h223

[4] https://www.macrumors.com/2023/01/05/amd-new-chips-against-m1-pro/

本文來自微信公眾號“量子位”(ID:QbitAI),作者:魚羊 Alex,36氪經授權發佈。

本文經授權發布,不代表36氪立場。

如若轉載請註明出處。來源出處:36氪