不久前,購買「好的顯示卡(GPU)」這句話,通常意味著「我要玩高畫質遊戲」或者「我已經開始進行視頻編輯」了。一般電腦的核心一直是CPU,而GPU只是負責美化顯示的輔助裝置。

但是隨著生成式AI和深度學習的時代來臨,局勢完全反轉。現在,為了在個人電腦上運行或訓練AI模型,高性能的GPU已經成為必需品。正因如此,NVIDIA成為全球市值最高的公司。

究竟為什麼,像聰明博士一樣的CPU被拋在一旁,簡單勞動者般的GPU卻成為了AI時代的主角?這的秘密藏在我們在高中數學課上學過的「向量」「矩陣」以及大學裡學習的「線性代數」中。

1. 教會電腦識別「蘋果」和「香蕉」的方法:向量(Vector)



當我們想到「蘋果是紅色和圓形的」、「香蕉是黃色和長形的」時,電腦是怎麼理解這些概念的呢?電腦只識別0和1,也就是數字。因此,計算機工程師和數學家決定將世上的所有概念轉換為數字的集合,也就是向量(Vector)

舉個例子,假設我們用代表水果特徵的三維向量[顏色、形狀、甜度]來表達。 (紅色=1,黃色=10 / 圓形=1,長形=10)

  • 蘋果: $[1, 1, 8]$

  • 香蕉: $[10, 10, 9]$

  • 青蘋果: $[2, 1, 7]$

將數據轉換成向量後,驚人的事情發生了。我們可以計算「相似度(Similarity)」。

在空間中,蘋果和青蘋果的坐標相近,而香蕉則遠離。AI之所以能判斷「蘋果和青蘋果相似!」的根據,正是在這個向量空間中進行的距離計算。

2. 向量匯聚成的巨大立方體:張量(Tensor)

然而,AI所處理的數據可不是僅有三種水果的程度。

想像一下,一張長和寬各為1000像素的彩色照片。每個像素需要三個數字R、G、B,因此照片由$1000 \times 1000 \times 3$個數字組成,是一個龐大的數據塊。

  • 標量(Scalar): 單個數字(例如:5)

  • 向量(Vector): 數字的一行陣列(例如:[1, 2])

  • 矩陣(Matrix): 數字的二維表格(Excel表)

  • 張量(Tensor): 三維以上的數據塊(立方體形式)

谷歌的AI框架名為「TensorFlow」,就是因為AI不斷在計算這些龐大的數據塊(張量)。

3. AI的本質:無止境的乘法和加法(矩陣運算)



談到深度學習(Deep Learning),好像會進行非常複雜的邏輯推理,但如果深入了解,實際上只是反覆執行簡單而粗暴的矩陣乘法(Matrix Multiplication)

輸入數據(X)乘以權重(W)並加上偏差(b),像$Y = WX + b$這樣的線性代數公式會重複數億次、數兆次。

問題不在於這個計算的難度,而在於「數量」

  • CPU的方式:「好的,先計算第一行...完成了嗎?那麼第二行...」(順序處理)

  • AI的要求:「現在立即同時做一億次乘法!」

在這裡,天才數學家(CPU)陷入了困境。不管多聰明,身體只有一個,無法同時處理一億個作業。

AI利用GPU進行張量運算的圖像

4. 原本塗像素的畫筆,成為AI的腦

這時出現的救世主正是GPU(圖形處理單元)。本來GPU是為了在屏幕上繪圖而誕生的。

想像一下顯示器的畫面。FHD顯示器上有大約200萬個像素。在玩3D遊戲時,GPU需要對這200萬個像素中的每一個進行「你應該是什麼顏色」、「這裡是陰影所以要稍微變暗」的計算,這些計算必須同時進行。

  • CPU: 少數非常聰明的核心(例如:4~16位博士)→ 對複雜邏輯和有序任務的最佳化

  • GPU: 只能進行簡單計算的數千個核心(例如:5,000名小學生)→ 尤其適合同時處理重複性簡單計算(並行計算)

開發者們意識到了。

「等等,3D遊戲中計算像素坐標然後同時填色和在AI深度學習中同時進行矩陣乘法,這數學上完全一樣?」

為了圖形處理而發展的GPU的大規模並行處理能力,恰好(或必然)與深度學習中的矩陣運算完美契合。在GPU來看,與其說是在螢幕上顯示像素,不如說是在分發AI數據,做的事情(矩陣運算)是相同的。

5. 結論:學校時期的數學時光沒有白費

總結來說就是這樣。

  1. 計算機工程師和數學家為了數學地理解世界(或告訴機器理解世界)將信息製作成向量和張量

  2. 處理這些張量,需要線性代數(矩陣運算)

  3. 同時計算數千個像素的GPU已經優化了這種矩陣運算。

這三者的結合使得當今的AI革命成為可能。

高中時期抱怨「學習向量和標量有什麼用?」而在大學時候對線性代數中的矩陣乘法感到頭疼嗎?我記得我在大學一年級時對線性代數感到非常無聊,結果成績不佳,在三年級又重修並恢復了成績。第二次修課時我努力抄作業,但相比微分方程,線性代數仍然讓我感到無聊。然而,令人驚訝的是,那些麻煩的數學在20年後成為了創造人類歷史上最聰明的人工智慧的關鍵。

數學家的理論與硬體工程師的技術相遇之處,正是GPU和AI之所在。


🚀 下一篇文章預告

現在我們已經明白了CPU和GPU有什麼不同。那麼最近新聞中經常出現的NPU(神經處理單元)又是什麼呢?我們將探討NPU相較GPU在AI方面的優化程度。