2025/04/25

五年內唯一只會上漲的趨勢:AI?

川普上任之後,我的投資部位開始回吐,開始說服自己是長線投資。

這段時間我想了很多,開始思考長線投資,有沒有一個產業,至少能活五年。

在台灣,許多人依然深信房地產將持續上漲,股市會創下新高,甚至台積電有望重返千金股的榮耀。但說實話,這些領域的漲跌,從來沒有人說得準。一則來自川普的推文,可能就足以讓你的投資部位瞬間蒸發 10%。

那麼,有沒有什麼是五年內幾乎只會漲、不會跌的呢?如果我現在破題說:答案是 AI,相信不少人會點頭認同,但也會有人持保留態度。確實,質疑聲音從未消失,有人認為 AI 正是下一個科技泡沫——發展過快、熱錢過多、應用過於集中,終究會崩盤。

尤其是近期 Deepseek 的崛起,更加劇了這種聲音。這個新模型號稱推論成本下降 90%(印象中),讓人懷疑未來是否還需要龐大的 GPU 運算能力。但我認為,這是一種誤解。

AI 要進步,離不開兩大核心動力:架構創新與scale-up 擴展法則(Scaling Law)。即使像 Deepseek 這種模型架構能帶來效率提升,但從 GPT-3 到 GPT-4,參數從 1750 億一路暴增到 1.8 兆,這種等比級數的成長,才是性能躍升的主要動力。

GPU 的需求因此不是遞減,而是「遞爆」的。如果你了解 AI 模型的蒸餾過程,就會知道——新一代模型往往是站在上一代模型的肩膀上誕生的。即便某些模型宣稱訓練更便宜,事實上仍得依賴前代的大型模型提供訓練資料與知識壓縮。因此,真正的總成本並不如想像中樂觀。

從應用層來看,目前語言模型的確還停留在「增能」階段,輔助文字處理、客服、寫程式……離真正的科學突破還有距離。但一旦這些模型進入物理、化學、生物等科學研究領域,對 GPU 的需求將呈現幾何級數增長,並觸發新一輪的算力競賽。

應用領域除了日常工作與程式應用之外,AI在未來幾年的潛在用途,也將觸及到更具科學與社會意義的領域。例如,過去氣象預測主要仰賴傳統超級電腦進行數值模擬,透過方程組與物理模型來推算天氣變化,其運算量龐大,對超算設備有極高要求。然而,隨著大型神經網路模型的進步,已有研究顯示,使用AI模型進行天氣預測不僅能大幅降低計算成本,預測準確度甚至可能與傳統方法媲美。這代表未來透過GPU架構運行的語言模型或擴散模型,有可能逐步取代某些傳統高性能運算任務。

當然,AI 的發展也並非無懈可擊,排除GPU資源的限制之外,其最大的變數往往來自於政策與地緣政治的干預。以 Deepseek 為例,該模型在最初推出時表現相當亮眼,推測是因為其訓練資料來自於全球自由開放的網路。然而,隨著正式發表後,其聯網功能被限制只能從中國境內網站取得資料,導致模型的回答品質明顯下滑。

這一變化揭示了一個重要事實:大型語言模型的表現高度仰賴於資料來源的多元與自由。當訓練資料被侷限於資訊品質參差不齊的環境時,問題也隨之浮現。以中國許多網站為例,從搜尋引擎到實際取得所需資訊,往往困難重重,不但廣告滿天飛,還充斥假訊息與低品質內容,對模型訓練形成極大干擾。這也正印證了那句話:「Garbage in, garbage out」——輸入的資料若是雜亂無章,產出的結果自然難以令人滿意。

這段經驗突顯出一個重要的技術前提:要維持 AI 技術的前沿實力,全球資料的自由流通是一項關鍵條件。

沒有留言:

張貼留言