受惠於⼈⼯智能(AI)晶片需求旺盛,晶片巨擘英偉達(Nvidia)截⾄7⽉底⽌第⼆季度純利由去年同期的6.56億美元,跳升逾八倍⾄61.9億美元(約482.82億港元),扣除部分項⽬後每股賺2.7美元,遠勝市場預期的2.07美元。此外,英偉達上季收入以⾄今季收入預測俱拋離分析員估計,同時董事局批准回購250億美元(約1950億港元)股份,刺激股價⼀度突破500美元,⾼⾒502.66美元,今年累升超過兩倍。
英偉達業績亮麗,最後⼀位淡友投降, Morningstar分析員調升英偉達投資評級⾄「持有」,⽽且把合理值由300美元上調⾄480美元。券商Stifel更給予600美元⽬標價。
英偉達上季收入增加逾倍⾄135億美元,⾸次超越昔⽇業界龍頭英特爾,並多過市場預期約110億美元及接近2021年全年收入數字。
各業務表現中,數據中⼼晶片包括AI圖像處理器(GPU)的收入激增171%,⾄103.2億美元,遠超估計的79.8億美元;遊戲晶片收入增長22%⾄24.9億美元,多過預期的23.8億美元,⽽汽⾞晶片收入為2.53億美元。
對華銷售禁令長遠削弱美國地位
英偉達預測今季收入最多160億美元,遠勝市場估計的125億美元,也是連續3季收入預測勝預期。黃仁勳在聲明中表⽰,⼀個新的運算時代已經開啟,全球企業正轉型⾄可處理諸如ChatGPT般的⽣成式⼈⼯智能,具有更強⼤運算⼒,形容這是英偉達的「iPhone時刻」。他⼜說,全球數據中⼼投資將以萬億美元計,強調公司竭⼒確保能夠應付急增的需求,正專注於增加供應。
英偉達近年積極布局數據中⼼業務,2022財年第四財季數據中⼼業務營收約佔42.7%,尚落後遊戲業務營收約2個百分點,2023財年第一財季後正式超越遊戲業務,佔比逾45%。
今年起各⼤CSP (雲端服務供應商) ⼤舉投資ChatBOT及公有雲各種AI服務基礎設施後,英偉達更直接受惠,在2024財年第二財季的數據中⼼業務營收佔比⼀舉突破76%。
英偉達財務總監克雷斯(Colette Kress)在分析員會議上稱,供應合作夥伴正異常地加快提升產能,因此預期到明年底,每季的供應都會有所增長。她提到,華府現有的AI晶片和⾼端零件銷售限制已收到預期效果,上季中國市場佔整體銷售的比率,處於過去介乎20%⾄25%的範圍內。
基於全球對公司產品的需求強烈,克雷斯相信拜登政府額外的出⼝管制不會對英偉達業績造成即時影響,惟承認長遠來說,禁⽌向中國銷售數據中⼼GPU,將導致美國業界永久失去在這個全球最⼤市場之⼀的競爭⼒和領先機會。
GPU供不應求 或轉變銷售策略
英偉達服務優勢在於提供⽤於⼤模型訓練的GPU。TrendForce觀察,預估英偉達⾼階GPU產品銷售策略,將於下半年後轉變,原⾼階AI伺服器主打搭載A100及H100,市場需求⼤好下,改成主攻售價更⾼的H100,才能有效刺激數據中⼼營收向上。
GPU的供不應求,也讓其價格不斷瘋漲。據統計,英偉達當前在售的⽤於⼤模型訓練的GPU卡⾄少有9款型號,其中⾼性能的有4款,分別是V100、A800、A100及H100。⽽⽬前⼀張H100晶片在eBay上的價格甚⾄炒到了4.5萬美元,折合⼈⺠幣超過了30萬元。
GPUUtils於8⽉4⽇公佈的⼀組資料顯⽰,OpenAI的GPT-4可能在1萬到2.5萬張A100GPU晶片上進⾏訓練;Meta擁有約21000張英偉達A100;特斯拉擁有約7000張A100;StabilityAI擁有約5000張A100;Falcon-40B模型(400億參數)在384張A100上進⾏訓練。根據⾺斯克的說法,GPT-5可能需要3萬~5萬張H100顯卡。
根據GPUUtils的測算,AI晶片H100在2023年8⽉的市場總需求可能在43.2萬張左右。這也就是英偉達數據中⼼能夠賺得盆滿缽滿的原因。TrendForce統計資料顯⽰,如果以英偉達A100顯卡的處理能⼒計算,GPT-3.5⼤模型需要2萬塊GPU來處理訓練資料。⽬前英偉達A100顯卡的售價在1萬至1.5萬美元之間,預估英偉達可以賺3億美元。
中階GPU⽅⾯,以近期L40s為主打⽅案,有幾個策略意義。⾸先,⾼階H100系列受限於CoWoS、HBM等產能有限,L40s搭配GDDR記憶體,不須CoWoS封裝,可加速導入中階AI伺服器市場,補⾜A100PCIe介⾯對企業客⼾需求缺⼝。
其次,L40s也主攻企業客⼾,不需使⽤如ChatGPT龐⼤的參數模型,主攻較⼩型化(約數⼗billion⾄百billion參數量以下)各專業領域AI Training應⽤,亦針對邊緣AI Inference或影像分析等使⽤。中國客⼾因地緣政治問題,導致⾼階GPUH系列供應受阻風險,可⽤L40s補⾜。低階GPU系列以L4或T4系列為主打,邊緣AI伺服器即時AI推論或影像分析使⽤,並更強調較低價、⾼CP值產品特性。
TrendForce觀察,近期英偉達除對核⼼AI晶片GPU更細緻化定位,也積極主推HGX及MGX等⽅案,這並不是伺服器產業鏈⾸⾒做法,但英偉達有機會穩固領先優勢。英偉達藉⾼度整合GPU加上CUDA建立完整AI⽣態系,處於絕對領先位置,故對既有伺服器供應鏈有較強議價能⼒,要求ODM如英業達、廣達、⼯業富聯、緯創、緯穎等,或品牌業者Dell、Supermicro、技嘉等,依英偉達HGX或MGX參考設計,且需經英偉達該AI伺服器參考架構的軟硬體認證。英偉達可整合兜售Arm CPU Grace及NPU或AI Cloud Foundation等軟硬體解決⽅案。
值得注意的是,對ODM或OEM⽽⾔,預期英偉達今明兩年雲端服務業者AI伺服器主⼒市場將⼤有斬獲,有利帶動整體AI伺服器出貨量及營收成長,但隨著英偉達策略性導入HGX或MGX等標準化AI伺服器架構,也使ODM等業者將因AI伺服器核⼼產品架構較趨同質化使彼此爭取CSPs等訂單競爭態勢更⽩熱化。
觀察⼤型CSPs如Google、AWS有擴⼤導入⾃研ASICAI加速晶片趨勢,亦可能侵蝕部分英偉達GPU市場,為NVIDIA持續推動不同定位GPU產品及整體⽅案,將AI業務積極拓展⾄Tier2資料中⼼如CoreWeave等及邊緣企業客⼾的主因之⼀。
英偉達針對中國客⼾推出了替代型號A800,與原有的A100系列計算卡相比,A800系列的規格基本相同,比較⼤的區別在於NVLink互連匯流排的連接速率,前者為600GB/s,後者限制在了400GB/s。綜合使⽤效率只有A100的70%左右。
前不久英偉達還發佈了特供版的H800,作為其旗艦晶片H100的替代版。最後⼀家對英偉達給出相當於「賣出」評級的研究公司認輸了。晨星公司(Morningstar)8⽉23⽇將英偉達的股票評級上調為「持有」。
晨星分析師Brian Colello在⼀份報告中寫道對人工智能需求量的增長、以及英偉達將如何鞏固⾃⼰作為⼈⼯智慧晶片領導者的地位更樂觀了。
根據媒體彙編的資料,英偉達⽬前有54個「買入」評級,5個「持有」評級。
⽬前英偉達投資者擔憂的是,由人工智能需求拉動的業績究竟可以持續多長時間。不過Colello卻認為,基本上沒有看到這些GPU訂單是前期⽀出或⼀次性⽀出的證據。晨星公司預測,在截⾄2024年1⽉的財年中,英偉達的數據中⼼業務(包括⼈⼯智能GPU)預計將產⽣410億美元的收入,⽽去年同期為150億美元。
【關於 #龍稱】
佛教徒。龍天護法之象,心法相稱之本。少年時移居香港,高中開始接觸財經訊息並學習投資,至今凡三十年。投資既是個人興趣,亦為終身事業。曾任職於《信報》,與曹仁超先生結下忘年之交,有師徒之情。後曾就職於歐美投資銀行。
財富多寡與否在因果,也在心量,因果展現為運氣與能力,心量可改理解為布施、渴望、蓄水池等等,心量越大,福報也越大。在每一個當下把握主動,以積極態度守護財富乃至人生愿望,財富增長、心想事成是必然結果,也能為有緣人帶來光明和快樂。