企業需建構專屬 AI 應用 方能將 AI 科技轉化成經營助力 提升企業競爭力
COMPUTEX 系列論壇活動 - AI NEXT FORUM 下午場「AI 生態系的新金礦–企業 AI 中心」
本會表示,生成式 AI(GenAI)與多模態 AI(Multimodal AI)模型不斷推陳出新,已讓各行各業必須直接面對 AI 科技數位轉型的迫切壓力,McKinsey & Company 日前發布的 Superagency in the Workplace 研究報告更表示,AI 科技帶來的長期發展機會上看 4.4 兆美元,企業受影響對象將涵蓋企業主管、企業員工甚至是企業營運模式,AI 科技對百工百業的影響,就跟蒸汽機對 19 世紀工業革命的影響一樣無遠弗屆。
為讓各大產業主管與相關 ICT 產業人士,更加了解在 AI 2.0 時代下的雲地端 AI 應用,進而依照企業營運特性規劃 AI 導入策略,本會於 5 月 6 日假台北漢來飯店辦理「COMPUTEX 系列論壇活動 – AI NEXT FORUM」,下午場聚焦「AI 生態系的新金礦 - 企業 AI 中心」,邀請資策會產業情報研究所(MIC)所長洪春暉、研華嵌入式事業群總經理張家豪、華碩共同執行長胡書賓、雙鴻董事長林育申、台達電源及系統事業群副總裁暨總經理陳盈源等產業專家,從 AI 2.0 技術突破、邊緣 AI 賦能機器人產業創新、AI 基礎設施與 AI 數據中心建置、AI 運算系統的電力與散熱解決方案等面向進行專題演講。TCA 並邀請英特爾、永擎電子、卓越電子、智捷科技等多家科技大廠,現場展示英特爾新一代 Intel Core Ultra 與 Intel Xeon 處理器、NVIDIA Blackwell 企業 AI 伺服器、AI 邊緣監控整合盒、AI 邊緣運算平台等產品,國科會晶創競賽(ICTGC)也在現場介紹第三梯次徵案。
企業需建構專屬 AI 應用 方能將 AI 科技轉化成經營助力 進而提升企業競爭力
本會榮譽理事長童子賢致詞時指出,台灣在這一場 AI 的進步和革命中沒有缺席,也不能缺席,台灣一直是全球數位科技產業的重要夥伴、參與者和合作者,從 40 年前的個人電腦萌芽,到網路誕生,到進入能感測與智慧 AIOT 年代,一直進展到如今這一波 AI 應用。AI 是另外一個里程碑,當 AI 打造完成基礎後,接下來就是要進入應用的年代,預期未來幾年會逐漸讓 AI 高度成長,跟浸潤式瀰漫在我們科技產品的身邊,十年後的世界就不用刻意去強調 AI,就如同現在的世界不用特別去強調網路,因為網路已經無所不在。
童子賢表示,今天要探討的就是企業如何打造自己的 AI 中心,讓企業在這一篇 AI 革命中不要落後。向來台灣產業過往有個被批評的點,就是重生產、輕應用,重硬體製造、輕軟體研發。首先是算力,在 AI 這一波發展中,台灣在 AI 基礎結構跟硬體製造上有目共睹,尤其半導體產業、電路板、系統、機櫃製造上扮演全球 AI 算力關鍵核心角色。演算法的突破對 AI 發展很重要,這一波是 2017 年 Transformer 演算法起來,被實現在 2022 年 OpenAI 所發表 ChatGPT 的 GPT-3.5 被引爆,當然 ChatGPT 只是大潮流下的引爆點之一,但是全世界對於 AI 的發展熱潮就被帶動起來了。
童子賢認為,在算力跟演算法之後,就是大數據的發展,而大數據不會掌握在一個人的手上或一個領域的手上,將牽涉到應用,不同的領域有不同的應用。發展 AI 的幾個條件,算力、演算法、大數據,條件已經成熟到可以把 AI 從理論推向各個應用場域的階段。所以下午的論壇會注重在,企業如何建構自己的 AI 應用,如何將科技的熱潮,轉化成企業經營的助力,進而提升自己的競爭力。
AI 以人為中心 在生活與產業中落地 邊緣資料中心與 AI 終端裝置將提升市場接受度
資策會產業情報研究所(MIC)所長洪春暉在「AI 新局,台灣 AI 軟硬體現況與展望」主題演講中點出,生成式 AI 朝向更大參數規模的大型語言模型(LLM)或專用領域的小型語言模型(SLM)發展,由於開源版本大量釋出,表現已經接近非開源模型。而 AI 應用發展趨勢中,AI 將以人為中心,在生活與產業中落地生根,包括 AI Agent、AI + 終端裝置、AI 賦能人形機器人等。至於 AI 應用落地與場域則相當多元化,目前在台灣的案例已經包括:病理診斷(雲象科技)、協作機器人(達明機器人 Techman Robot)、軟體定義工廠(MetAI)、風險帳戶警示(富邦銀行)、動畫創作(智寶國際)等多樣化場域。
展望 2025 市場發展,洪春暉指出 AI 算力需求帶動雲端資料中心擴建,AI PC 換機潮與應用成熟進一步推動終端市場成長,並認為 DeepSeek 將帶動一波創新 AI 模型,短期雖影響大型資料中心建置規劃,卻也提供邊緣資料中心與 AI 終端裝置的採用新思維,預估將提升市場接受度。AI 運算需求也將促進半導體先進製程、先進封裝與記憶體技術進步,讓科技大廠開發彈性組合的 AI 晶片,進而滿足 Edge AI 應用的少量多樣需求,創造更多 Edge AI 應用。
以邊緣運算平台與機器人核心架構 加速廠商開發多元應用場域的機器人解決方案
研華嵌入式事業群總經理張家豪在「邊緣 AI 賦能機器人產業創新」主題演講中表示,全球 AI 與邊緣運算科技快速發展,2032 年全球 Edge AI 市場規模上看 1436 億美元,而且應用領域涵蓋智慧製造、機器人、健康照護、智慧城市等場域;而在熱門的機器人領域當中,包括 AGV、AMR、機器手臂、巡檢機器人、服務型機器人、人形機器人等都需要 Edge AI 的技術。由於廠商開發機器人需要整合各類邊緣 AI 運算、感測模組軟硬體零組件,因此研華提出一套機器人核心架構,包括各項技術模組 (Building Blocks),包含 Edge AI Platform 的決策核心平台、感知與控制模組、系統整合能力,以支持機器人產業發展,除此之外,同步提供 Robotic Suite 軟體開發套件,加速產業機器人開發並落地上市,並持續提供更先進的 Edge Computing 平台,將 AI 技術導入,Edge + AI 將成為 Edge Computing 標準配備。
除了雲端資料中心持續發展,企業數據隱私安全與高效率小型語言模型快速發展 也加速企業本地 AI 資料中心建置需求
華碩共同執行長胡書賓在「AI 數據中心佈局與發展」主題演講中指出,不管是大型語言模型的發展或是 AI 技術應用場域的推進,從 Generative AI,朝向具備推裡規劃能力的 Agentic AI,到能感知及回應實際物理世界的 Physical AI,最後朝向人工智慧的終極聖杯 - AGI 通用人工智慧方向前進都成為 AI data center 市場成長的主要驅動力,包括雲端與本地端。華碩擁有完整的軟硬體研發能力、客製化彈性,為客戶提供 end-to-end 從硬體、軟體、平台軟體到建置、維運服務的 AI server 數據中心全方位解決方案。華碩從 2011 年起,已在台灣完成多座中大型 AI 資料中心建置,2024 年更參與台灣最大的 AI 超算中心「Ubilink」,其算力高達到 45.82 PFLOPs,累積了從設計到部署的完整解決方案,並具備 L10 到 L12 系統階段能力。
此外,由於企業對數據隱私安全和本地運算需求提高,再加上近年來高效率的小型語言模型如 DeepSeek R1、LLaMA 4 Scout、Microsoft Phi-4 等快速發展,使得小型化高效能的本地 AI 部署成為企業 AI 資料中心新趨勢,因此華碩對應推出各類本地 AI 資料中心用 AI 伺服器,包括 4U、2U、1U、工作站與超小型桌面級 AI 超級電腦 Ascent GX10(GB10),主要執行微調過的 LLM 或 SLM,應用在如企業內部知識管理、AI 助理以及文件檢索增強生成(RAG)等場景,華碩並提供業界首創的 Multi-LM Tuner 工具,可以在本地資料中心直接進行語言模型微調,提升數據中心的運行效率與穩定性,並讓語言模型更能符合企業本地 AI 運算需求。
AI 晶片 TDP 持續快速增加 推動 AI 資料中心全面導入液冷散熱趨勢不可逆
雙鴻董事長林育申在「AI 基礎設施與先進散熱技術」主題演講中表示,當算力即國力成為各國 AI 軍備競賽趨勢,使得 AI 基礎設施需求持續增加,預估 2028 年全球市場規模上看 900 億美元。由於新 AI 伺服器耗電量大增,而且一台 AI 機櫃的散熱部分佔總體耗電量高達 39%,再加上液冷散熱 PUE(電源使用效率)遠低於傳統氣冷散熱,使得未來 AI 機房朝向液冷發展趨勢不可逆,因為液冷可有效降低 AI 資料中心整體用電量。
林育申也指出,液冷散熱技術的快速發展,也是因應 AI 伺服器用電量大幅增加的關係,以 NVL 32 為例,耗電量為 55kW,所以還能用氣冷散熱,但是到 NVL 72,耗電量增加至 132kW,就一定要採用液冷方案,而未來的機櫃版本耗電量甚至上看 300kW 以上,如果沒有更先進的液冷散熱技術,就無法解決新 AI 晶片 TDP(熱設計功耗)快速成長的散熱問題。
提升 AI 資料中心端到端能效 高功率機架式電容模組可穩定用電負載
台達電源及系統事業群副總裁暨總經理陳盈源在「AI 運算挑戰 - 電力和散熱解決方案」主題演講中直接點出,隨著 AI 算力持續提升,AI 資料中心用電量也持續上升。Gartner 報告指出 2024 年全球 AI 資料中心耗電量達 261TWh,接近台灣 2024 年用電總量 283TWh,使得 AI 資料中心用電需求規劃已成為擴建 AI 資料中心的重要關鍵。因此台達透過解析從 AI 晶片到資料中心用電需求,設計出 AI 資料中心電網到晶片(Grid-to-Chip)完整電源解決方案,並且提供 L2A CDU、L2L CDU 等不同散熱解決方案。
陳盈源表示,在傳統 AC 供電資料中心架構中,在經過基礎設施、機櫃到伺服器,端到端能效約為 87.6%,而且負載快速變動會對電網產生衝擊。因此台達設計出高功率機架式電容模組(PCS),其內建鋰離子電容,能夠進行快速充放電,透過削峰填谷的方式確保用電負載平穩。而為了提升用電效率,台達為 AI 資料中心推出創新高壓直流(HVDC)電源架構,也就是將中壓電網(10 kVAC ~ 33 kVAC)變壓至 800 VDC,然後搭配電源機櫃與機架式電容機櫃穩定負載,再使用 DC-DC 轉換模組降壓至 AI 晶片需求的 0.65V,簡化 AC-DC 轉換過程,即可把端到端能效提升至 89%~92%,大幅提高 AI 資料中心能源效率。
■《關於 COMPUTEX TAIPEI 及 InnoVEX》
COMPUTEX TAIPEI 是台北市電腦公會施振榮理事長任內開辦及命名,1985 年邀請外貿協會共同主辦。InnoVEX 是兩會 2016 年開辦的新創展會,以科技新創公司為核心,透過多元展覽形式與媒合平台,加速 ICT 產業創新,並協助各階段新創尋找商業夥伴,期盼打造具影響力的全球新創生態圈。
(發佈時間:2025-05-12)