9/24【AI 教學創新!翻轉你的數學教學現場】線上講座免費報名!

2025 未來科技獎亮點技術系列報導 - 邊緣運算最佳選擇:高效能端對端大型語言模型加速器晶片



在全球AI浪潮推動下,大型語言模型(LLM)已廣泛應用於日常與專業領域,半導體晶片更成為驅動科技進步的核心引擎,而當企業伺服器或手機等行動裝置,要能提供即時推理服務,同時降低能源消耗並保障資料隱私。未來人人可在手機上離線運行LLM,實現隨時隨地安全互動的AI體驗,國立陽明交大黃俊達教授團隊研發出針對邊緣運算應用優化之大型語言模型推論加速器晶片,將是最佳選擇。

這顆針對邊緣運算進行優化之的高效能端對端大型語言模型加速器晶片,是專為Transformer架構與LLM推論優化的「矩陣乘法加速器(MMA )」。,實現10TOPS的高運算力,並可獨立完成推論過程中99.9%的計算;同時支援先進的混合精度計算技術,在每秒100GB記憶體頻寬下進行大型語言模型(Meta LLaMA2-7B)推論,每秒可產生高達24個詞元(token),展現出卓越推論效能與競爭力。

晶片內建MX運算與動態量化單元,有效提升能效與精度。支援多種精度格式與非線性函數,優化資料傳輸,大幅降低延遲。執行Llama2-7b時運算資源使用率達95%,PPL表現僅與原模型差0.3,為目前唯一實現LLM端對端計算的設計。由於晶片具備低功耗、高效能等優勢,是目前唯一可全端運行大語言模型於邊緣裝置的方案。相較於喬治亞理工的MicroScopiQ、首爾大學的Tender及高麗大學的OPAL架構,率先實現LLM on Edge的完整落地。

「高效能端對端大型語言模型加速器晶片」將在10月16日舉辦的台灣創新技術博覽會未來科技館展出,團隊會將設計的電路,燒入可編程的加速器晶片(FPGA),利用電腦連線到加速器,使用者將可以在現場利用設計的軟體,輸入任何問題,經過我們的加速器運算後及時產生回答,展示加速器系統除了在低精度運行的同時,還能維持其運算準確度與速度。

歡迎有興趣產學合作、技轉者,請聯繫李小姐wanting@mail.tca.org.tw│25774249 ext.973或線上預約一對一媒合服務,我們將竭誠為您安排安排導覽時間、一對一商洽等。


參考網址:https://reurl.cc/0WQEVb

(發佈時間:2025-09-03)

上一則 下一則
回列表頁
轉寄   列印   分享
照片新聞
行政院長卓榮泰慶賀InnoVEX十周年
數發部政次林宜敬(中)頒發獨立遊戲開發獎勵暨產品化加值計畫獎項
全力支持新創 本會何春盛常務理事出席InnoVEX 2024 Night Party
行政院長卓榮泰參訪2024 InnoVEX
本會在COMPUTEX、InnoVEX設置TCA 50展位 歡慶TCA 50周年
行政院長陳建仁參訪國發會「臺灣淨零願景館」
專題報導
影音專區
【COMPUTEX 2025】AI NEXT FORUM- Cloud x Edge AI x Data Center (May 6th, 2025)
【COMPUTEX 2025】AI NEXT FORUM- Cloud x Edge AI x Data Center Highlight (May 6th, 2025)
2024 Taiwan Edge AI Day 研討會暢談 AI 2.0 時代趨勢 日本橫濱 Edge Tech+ 2024 展會風光登場
2024 AI & Semiconductor Forum日本SEMICON JAPAN登場 臺日專家跨國分享半導體與AI應用
【未來科技不斷電】奈米高熵氧化物花卉發光技術之極光蘭花應用於室內減碳技術
【未來科技不斷電】多維奈米銀鍍層之可拉伸導電纖維應變感測器