AI WAVE Show-導覽團開放報名|掌握 AI 最新趨勢!
專題報導

2015發明展技術推薦系列報導

  • 根據衛福部統計,跌倒高居65歲以上長者意外死亡第二名,可見跌倒對於銀髮族生活的威脅。由台灣大學研發的「生活輔助用智慧型機器人」,利用深度相機、感測技術建置省力、感知、運動、引導等功能,是銀髮族和帕金森氏症患者一大福音。 生活輔助用智慧型機器人裝有馬達,並在握把上置入力感應器,使用者的行進意圖可經由感測器傳達給機器人,形成機器人自動前進,使用者跟隨的互動模式,有效解決目前常用的助行器使用費力問題。而機器人前方也設有距離感測器,當前方出現障礙物時會提醒或引導使用者避開,讓使用者在視線不好的情況下不致發生危險。 台灣大學傅立成教授表示,生活輔助用智慧型機器人除了協助年長者步行移動,也是帕金森氏症患者很好的復建工具。機器人利用深度相機記錄使用者抬腿、著地的瞬間進而透過演算法得出使用者的平均步距,再根據使用者的運動能力調整投影步徵的間距讓使用者跟隨

  • 鋰電池可說是手機、筆電、電動車等4C產品主要的儲蓄電力裝置,與大眾生活密切相關,當消費者對於鋰電池的續航力要求越來越高時,體積又不能增加的前提下,鋰電池的容量密度也不斷提升。由於鋰電池因為過充、溫度過高、意外撞擊或電池液外漏,進而發生短路甚至釀成火災的問題時有所聞,因此如何開發出高安全性且高能量密度的鋰電池成為電池上中下游業者必備功課。 台科大以STOBA第二代技術衍生開發高安全性鋰電池 鋰電池的電力來自於鋰離子的反應,當鋰離子的反應過快或是遇上意外的短路,便會因此產生高溫,若熱量累積速度大於散熱速度,使得溫度繼續升高,進而引發其它放熱效應,將導致電池自行加熱,溫度驟然快速上升,甚至發生熱失控現象(Thermal Runaway),進而造成爆炸的可能。 為了開發出高安全性的鋰電池,台科大授權自工研院的高安全性添加劑STOBA技術(Sel

  • 近視是近代最常見的眼睛疾病,且為失明及視力障礙的主因。亞洲是近視好發地區,台灣人口近視盛行率甚至高達85%,歐美學齡人口也約有30%近視。高度近視易引起多種嚴重併發症,如視網膜剝離、青光眼、黃斑部病變及早發性白內障,嚴重會導致失明,但是目前藥物治療不佳,預防惡化醫療方式有限,因此有新藥市場需求。 領先全球 高醫大發現微小RNA可控制部分近視相關基因群持續作用 高雄醫學大學卓夙航教授帶領研究團隊,在進行近視相關基因研究時,發現微小RNA-328可以控制幾個與近視相關的基因群,因為卓教授研究團隊對微小RNA(Micro Ribonucleic Acid,縮寫為miRNA)有相當多的經驗,認為這一群近視相關的基因有可能被某些微小RNA所控制。 卓教授表示,「打個比方來說,如果把一個基因比喻作為一個工人,當我們在找工人來執行工作,發現這群工人

  • 隨著時代科技進步,幼兒受到的感官刺激越來越多,傳統教材已難以引起學習興趣。有感於此,幼教產學合作聯盟利用ASUS Xtion PRO作為體感偵測裝置,結合肢體動作捕捉、辨識技術,共12套「幼兒體感互動教材」,不但加強幼兒學科興趣,也促進學童人際互動與身體健康的發展。 「幼兒體感互動教材」由軟硬體程式開發,並配合精緻的美工設計而成。兒童使用此體感互動教材進行學習時,電腦經由Xtion以紅外線蒐集資訊並繪製深度影像(depth resolution),再經由演算法和程式判斷出對應的動作。體感裝置感應兒童的肢體動作,回傳電腦並在螢幕上顯示出兒童肢體骨架圖,兒童則經由手勢操控工具,來操縱系統控制介面並與教材內容進行互動。 以其中一份教材內容是「認識顏色-足球守門員」為例,兒童必須學習到各種顏色的英語讀法,並在體感學習的過程中,身體快速左右移動訓練

  • 一台優秀的工業用機器人,不僅需要高度整合機械、動力、機器視覺、 人工智慧等多項專業領域,更重要的是,可以在最短時間內,教會工業用機器人要擔負的工作,儘速投入生產線。這也正是台灣科技大學林其禹老師率領的團隊,完成「手勢操控機器手臂運動控制和軌跡規劃系統」,甚至能更進一步運用軟體,規劃出機器手臂最佳運動方式,從而獲得不少大廠青睞,進行合作的主因。 林其禹老師強調,台灣一直都是以大量生產為主,擁有最佳的產業環境,透過發展工業用機器人,不僅改善現有的生產效率,甚至進而掌握新一波的產業趨勢,在全球機器人產業占有一席之地。 以全球使用機器人現況為例,林其禹老師解釋,目前全球各大車廠是使用機器人生產的主力,在每種車款都有很長的生產周期,因此有較充足的時間,進行機器人動作的調校,但一旦用到其它生產周期較短的產業時,如何縮短教導機器人的時間,就會成為亟需解

  • 運用觸控式手寫板或觸控筆進行手寫辨識,已成為許多資訊設備必備的功能,隨著影像辨識技術的進步,我們能夠直接在空中,透過手勢,完成操作資訊設備或寫字,也可以實際發生在日常生活中。海洋大學團隊就將原本娛樂用途的微軟Kinect,當做影像擷取裝置,並使用OpenNI進行人體骨架追蹤,做到當一個字完整地在空中被寫出來,就能準確地辨識完成。 OpenNI是「Open Natural Interaction」的縮寫,在2010年11月開始建立時,是針對微軟Kinect的跨平台、開源碼的一種開發環境,除提供深度影像、彩色影像的讀取外,也透過一款中介軟體,提供人體骨架追蹤等功能。開發者可經由語音、手勢、肢體動作等方式,靠這些人體本身相當直覺的操作,進行各種應用。 海洋大學團隊指出,基於視覺的空中手寫辨識技術可以應用於許多地方,例如蘋果公司的iTV遠端電視控

其 他