GTC 2014 :以 GPU 運算引領的機器視覺運算,可能會產生真正的天網嗎?

2014.03.26 07:01AM
1238
是GTC 2014:後記,大數據、資料分析與機器學習這篇文章的首圖

機器視覺也是近年炙手可熱的話題,機器視覺可用於許多的影像分析、物件辨識等,連 Google 也動用達 1,000 台的大型伺服器陣列,共 2,000 顆處理器與 16,000 顆 GPU 建置一套 Google Brain 進行機器學習,而這套伺服器共耗損 600 kW 功號與 5 萬美金的建置成本。但這樣的一套系統也只不過能模擬到蜜蜂的十億個神經突觸,遠不及真實的人腦,如果以這樣的規模架構,需要用四萬年的時間才能得到相同的學習模擬。

4bf91e17fddc0d6a98282155e85f5922

c030bd3948c6b7bd8a7bba38c26e1e1e

870b329966fae668806c57a91596fdfe

NVIDIA 也與史坦佛大學合作進行機器學習相關的研究,透過一套僅 30,000 美金的系統,並僅需要 4kW 功耗,作為機器學習的運算核心;現場就展示這套系統一些紅色法拉利跑車與 NVIDIA 的綠色產品的圖片,讓系統學習如何以紅色與綠色去分辨法拉利與 NVIDIA 產品,由於時間很短,但系統仍透過學習展示機器學習後的成果...縱使錯誤不少,尤其是內容物變的更複雜的時候。

94b657ddfa7758ac8a4e2e27f05b82aa

因為是臨陣磨槍,所以機器學習的效果不佳是可以預期的,故又搬出另一套已經連續進行達七天的系統,這套系統所學習的內容是透過狗的照片辨別照片上的狗屬於哪種品種。除了幾張照片上的狗因為有包括人手等額外的物體遮蓋到畫面外,大致上已經能分辨出照片內的狗的品種。

885232b82b877b3f4fda2113a372872d

NVIDIA 強調,他們已經與數家企業在進行各類機器學習的研究,針對像是影像辨識、臉部辨識、手勢辨識、影像搜尋與分析、語意辨識與翻譯等,以基於 CUDA 的架構進行機器學習,以相較過去與 CPU 為主的機器視覺以更低的功耗帶來更大的機器學習成效。

3ab379cd404e0931f72eaf39fde87cca

而且如果搭配的伺服器是基於稍早前發表的 GeForce Titan Z ,僅需要 3 張 Titan Z ,就有高達 17,280 個 CUDA 核心,並僅需 2kW 、 12,000 美金的建置成本,就能獲得與造價達 500 萬美金的 Google Brain 相近的運算力。透過更高效能的 CUDA GPU 運算,機器學習能夠更便宜且具更好的效能。

回應 0

熱門文章

最新消息

本日精選