【一文了解能使傳感器和其他設(shè)備更快處理數(shù)據(jù)的AI專用芯片】一直以來,Google就通過自研AI芯片以滿足其神經(jīng)網(wǎng)絡(luò)日益增長的計算需求。北京時間昨日晚間,遠在太平洋彼岸的GoogleCloudNext2018大會上,Google正式對外宣布推出EdgeTPU,一款能使傳感器和其他設(shè)備更快處理數(shù)據(jù)的AI專用芯片。
據(jù)了解,早在2016年,Google就發(fā)布了張量處理單元(TensorProcessingUnit,簡稱TPU),讓大家首次認識到了AI專用芯片的能力。
從TPU的一路演進上可以發(fā)現(xiàn),在2015年Google才剛開始內(nèi)部投入使用,2016年初代TPU版本公布時還只能做些通過數(shù)據(jù)預(yù)測的事情,2017年第二代版本則可被用來訓(xùn)練模型,甚至還能與英偉達顯卡相媲美,到今年5月第三代版本推出時,由TPU3.0組成的TPUPod運算陣列,性能相比上一代提升了8倍,可提供100petaflops(千萬億次)的機器學(xué)習(xí)硬件加速.
而此次EdgeTPU的到來讓我們看到,Google又將目光轉(zhuǎn)移到了網(wǎng)絡(luò)終端的無數(shù)個物聯(lián)網(wǎng)設(shè)備,并順勢推出了配套軟件棧CloudIoTEdge。
相比來說,EdgeTPU是專門為在邊緣運行TensorFlowLiteML模型而設(shè)計,用來處理ML預(yù)測的微型芯片,要比訓(xùn)練模型的計算強度小很多。EdgeTPU可以自己進行運算,不需要與多臺強大的計算機相連,因此應(yīng)用程序可以更快、更可靠的工作。
EdgeTPU開發(fā)套件:SOM和底板
在CNBC等多家外媒報道中透露,Google進軍“定制芯片”市場,是其試圖擴大云計算市場份額、與亞馬遜和微軟加強競爭的一種方式。自2015年以來,Google始終在用TPU來加速自家數(shù)據(jù)中心的某些工作負載,而不是依賴英偉達等供應(yīng)商提供的商用硬件。
接受CNBC采訪中,三星前首席技術(shù)官InjongRhee則表示,Google并沒有讓EdgeTPU與傳統(tǒng)芯片競爭,“這對所有硅芯片供應(yīng)商和設(shè)備制造商是非常有利的”。
在他看來,EdgeTPU可能會“顛覆云計算競爭”,因為許多計算現(xiàn)在可以在設(shè)備上進行,而不是全部發(fā)送到數(shù)據(jù)中心。在成本和能耗方面,Google芯片在某些類型的計算上比傳統(tǒng)芯片更加高效。