成人av在线资源一区,亚洲av日韩av一区,欧美丰满熟妇乱XXXXX图片,狠狠做五月深爱婷婷伊人,桔子av一区二区三区,四虎国产精品永久在线网址,国产尤物精品人妻在线,中文字幕av一区二区三区欲色
    您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
    此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
    人工智能 正文
    發(fā)私信給矽說(shuō)
    發(fā)送

    2

    腦芯編:窺腦究竟,織網(wǎng)造芯(二)

    本文作者: 矽說(shuō) 2016-12-15 08:53
    導(dǎo)語(yǔ):你有沒(méi)有想過(guò)從你看到圖像,到你得到的結(jié)論,無(wú)數(shù)的信息都已經(jīng)沒(méi)有過(guò)濾,你的腦子完成了一次將4K3D圖像壓縮成兩個(gè)字的過(guò)程,到底發(fā)生了什么事?

    雷鋒網(wǎng)按:本文作者癡笑,矽說(shuō)(微信號(hào):silicon_talks)主筆。本文為《腦芯編:窺腦究竟,織網(wǎng)造芯》系列第二篇。

    〈二〉幾重卷積幾重生

    蜘蛛結(jié)網(wǎng),是為了捕食昆蟲(chóng);

    蜘蛛俠結(jié)網(wǎng),是為了拯救世界;

    碼農(nóng)Data Scientist (~ds~) 結(jié)網(wǎng),是為了——

    換一個(gè)角度看世界,

    英語(yǔ)叫做: Representation。

    如果你只想知道一個(gè)關(guān)于神經(jīng)網(wǎng)絡(luò)的常識(shí),我認(rèn)為上面這個(gè)單詞是最不應(yīng)該錯(cuò)過(guò)的。就像每個(gè)學(xué)模擬電子學(xué)的人,其實(shí)歸根結(jié)底就是學(xué)了兩個(gè)字——放大。

    話(huà)接上回,我們說(shuō)到,通過(guò)一系列乘累加和非線(xiàn)性激活函數(shù),我們就可以實(shí)現(xiàn)一個(gè)神經(jīng)元。而關(guān)鍵的問(wèn)題就是如何把神經(jīng)元們連起來(lái)。解決這個(gè)問(wèn)題之前,我們先要明白神經(jīng)網(wǎng)絡(luò)的作用——通過(guò)一系列線(xiàn)性和非線(xiàn)性的變化重新將輸入信息映射成為表達(dá)事物的本質(zhì)的簡(jiǎn)化特征。

    如果你覺(jué)得上面一句的每個(gè)字都認(rèn)識(shí),卻不知道他在說(shuō)什么,那么我們來(lái)看一個(gè)經(jīng)典的例子——人類(lèi)的視覺(jué)皮層(Visual Cortex)。

    視覺(jué)皮層, 一場(chǎng)生物與AI的偉大握手

    碼農(nóng)老師的生物課又來(lái)了……

    你有沒(méi)有想過(guò)當(dāng)你看到生命中一個(gè)重要的人的時(shí)候,比如說(shuō)基友(碼農(nóng)怎么會(huì)有妹紙?),你是看到是他/她的鼻子,眼睛,臉上的痘痘,昨晚熬夜的黑眼圈……但是這些東西最后都只留下了一個(gè)映像——我面基了。可是你有沒(méi)有想過(guò)從你看到圖像,到你得到的結(jié)論,無(wú)數(shù)的信息都已經(jīng)沒(méi)有過(guò)濾,你的腦子完成了一次將4K3D圖像壓縮成兩個(gè)字的過(guò)程,到底發(fā)生了什么事?

    腦芯編:窺腦究竟,織網(wǎng)造芯(二)

    這個(gè)過(guò)程就是從信息經(jīng)過(guò)視覺(jué)皮層(神經(jīng)網(wǎng)絡(luò)??)的過(guò)程。從前到后,他經(jīng)過(guò)了幾站:

    (1)始發(fā)站——視網(wǎng)膜 ,比較像是一個(gè)電子系統(tǒng)的傳感器,用來(lái)接收信號(hào);

    (2)快速交流道——LGN,他是將左右眼看到的信號(hào)重新編碼后傳遞給視覺(jué)皮層,像是一個(gè)電子系統(tǒng)中的主控處理器與總線(xiàn)(請(qǐng)?jiān)徫也徽f(shuō)LGN的中文,因?yàn)檎f(shuō)了你也記 不住) ;

    (3)第一站——主視覺(jué)區(qū)V1,第一層神經(jīng)網(wǎng)絡(luò),司“邊界檢測(cè)(Edge Detection)”一職,這可能是神經(jīng)元數(shù)量最豐富的一個(gè)區(qū)域;

    (4)第二站——次視覺(jué)區(qū)V2,第二層神經(jīng)網(wǎng)絡(luò),司“基礎(chǔ)特征提取”一職,歸納視覺(jué)信號(hào)的形狀、大小、顏色、頻率……

    (5)第三站—— V3,司“位置“,也是個(gè)過(guò)渡區(qū),一條線(xiàn)上你有些站你不知道為什么會(huì)停~

    (6)第四站——V4/V5(MT)分支,深度神經(jīng)網(wǎng)絡(luò),各司“色彩/運(yùn)動(dòng)”;

    (6)V4分支終點(diǎn)站1——換乘inferotemporal Cortex,近深度智能TE區(qū),司 ”目標(biāo)識(shí)別“ ~~~終于終于我認(rèn)出基友來(lái)了,撒花~~

    (7)V5分支終點(diǎn)站2——換乘Parietal Cortex, 進(jìn)深度智能MST區(qū),司“空間運(yùn)動(dòng)分析”。

    腦芯編:窺腦究竟,織網(wǎng)造芯(二)


    視覺(jué)皮層可能是目前為止人類(lèi)認(rèn)識(shí)的最透徹的大腦部分,不過(guò),好像建立在無(wú)數(shù)的活體實(shí)驗(yàn)上。。。即使如此,還是有很多未知的空間亟待生物學(xué)家探索。

    不知道讀到這里,對(duì)人工智能略有了解的你有沒(méi)有覺(jué)得這堂生物課在哪里見(jiàn)過(guò)? 先做邊界檢測(cè),在再做特征提取,在進(jìn)行分類(lèi)識(shí)別,這不就是大名鼎鼎的

    腦芯編:窺腦究竟,織網(wǎng)造芯(二)

    卷積,讓加速成為一種可能

    其實(shí)在神經(jīng)網(wǎng)絡(luò)領(lǐng)域里,目前為止唯一能算的上前所未有成功的就是CNN (Convolution Neural Network,卷積神經(jīng)網(wǎng)絡(luò))。最早的CNN可以追溯到98年Yann LeCun的一篇如何識(shí)別手寫(xiě)數(shù)字的paper,這里出現(xiàn)了第一個(gè)CNN的雛形LeNet:

    腦芯編:窺腦究竟,織網(wǎng)造芯(二)


    從結(jié)構(gòu)上來(lái),CNN繼承了視覺(jué)皮層中對(duì)信號(hào)處理“層”的概念,雖然不是那么的100%的吻合,但是CNN的初級(jí)層往往用來(lái)做“邊界檢測(cè)”這樣的簡(jiǎn)單的特征提取,而在深度層重新組合初級(jí)層的信息成為抽象的再表達(dá)(Representation),最后交給事件的發(fā)生的相關(guān)概率歸納出事物的本質(zhì)。

    另外,一個(gè)比較不太準(zhǔn)確的趨勢(shì)是神經(jīng)元的數(shù)量隨層的深度逐漸減少,但是單個(gè)神經(jīng)元的粗壯程度(輸入數(shù)量)隨層的深度逐漸增加。視覺(jué)皮層也具有相似的規(guī)律,V1的數(shù)量多,但是結(jié)構(gòu)比較簡(jiǎn)單,但到了V4/V5,鏈接變得很復(fù)雜,但占的區(qū)域卻比V1小的多。

    然而,這些都不是做電路的人重點(diǎn)。

    對(duì)于硅工們而言,CNN獲得巨大成功的原因在于:它極大地節(jié)省了神經(jīng)網(wǎng)絡(luò)的硬件開(kāi)銷(xiāo),使神經(jīng)元為單位作加速器成為了可能。

    (1) CNN定義了一種更高能效的元操作——卷積核

    關(guān)于卷積是什么,大家可以去參考一篇《一文讀懂卷積神經(jīng)網(wǎng)絡(luò)》(廣泛地轉(zhuǎn)載于各大公眾號(hào)間),下圖是我目前看到的最形象的卷積描述。

    腦芯編:窺腦究竟,織網(wǎng)造芯(二)


    該圖片源自網(wǎng)絡(luò),感謝原gif作者

    其本質(zhì)就是對(duì)于一個(gè)區(qū)塊,判斷和自己系數(shù)組成的“基”區(qū)塊的相似程度,得到的分?jǐn)?shù)越高就越相似。這樣,當(dāng)一種“基區(qū)塊”被賦予一種特征是,即使用于整張圖片的特征提取,他的系數(shù)也是固定的,因此大量的系數(shù)加載操作可以被省略。同時(shí),一個(gè)固定大小的“卷積核”成為了比“乘累加”更高階、更高效的原子操作,在現(xiàn)代計(jì)算機(jī)體系結(jié)構(gòu)中,實(shí)現(xiàn)越復(fù)雜,但操作越固定的加速器,其效率和速度的提升也就越大。

    (2) Pooling —— 是垃圾就要扔掉

    CNN網(wǎng)絡(luò)的另一個(gè)巨大貢獻(xiàn)就是在卷積層和層之間,設(shè)置了一個(gè)”垃圾箱“,把上一層產(chǎn)生的無(wú)效信息都扔掉,避免了超大規(guī)模的數(shù)據(jù)傳輸和存儲(chǔ)。大家把這叫做Pooling,我又要來(lái)吐槽那個(gè)中國(guó)人給他取了個(gè)”池化“的名字,雖然我也找不到更好的名字,但根本無(wú)法幫助理解。Pooling的策略很多,最常見(jiàn)的是max pooling就是留個(gè)最大的,然后又其他都扔掉。

    (3) “亂擼”? (ReLU)

    LeNet后期發(fā)展到AlexNet后,激活函數(shù)也從sigmoid變成了ReLu,他們的圖形曲線(xiàn)大概如下所示。用腳趾頭也知道,Relu操作的實(shí)現(xiàn)就是把符號(hào)位為負(fù)置0就好了。至于sigmoid么,傳承自經(jīng)典機(jī)器學(xué)習(xí)回歸理論,是e指數(shù)的除法操作,編譯后簡(jiǎn)直就是一場(chǎng)噩夢(mèng),我們先把他當(dāng)作一個(gè)古老的神話(huà)就好了。

    腦芯編:窺腦究竟,織網(wǎng)造芯(二)

    以上種種硬件實(shí)現(xiàn)的簡(jiǎn)化,加上CNN的巨大勝利,都當(dāng)讓硅工們看到了直接從電路角度優(yōu)化的角度切入人工智能芯片的可能。但是,也發(fā)現(xiàn)了一個(gè)問(wèn)題,傳統(tǒng)的硬件加速的算法往往是做死的,比如橢圓加密,浮點(diǎn)乘除等等。但是CNN的元操作——卷積核——雖然模式固定,但是其每一層的卷積核數(shù)量和層數(shù)卻是紛繁復(fù)雜,固定的硬件并不能實(shí)現(xiàn)網(wǎng)絡(luò)的可塑性(structual plasticity)?

    那該怎么辦?下一次,如何利用具有高度可編程性的CPU來(lái)配置不同結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)——計(jì)算機(jī)的”形與令“。就到這里,且聽(tīng)下回分解。

    特別鳴謝復(fù)旦大學(xué)腦芯片研究中心提供技術(shù)咨詢(xún),歡迎有志青年報(bào)考。

    雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。

    腦芯編:窺腦究竟,織網(wǎng)造芯(二)

    分享:
    相關(guān)文章

    專(zhuān)欄作者

    由全球各地半導(dǎo)體行業(yè)專(zhuān)業(yè)人士主筆,旨在提供半導(dǎo)體業(yè)界新聞和新技術(shù)的深度解讀。
    當(dāng)月熱門(mén)文章
    最新文章
    請(qǐng)?zhí)顚?xiě)申請(qǐng)人資料
    姓名
    電話(huà)
    郵箱
    微信號(hào)
    作品鏈接
    個(gè)人簡(jiǎn)介
    為了您的賬戶(hù)安全,請(qǐng)驗(yàn)證郵箱
    您的郵箱還未驗(yàn)證,完成可獲20積分喲!
    請(qǐng)驗(yàn)證您的郵箱
    立即驗(yàn)證
    完善賬號(hào)信息
    您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
    立即設(shè)置 以后再說(shuō)