成人av在线资源一区,亚洲av日韩av一区,欧美丰满熟妇乱XXXXX图片,狠狠做五月深爱婷婷伊人,桔子av一区二区三区,四虎国产精品永久在线网址,国产尤物精品人妻在线,中文字幕av一区二区三区欲色
    您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
    此為臨時鏈接,僅用于文章預覽,將在時失效
    人工智能學術 正文
    發私信給我在思考中
    發送

    0

    LSTM之父:吐槽了兩年,來劃劃重點:“這5篇最高引論文都源于我們。”

    本文作者: 我在思考中 2021-09-10 15:16
    導語:網友:他的自負大于他的引用次數。

    LSTM之父:吐槽了兩年,來劃劃重點:“這5篇最高引論文都源于我們。”

    作者 | 陳彩嫻

    編輯 | 青暮

    昨晚,“遞歸神經網絡之父”Jürgen Schmidhuber 在推特上親自發文,稱目前引用數最高的5項神經網絡工作都基于他的團隊成果,一時引起了網友的廣泛討論。這并不是他首次發聲,Jürgen Schmidhuber近兩年來發表無數文章和言論,每次提及幾項他過去的研究,表示是他首創,并抱怨學界不承認他對AI領域的貢獻。

    這篇博文也算是為我們劃了重點,即他過去兩年來提過的幾十項“不是你首創”AI研究中,有哪些更具影響力。

    LSTM之父:吐槽了兩年,來劃劃重點:“這5篇最高引論文都源于我們。”

    Jürgen 稱,人工神經網絡(neural networks,簡稱“NN”)深度學習是現代人工智能的兩大主題,而現今最受歡迎的五大神經網絡都是基于他在慕尼黑工業大學和 IDSIA 實驗室的研究團隊所取得的成果,這五大神經網絡就包括:

    1)LSTM(Long Short-Term Memory,長短期記憶人工神經網絡),是 20 世紀被引用最多的神經網絡;當然這項工作已經被公認是他的首創,Yann LeCun也在自傳中提及了這一點;

    2)ResNet,21世紀被引用最多的神經網絡,Jürgen 認為是他們早期提出的高速網絡(Highway Net,第一個真正有效的深度前饋神經網絡)的門控版本;

    3)AlexNet 與 VGG Net,21世紀引用數排第二與第三的神經網絡,Jürgen 稱這兩個網絡都是基于他們早期提出的 DanNet(第一個在圖像識別競賽中取勝的深度卷積神經網絡);

    4)GAN(Generative Adversarial Networks,生成對抗網絡),基于他早期提出的“對抗性人工好奇心”(Adversarial Artificial Curiosity);

    5)Transformer的變體,Jürgen 認為,線性 Transformer 的形式與他早期所提出的 Fast Weight Programmers 一樣。許多工作是從他們在 1990 年至 1991 年間提出的 Annus Mirabilis 開始的,當時的計算代價比現在要貴一百萬倍。

    回顧神經網絡的發展歷程,Jürgen 所提出的五大工作都在現代人工智能領域的研究中發揮了重要作用。比如,LSTM 被廣泛應用于醫療健康、學習機器人、游戲、語音處理與機器翻譯等研究方向。

    在他所發表的博文中,Jürgen 本人特地談到,何愷明等人在2015年所提出的 ResNet(殘差網絡)借鑒了他們在 2015 年 5 月發布的 Highway Net。他指出,Highway Net 是第一個具有 100 層以上的前饋神經網絡(以前的神經網絡最多只有幾十層),而 ResNet 的本質其實是“開放的” Highway Nets。Highway Net 展示了具有跳躍式傳遞(skip connection)的深度神經網絡是如何工作的,且在 ImageNet 上的表現與 ResNet 大致相同。但美國專利商標局在 2001 年就將這項發明的專利授予了 NNAISENSE。

    LSTM之父:吐槽了兩年,來劃劃重點:“這5篇最高引論文都源于我們。”

    論文鏈接:https://arxiv.org/pdf/1505.00387.pdf

    值得注意的是,20 世紀與 21 世紀被引用最高的神經網絡(LSTM與ResNet)是緊密相連的,因為 Highway Net 實際上是 Jürgen 團隊所提出的循環 LSTM 的前饋神經網絡版本。深度學習主要是聚焦于神經網絡的深度。LSTM 打破了監督循環神經網絡的深度局限性,而 Highway Nets 將其引到了前饋神經網絡。

    在 Jürgen 所寫的文章中,他感慨,這些工作為谷歌、Facebook、微軟等大企業做出了巨大貢獻,頗有點“為他人做嫁衣”的唏噓:何愷明是在 MSRA 期間發表的 ResNet,后來他加入了Facebook;而 AlexNet 與 VGG Net 的大多作者去了谷歌,谷歌在 2017 年發布了Transformer,都與他在 1991 年發表的線性 Transformer 相關,然后谷歌還收購了他實驗室里一位學生參與聯合創立的 DeepMind;而 DanNet 的二作、GAN 的一作去了蘋果公司。

    “上述這些公司都廣泛使用了我的 LSTM。”

    或許是抱怨過于頻繁,Jürgen Schmidhuber形象早已瀕臨崩塌邊緣。

    廣大吃瓜群眾亦不耐煩,在推特和reddit上紛紛對Jürgen Schmidhuber開啟了嘲諷模式,一句“他的自負大于他的引用次數”可謂精辟。

    LSTM之父:吐槽了兩年,來劃劃重點:“這5篇最高引論文都源于我們。”
    LSTM之父:吐槽了兩年,來劃劃重點:“這5篇最高引論文都源于我們。”
    LSTM之父:吐槽了兩年,來劃劃重點:“這5篇最高引論文都源于我們。”
    LSTM之父:吐槽了兩年,來劃劃重點:“這5篇最高引論文都源于我們。”

    在Reddit上,一位網友中肯地評價道:

    不可否認,他做了真正開創性的工作,并幫助開創了深度學習,但這篇文章看起來像一個孩子在大喊,“看我,我是最棒的”。
    LSTM之父:吐槽了兩年,來劃劃重點:“這5篇最高引論文都源于我們。”

    參考鏈接:
    1.https://www.reddit.com/r/MachineLearning/comments/pk69xy/d_schmidhuber_the_most_cited_neural_networks_all/
    2.https://people.idsia.ch/~juergen/most-cited-neural-nets.html
    3.http://people.idsia.ch/~juergen/deep-learning-miraculous-year-1990-1991.html

    LSTM之父:吐槽了兩年,來劃劃重點:“這5篇最高引論文都源于我們。”

    雷鋒網雷鋒網雷鋒網


    雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知

    LSTM之父:吐槽了兩年,來劃劃重點:“這5篇最高引論文都源于我們。”

    分享:
    相關文章
    當月熱門文章
    最新文章
    請填寫申請人資料
    姓名
    電話
    郵箱
    微信號
    作品鏈接
    個人簡介
    為了您的賬戶安全,請驗證郵箱
    您的郵箱還未驗證,完成可獲20積分喲!
    請驗證您的郵箱
    立即驗證
    完善賬號信息
    您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
    立即設置 以后再說