成人av在线资源一区,亚洲av日韩av一区,欧美丰满熟妇乱XXXXX图片,狠狠做五月深爱婷婷伊人,桔子av一区二区三区,四虎国产精品永久在线网址,国产尤物精品人妻在线,中文字幕av一区二区三区欲色
    您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
    此為臨時鏈接,僅用于文章預覽,將在時失效
    人工智能 正文
    發私信給陳鳴鳩
    發送

    0

    ICLR 論文評選吃力不討好? arxiv-sanity上有新發現 |ICLR 2017

    本文作者: 陳鳴鳩 編輯:郭奕欣 2017-04-24 11:07 專題:ICLR 2017
    導語:評選出 ICLR 2017的入選論文是一個吃力不討好的過程, Andrej Karpathy 另辟蹊徑從 arxiv-sanity 發現規律。

    雷鋒網AI科技評論按:ICLR 2017 將于4月24-26日在法國土倫舉行,屆時雷鋒網AI科技評論的編輯們也將前往法國帶來一線報道。在這個深度學習會議舉辦之前,雷鋒網也將圍繞會議議程及論文介紹展開一系列的覆蓋和專題報道,敬請期待。

    Andrej Karpathy 認為,把每篇論文在 ICLR 2017 (International Conference on Learning Representations,一個廣受歡迎的深度學習會議)的入選情況(分為4種:口頭報告 (oral) ,海報展示 (poster) ,進一步研討 (workshop) ,被拒 (reject) ),和該論文被添加到 arxiv-sanity 網站的 library 的次數進行交叉比較,是一件很有趣的事情。某篇論文是否能入選 ICLR 2017 ,是由幾個相應領域的領頭人和審稿人,經過幾個月時間的審閱后才能決定的。而在 arxiv-sanity 上參與決定的人,只有每月為此投入總共2個小時的原作者,當然還有應對投稿洪流的若干網站工作人員。現在讓我們來看看這場自上而下、自下而上的戰役會發生什么。

    投稿論文在 ICLR 2017的入選情況可以參看OpenReview.net的情況,投稿論文共計491篇,其中15篇(3%)論文將在會上做口頭報告,183篇(37.3%)論文將被制成海報在會上展覽,48篇(9.8%)論文被建議進一步研討,245篇(49.9%)論文被拒絕。 ICLR 2017將于4月24日至27日在土倫舉辦,屆時入選的論文將在會議上進行展示。期待一睹土倫這個美麗的城市:

    ICLR 論文評選吃力不討好? arxiv-sanity上有新發現 |ICLR 2017

    法國 土倫

    扯遠了,讓我們言歸正傳回到文章主題上。

    另一方面,作者一方的 arxiv-sanity 網站具有library功能。換言之,任何注冊用戶都可以在該網站上他們的 library 里添加論文,然后基于所有收藏論文全文的二元 tf-idf 特征, arxiv-sanity 將為每位用戶訓練出個性化的支持向量機 (Support Vector Machine) ,提供基于內容的論文推薦。例如在網站里的 library 收藏一些關于加強學習 (Reinforcement Learning)  、生成模型 (Gnerative Models) 、計算機視覺 (Computer Vision) 的論文,無論網站何時出現關于這些主題的新論文,它們都將出現在“推薦”標簽中的最上方?,F在 arxiv-sanity 網站上的審查池 (review pool) 總共有3195個用戶——他們是 library 里收藏至少一篇論文的用戶,這些用戶迄今共收錄了55671篇論文,平均每人17.4篇。

    arxiv-sanity 網站一個很重要的特征是,用戶贊同 (upvote) 一篇論文后,會產生相應的影響。因為用戶收錄論文的動機暗示著此論文對用戶來說非常重要,所以當用戶收錄一篇論文時,該論文會增加該文章方向上的推薦權衡,進而影響推薦給用戶的論文。

    實驗

    長話短說, Andrej 對 ICLR 中的所有論文進行了循環,然后在 arxiv-sanity 網站上,通過嘗試對收錄的論文的標題進行全字符匹配,把相同的論文找出來。論文沒法匹配的原因可能是,有些 ICLR 論文沒有被網站收錄,有些論文因為作者重命名后與原題目不匹配,或者因為題目中包含不能匹配的奇特字符等。

    例如,對 ICLR 2017進行口頭報告的論文進行匹配,作者得到的結果是:

    15篇進行口頭報告的論文,在 arxiv-sanity 網站上找到了以下10篇,附帶網站里的 library 收藏數:

    ICLR 論文評選吃力不討好? arxiv-sanity上有新發現 |ICLR 2017

    這里看到,在 ICLR 做口頭報告的15篇論文, arxiv-sanity 收錄了10篇,題目左邊的數字是網站里將這篇論文添加到 library 的用戶數,例如, "Reinforcement Learning with Unsupervised Auxiliary Tasks" 被64個 arxiv-sanity 用戶添加到了 library 。

    183篇制成海報展覽的論文,在 arxiv-sanity 網站上找到了以下113篇,附帶網站里的 library 收藏數:

    ICLR 論文評選吃力不討好? arxiv-sanity上有新發現 |ICLR 2017ICLR 論文評選吃力不討好? arxiv-sanity上有新發現 |ICLR 2017ICLR 論文評選吃力不討好? arxiv-sanity上有新發現 |ICLR 2017ICLR 論文評選吃力不討好? arxiv-sanity上有新發現 |ICLR 2017ICLR 論文評選吃力不討好? arxiv-sanity上有新發現 |ICLR 2017ICLR 論文評選吃力不討好? arxiv-sanity上有新發現 |ICLR 2017

    某些論文得到了很多人的青睞,最多達到149人!然而收藏某些論文的人一個也沒有。

    建議進一步研討的論文,結果如下:

    48篇建議進一步研討的論文,在 arxiv-sanity 網站上找到了以下23篇,附帶網站里的 library 收藏數:

    ICLR 論文評選吃力不討好? arxiv-sanity上有新發現 |ICLR 2017

    作者不打算列出總計200篇被拒絕的論文, Arxiv-sanity 用戶真的非常喜歡其中一些論文,但是 ICLR 會議涉及領域的領頭人和審稿人一點也不喜歡:

    245篇被拒絕的論文,在 arxiv-sanity 網站上找到了以下58篇,附帶網站里的 library 收藏數:

    ICLR 論文評選吃力不討好? arxiv-sanity上有新發現 |ICLR 2017

    ICLR 論文評選吃力不討好? arxiv-sanity上有新發現 |ICLR 2017 

    ICLR 論文評選吃力不討好? arxiv-sanity上有新發現 |ICLR 2017

    以上所列論文的前幾篇,投稿遭到拒絕這一結局對它們來說可能不太公平。

    現在另一個問題是—— ICLR 2017的投稿論文如果只由 arxiv-sanity 用戶投票評選(可以在 arxiv 上找到的論文),結果會是怎么樣子的呢? 這是投票結果的一個摘錄:

    做頭口報告的論文:

    ICLR 論文評選吃力不討好? arxiv-sanity上有新發現 |ICLR 2017

    制成海報展覽的論文:

    ICLR 論文評選吃力不討好? arxiv-sanity上有新發現 |ICLR 2017

    由 arxiv-sanity 用戶投票評選的完整列表可以看這里。請注意,基于 arxiv-sanity 用戶的投票評選結果,一些被拒絕的 ICLR 2017投稿論文,幾乎優秀到可以進行口頭報告,特別是以下這幾篇:

    "The Predictron: End-To-End Learning and Planning"

     "RL^2: Fast Reinforcement Learning via Slow Reinforcement Learning" 

     "Understanding intermediate layers using linear classifier probes" 

     "Hierarchical Memory Networks" 

    相反地, arxiv-sanity 用戶對一些入選的論文并不太喜歡,以下是完整的混亂矩陣:

     ICLR 論文評選吃力不討好? arxiv-sanity上有新發現 |ICLR 2017

    這是文本形式的混亂矩陣,每一欄還附帶了論文的標題。這矩陣看起來不太糟糕,只是雙方在評選進行口頭報告的論文上面分歧很大;同意制成海報展覽的論文,雙方分歧相對少很多;最重要的是,進行口頭報告與被拒絕的論文之間的分歧非常小,同時制成海報展覽的論文與被拒絕的論文之間的分歧也非常少。此外,祝賀 Max 等 ,因為 "Reinforcement Learning with Unsupervised Auxiliary Tasks" 是唯一一篇雙方都同意應該進行口頭報告的優秀論文:)

    最后,幾天前作者在媒體上看到以下這篇由卡洛斯·佩雷斯 (Carlos E. Perez) 撰寫的文章 :"Ten Deserving Deep Learning Papers that were Rejected at ICLR 2017",似乎 arxiv-sanity 用戶的看法與這篇文章的意見不謀而合。包括 LipNet ,在這篇文章里列出的所有論文(同樣可以在 arxiv-sanity 上找到)應該成為入選論文,和 arxiv-sanity 用戶的看法出奇一致。

    討論

    注意:這里存在幾個使結果有所偏斜的因素。例如, arxiv-sanity 用戶群的大小隨著時間的推移而增大,所以這些結果可能稍微偏向于后期收錄在 arxiv-sanity 的論文,因為越往后收錄進網站的新論文越容易引起更多用戶的關注。除此之外,論文被看到的頻率并不相同。例如,如果論文被有名人士轉發,看到論文的人會更多,將論文添加到他們 library 的人也會更多。最后,另一個更好地說明傾斜存在的理由是,在 arxiv-sanity ,好論文的曝光率會更多,因為收錄在 arxiv-sanity 的論文不是匿名的,好論文當然會得到更多的關注,在 ICLR 同樣存在這種特殊情況,所以在這一點上雙方沒有區別。

    終上所述, Andrej Karpathy從這個實驗得出的結論是:哪些投稿論文可以入選 ICLR 的征兆很多。而且結果是從互聯網這個自下而上的評選過程中“免費”獲得的,而不用幾百人用幾個月時間才能得出結果。作者想對被拖延幾個星期或者幾個月,長時間處于巨大壓力下,忍受來回辯駁痛苦的提交方或者審查方說:也許你們不需要這么痛苦?;蛘咧辽?,改進的空間很大。

    更多資訊請關注雷鋒網。

    via  medium,   雷鋒網編譯,頭圖viaJulia Manzerova@flickr

    雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知。

    ICLR 論文評選吃力不討好? arxiv-sanity上有新發現 |ICLR 2017

    分享:
    相關文章

    知情人士

    當月熱門文章
    最新文章
    請填寫申請人資料
    姓名
    電話
    郵箱
    微信號
    作品鏈接
    個人簡介
    為了您的賬戶安全,請驗證郵箱
    您的郵箱還未驗證,完成可獲20積分喲!
    請驗證您的郵箱
    立即驗證
    完善賬號信息
    您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
    立即設置 以后再說