成人av在线资源一区,亚洲av日韩av一区,欧美丰满熟妇乱XXXXX图片,狠狠做五月深爱婷婷伊人,桔子av一区二区三区,四虎国产精品永久在线网址,国产尤物精品人妻在线,中文字幕av一区二区三区欲色
    您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
    此為臨時鏈接,僅用于文章預覽,將在時失效
    人工智能學術 正文
    發私信給AI研習社
    發送

    0

    今日 Paper | 強化學習;可重構GANs;BachGAN;時間序列分類等

    本文作者: AI研習社 2020-04-09 14:43
    導語:為了更好地服務廣大 AI 青年,AI 研習社正式推出全新「論文」版塊。

    今日 Paper | 強化學習;可重構GANs;BachGAN;時間序列分類等

      目錄

    通過強化學習對抽取的摘要進行排序

    用于抽象文本摘要的基于深度遞歸生成解碼器

    用于可控圖像合成的學習布局和風格的可重構GANs

    BachGAN:基于顯著物體布局的高分辨率圖像合成

    時間序列分類:近鄰vs深度學習模型

      通過強化學習對抽取的摘要進行排序

    論文名稱:Ranking Sentences for Extractive Summarization with Reinforcement Learning

    作者:Shashi Narayan

    發表時間:2018/5/17

    論文鏈接:https://paper.yanxishe.com/review/14777?from=leiphonecolumn_paperreview0409

    推薦原因

    本文的研究內容以及創新點:

    這是一篇關于文本摘要的文章。目前,學術界對于單一文檔摘要定義為”保留主要信息內容,同時生成較短版本的文檔“,在此背景下,作者把提取文本摘要的任務轉化為句子的排序任務,通過強化學習全局優化ROUGE評估指標,開發了一個提取摘要模型,該模型的訓練算法在學習優化與當前任務相關的損失函數的同時,對候選摘要的維度進行的研究。實驗結果表明,強化學習提供了一種很好的方法,可以指導我們的模型產生信息豐富,流利且簡潔的信息。摘要在CNN和DailyMail數據集上的表現均優于已知模型。

    今日 Paper | 強化學習;可重構GANs;BachGAN;時間序列分類等

      用于抽象文本摘要的基于深度遞歸生成解碼器

    論文名稱:Deep Recurrent Generative Decoder for Abstractive Text Summarization

    作者:Piji Li

    發表時間:2017/5/11

    論文鏈接:https://paper.yanxishe.com/review/14778?from=leiphonecolumn_paperreview0409

    推薦原因

    本文的研究目的和創新點:

    本文針對生成文本摘要任務,提出了一種新的模型,該模型的框架依托深度遞歸生成解碼器(DRGN),它是一種面向序列到序列的編/解碼器模型。對于DRGN模型而言,他的學習目標是模型中遞歸潛在的隨機隱含信息,通過學習這些隨機隱含信息,對于提高生成文本摘要的質量極為重要。最后,作者在基準數據集上進行了大量實驗,實驗表明,DRGD模型可以有效的解決文本摘要任務。

    今日 Paper | 強化學習;可重構GANs;BachGAN;時間序列分類等

      用于可控圖像合成的學習布局和風格的可重構GANs

    論文名稱:Learning Layout and Style Reconfigurable GANs for Controllable Image Synthesis

    作者:Sun Wei /Wu Tianfu

    發表時間:2020/3/25

    論文鏈接:https://paper.yanxishe.com/review/15417?from=leiphonecolumn_paperreview0409

    推薦原因

    這篇論文要解決的是布局轉圖像的問題,即學習一個生成模型,能夠通過空間布局信息和樣式信息來合成真實圖像。這篇論文首先提出了從布局到掩碼到圖像的任務,即學習如何在輸入布局中展開給定邊界框的對象掩碼,以彌補輸入布局與合成圖像之間的差距。在此基礎上,這篇論文提出了一種基于生成式對抗網絡的布局到掩碼到圖像方法,并在圖像和掩模兩個層次上進行了風格控制。圖像級的樣式控制與普通的GANs相同,而對象掩碼級的樣式控制是通過一種新的特征歸一化方案、實例敏感和布圖感知歸一化來實現的。新方法在COCO-Stuff數據集和可視化基因組數據集上進行了驗證,獲得了較好的性能表現。

    今日 Paper | 強化學習;可重構GANs;BachGAN;時間序列分類等
    今日 Paper | 強化學習;可重構GANs;BachGAN;時間序列分類等
    今日 Paper | 強化學習;可重構GANs;BachGAN;時間序列分類等

      BachGAN:基于顯著物體布局的高分辨率圖像合成

    論文名稱:BachGAN: High-Resolution Image Synthesis from Salient Object Layout

    作者:Li Yandong /Cheng Yu /Gan Zhe /Yu Licheng /Wang Liqiang /Liu Jingjing

    發表時間:2020/3/26

    論文鏈接:https://paper.yanxishe.com/review/15416?from=leiphonecolumn_paperreview0409

    推薦原因

    這篇論文提出了一個新的問題,即從顯著物體布局來生成高質量圖像。在這個問題中,用戶僅提供物體的布局,即前景邊界框和類別,由模型發明背景和匹配前景來完成繪圖。為了解決這個問題,這篇論文提出了一個背景幻覺生成對抗網絡(Background Hallucination Generative Adversarial Network,BachGAN),首先通過背景檢索模塊從一個大型候選庫中選擇一組分割圖,然后通過背景融合模塊對這些候選布局進行編碼,以對給定對象的合適背景進行幻覺處理。通過動態生成幻覺背景表示,BachGAN可以合成具有逼真前景和完整背景的高分辨率圖像。在Cityscapes和ADE20K數據集上進行的實驗證明了BachGAN在生成圖像的視覺保真度及輸出圖像和輸入布局之間的視覺對齊方面優于現有方法。

    今日 Paper | 強化學習;可重構GANs;BachGAN;時間序列分類等
    今日 Paper | 強化學習;可重構GANs;BachGAN;時間序列分類等

      時間序列分類:近鄰vs深度學習模型

    論文名稱:Time series classification: nearest neighbor versus deep learning models

    作者:Weiwei Jiang

    發表時間:2020/3/20

    論文鏈接:https://paper.yanxishe.com/review/15415?from=leiphonecolumn_paperreview0409

    推薦原因

    深度學習方法在圖像處理等問題上取得了巨大的成功,然而在一維時間序列分類的問題上,動態時間規整(DTW)算法等傳統方法仍然占據著重要的地位。近年來,有不少研究表明全卷積網絡、殘差網絡等深度學習模型在一些時間序列分類問題中也取得了超越傳統模型的表現。這篇論文通過在UCR的128個時間序列數據集上全面評估基于8種不同度量的近鄰方法和3種不同的深度學習模型,試圖回答是否深度學習模型超越了傳統的距離度量方法。大量的實驗表明,盡管全卷積網絡和殘差網絡的平均準確率優于傳統的距離度量方法,在統計檢驗的視角上這兩種方法沒有顯著優于基于動態時間規整和實補償編輯距離的方法。

    今日 Paper | 強化學習;可重構GANs;BachGAN;時間序列分類等

    今日 Paper | 強化學習;可重構GANs;BachGAN;時間序列分類等

    雷鋒網雷鋒網雷鋒網

    相關文章:

    今日 Paper | ScrabbleGAN;UnrealText;跟蹤模型;G2L-Net等

    雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知

    今日 Paper | 強化學習;可重構GANs;BachGAN;時間序列分類等

    分享:
    相關文章

    編輯

    聚焦數據科學,連接 AI 開發者。更多精彩內容,請訪問:yanxishe.com
    當月熱門文章
    最新文章
    請填寫申請人資料
    姓名
    電話
    郵箱
    微信號
    作品鏈接
    個人簡介
    為了您的賬戶安全,請驗證郵箱
    您的郵箱還未驗證,完成可獲20積分喲!
    請驗證您的郵箱
    立即驗證
    完善賬號信息
    您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
    立即設置 以后再說