成人av在线资源一区,亚洲av日韩av一区,欧美丰满熟妇乱XXXXX图片,狠狠做五月深爱婷婷伊人,桔子av一区二区三区,四虎国产精品永久在线网址,国产尤物精品人妻在线,中文字幕av一区二区三区欲色
    您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
    此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
    人工智能學(xué)術(shù) 正文
    發(fā)私信給AI研習(xí)社
    發(fā)送

    0

    今日 Paper | 蚊子叫聲數(shù)據(jù)集;提高語(yǔ)音識(shí)別準(zhǔn)確率;對(duì)偶注意力推薦系統(tǒng)等

    本文作者: AI研習(xí)社 2020-01-16 14:22
    導(dǎo)語(yǔ):每天都為你精選關(guān)于人工智能的前沿學(xué)術(shù)論文供你學(xué)習(xí)參考。

    為了幫助各位學(xué)術(shù)青年更好地學(xué)習(xí)前沿研究成果和技術(shù),AI 研習(xí)社重磅推出【今日 Paper】欄目, 每天都為你精選關(guān)于人工智能的前沿學(xué)術(shù)論文供你學(xué)習(xí)參考。以下是今日的精選內(nèi)容——

      目錄

    • 提高有噪聲情況下的語(yǔ)音識(shí)別準(zhǔn)確率——而且用常見(jiàn)工具就可以

    • 基于對(duì)偶圖注意力網(wǎng)絡(luò)多方面社交影響的推薦系統(tǒng)

    • 想研究蚊子、阻止瘧疾,你需要一個(gè)蚊子叫聲數(shù)據(jù)集

    • 用于類(lèi)遞增目標(biāo)檢測(cè)的交叉數(shù)據(jù)集訓(xùn)練

    • 卷積均值:一種簡(jiǎn)單的用于照度估計(jì)的卷積神經(jīng)網(wǎng)絡(luò)


      提高有噪聲情況下的語(yǔ)音識(shí)別準(zhǔn)確率——而且用常見(jiàn)工具就可以

    論文名稱:Improved Robust ASR for Social Robots in Public Spaces

    作者:Charles Jankowski /Vishwas Mruthyunjaya /Ruixi Lin

    發(fā)表時(shí)間:2020/1/14

    論文鏈接:https://paper.yanxishe.com/review/8973?from=leiphonecolumn_paperreview0116

    推薦原因:帶有社交功能的、仿人類(lèi)外型的機(jī)器人如今越來(lái)越多出現(xiàn)在酒店、銀行、展廳等場(chǎng)合,大家也很喜歡和它們聊天。不過(guò),這種公共、開(kāi)放場(chǎng)景中的自動(dòng)語(yǔ)音識(shí)別(ASR)仍然是有一定難度的,尤其是環(huán)境噪音。現(xiàn)有的ASR模型通常在噪音較小、說(shuō)話人聲音信噪比較高的情況下有不錯(cuò)的表現(xiàn),但一旦噪音增大,模型的表現(xiàn)就會(huì)有顯著下降。

    這篇論文重點(diǎn)針對(duì)的就是有噪聲的環(huán)境下的ASR。作者們?cè)贏iShell-1中文語(yǔ)音數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),不僅在噪聲較高的情況下獲得了新的最好成績(jī),同時(shí)也表明了用很容易找到的開(kāi)源的工具包+幾百個(gè)小時(shí)的訓(xùn)練數(shù)據(jù)就可以獲得相對(duì)高的準(zhǔn)確率。這個(gè)結(jié)果對(duì)其他的開(kāi)發(fā)者、初學(xué)者也很有借鑒意義。

    今日 Paper | 蚊子叫聲數(shù)據(jù)集;提高語(yǔ)音識(shí)別準(zhǔn)確率;對(duì)偶注意力推薦系統(tǒng)等

      基于對(duì)偶圖注意力網(wǎng)絡(luò)多方面社交影響的推薦系統(tǒng)

    論文名稱:Dual Graph Attention Networks for Deep Latent Representation of Multifaceted Social Effects in Recommender Systems

    作者:Wu Qitian /Zhang Hengrui /Gao Xiaofeng /He Peng /Weng Paul /Gao Han /Chen Guihai

    發(fā)表時(shí)間:2019/3/25

    論文鏈接:https://paper.yanxishe.com/review/8984?from=leiphonecolumn_paperreview0116

    推薦原因:圖神經(jīng)網(wǎng)絡(luò)已經(jīng)取得了巨大的成功現(xiàn)在很多領(lǐng)域得到了應(yīng)用。作為與圖最相關(guān)的推薦,很多工作也嘗試引入GNN來(lái)更好的學(xué)習(xí)節(jié)點(diǎn)表示。本文算是比較早的引入GNN來(lái)進(jìn)行推薦的論文,發(fā)表在WWW2019上。作者探索了社交影響中在user-item二部圖上影響,總共定義了4種社交影響,在通過(guò)GNN學(xué)習(xí)到表示之后,作者利用了強(qiáng)化學(xué)習(xí)技術(shù)來(lái)實(shí)現(xiàn)動(dòng)態(tài)融合。實(shí)驗(yàn)結(jié)果驗(yàn)證了本文算法的有效性。

    今日 Paper | 蚊子叫聲數(shù)據(jù)集;提高語(yǔ)音識(shí)別準(zhǔn)確率;對(duì)偶注意力推薦系統(tǒng)等
    今日 Paper | 蚊子叫聲數(shù)據(jù)集;提高語(yǔ)音識(shí)別準(zhǔn)確率;對(duì)偶注意力推薦系統(tǒng)等

      想研究蚊子、阻止瘧疾,你需要一個(gè)蚊子叫聲數(shù)據(jù)集

    論文名稱:HumBug Zooniverse: a crowd-sourced acoustic mosquito dataset

    作者:Ivan Kiskin /Adam D. Cobb /Lawrence Wang /Stephen Roberts

    發(fā)表時(shí)間:2020/1/14

    論文鏈接:https://paper.yanxishe.com/review/8954?from=leiphonecolumn_paperreview0116

    推薦原因:深度學(xué)習(xí)的應(yīng)用越來(lái)越廣,尤其是研究生物的人開(kāi)始用上深度學(xué)習(xí)之后,我們就開(kāi)始看到一些好笑的、出人意料的研究和數(shù)據(jù)集。

    前不久四川瀕危野生動(dòng)物保護(hù)國(guó)家重點(diǎn)實(shí)驗(yàn)室 - 成都大熊貓繁育研究基地剛剛發(fā)布了一個(gè)大熊貓聲音的數(shù)據(jù)集,今天我們又看到了一個(gè)蚊子聲音的數(shù)據(jù)集。沒(méi)錯(cuò),就是那個(gè)會(huì)叮人、會(huì)傳播疾病的蚊子的數(shù)據(jù)集。

    這些來(lái)自牛津大學(xué)的研究人員的收集了超過(guò)19萬(wàn)段2秒長(zhǎng)的蚊子錄音并進(jìn)行了標(biāo)注,其中大約有10%的數(shù)據(jù)樣本對(duì)應(yīng)了蚊子的某種行為。他們希望這個(gè)數(shù)據(jù)集可以幫助更好地研究蚊子的分布和行為,他們也在論文中提供了用CNN進(jìn)行分類(lèi)的樣例。

    這個(gè)論文還是 2019 NeurIPS ML4D workshop 的最佳論文獎(jiǎng)得主。ML4D workshop 的主旨就是利用機(jī)器學(xué)習(xí)技術(shù)幫助發(fā)展中國(guó)家,這篇論文研究的蚊子正是發(fā)展中國(guó)家中尚未完全得到控制的瘧疾的重要傳染途徑,和workshop的目標(biāo)非常吻合,也有開(kāi)拓和啟發(fā)意義,得到這個(gè)最佳論文獎(jiǎng)可謂恰如其分。

    今日 Paper | 蚊子叫聲數(shù)據(jù)集;提高語(yǔ)音識(shí)別準(zhǔn)確率;對(duì)偶注意力推薦系統(tǒng)等
    今日 Paper | 蚊子叫聲數(shù)據(jù)集;提高語(yǔ)音識(shí)別準(zhǔn)確率;對(duì)偶注意力推薦系統(tǒng)等

      用于類(lèi)遞增目標(biāo)檢測(cè)的交叉數(shù)據(jù)集訓(xùn)練

    論文名稱:Cross-dataset Training for Class Increasing Object Detection

    作者:Yao Yongqiang /Wang Yan /Guo Yu /Lin Jiaojiao /Qin Hongwei /Yan Junjie

    發(fā)表時(shí)間:2020/1/14

    論文鏈接:https://paper.yanxishe.com/review/8985?from=leiphonecolumn_paperreview0116

    推薦原因:這篇論文考慮的是跨數(shù)據(jù)集訓(xùn)練的目標(biāo)分類(lèi)任務(wù)。

    給定不同的數(shù)據(jù)集,跨數(shù)據(jù)集訓(xùn)練的目標(biāo)是檢測(cè)不同類(lèi)別的并集,而不需要為所有數(shù)據(jù)集標(biāo)記所有類(lèi)別。通過(guò)這種方式,可以利用現(xiàn)有的數(shù)據(jù)集來(lái)訓(xùn)練模型,然后應(yīng)用于合并之后的數(shù)據(jù)集,并且避免了在新數(shù)據(jù)集上進(jìn)行標(biāo)記。這篇論文在PASCAL VOC、 COCO、 WIDER FACE和WIDER Pedestrian這些數(shù)據(jù)集上實(shí)驗(yàn)了單數(shù)據(jù)集和跨數(shù)據(jù)集這兩種訓(xùn)練模式。實(shí)驗(yàn)結(jié)果表明與獨(dú)立訓(xùn)練相比,這篇論文提出的跨數(shù)據(jù)集訓(xùn)練框架可以同時(shí)在這些數(shù)據(jù)集上實(shí)現(xiàn)類(lèi)似的性能表現(xiàn)。

    今日 Paper | 蚊子叫聲數(shù)據(jù)集;提高語(yǔ)音識(shí)別準(zhǔn)確率;對(duì)偶注意力推薦系統(tǒng)等
    今日 Paper | 蚊子叫聲數(shù)據(jù)集;提高語(yǔ)音識(shí)別準(zhǔn)確率;對(duì)偶注意力推薦系統(tǒng)等
    今日 Paper | 蚊子叫聲數(shù)據(jù)集;提高語(yǔ)音識(shí)別準(zhǔn)確率;對(duì)偶注意力推薦系統(tǒng)等

      卷積均值:一種簡(jiǎn)單的用于照度估計(jì)的卷積神經(jīng)網(wǎng)絡(luò)

    論文名稱:Convolutional Mean: A Simple Convolutional Neural Network for Illuminant Estimation

    作者:Gong Han

    發(fā)表時(shí)間:2020/1/14

    論文鏈接:https://paper.yanxishe.com/review/8986?from=leiphonecolumn_paperreview0116

    推薦原因:這篇論文提出了一種名為卷積均值的用于照度估計(jì)的卷積神經(jīng)網(wǎng)絡(luò)。

    這種卷積均值方法只要求一個(gè)包含大約1100參數(shù)量的小網(wǎng)絡(luò)模型,以及一個(gè)48x32的縮略輸入圖。該方法在沒(méi)有優(yōu)化的Python實(shí)現(xiàn)中處理速度是1毫秒1張圖片,并且在保持相同準(zhǔn)確率的前提下,遠(yuǎn)遠(yuǎn)快于當(dāng)前的其他方案。在兩個(gè)公共數(shù)據(jù)集上的實(shí)驗(yàn)也表明了這種方法在多個(gè)度量上的準(zhǔn)確性可與當(dāng)前的最優(yōu)算法相媲美。

    今日 Paper | 蚊子叫聲數(shù)據(jù)集;提高語(yǔ)音識(shí)別準(zhǔn)確率;對(duì)偶注意力推薦系統(tǒng)等

      論文作者團(tuán)隊(duì)招募

    為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學(xué)生青年的「興趣點(diǎn)」,通過(guò)論文整理推薦、點(diǎn)評(píng)解讀、代碼復(fù)現(xiàn)。致力成為國(guó)內(nèi)外前沿研究成果學(xué)習(xí)討論和發(fā)表的聚集地,也讓優(yōu)秀科研得到更為廣泛的傳播和認(rèn)可。

    我們希望熱愛(ài)學(xué)術(shù)的你,可以加入我們的論文作者團(tuán)隊(duì)。

    入論文作者團(tuán)隊(duì)你可以獲得

        1.署著你名字的文章,將你打造成最耀眼的學(xué)術(shù)明星

        2.豐厚的稿酬

        3.AI 名企內(nèi)推、大會(huì)門(mén)票福利、獨(dú)家周邊紀(jì)念品等等等。

    加入論文作者團(tuán)隊(duì)你需要:

        1.將你喜歡的論文推薦給廣大的研習(xí)社社友

        2.撰寫(xiě)論文解讀

    如果你已經(jīng)準(zhǔn)備好加入 AI 研習(xí)社的論文兼職作者團(tuán)隊(duì),可以添加運(yùn)營(yíng)小姐姐的微,備注“論文兼職作者”


    今日 Paper | 蚊子叫聲數(shù)據(jù)集;提高語(yǔ)音識(shí)別準(zhǔn)確率;對(duì)偶注意力推薦系統(tǒng)等

    雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

    相關(guān)文章:

    今日 Paper | 人臉數(shù)據(jù)隱私;神經(jīng)符號(hào)推理;深度學(xué)習(xí)聊天機(jī)器人等

    今日 Paper | 虛擬試穿網(wǎng)絡(luò);人群計(jì)數(shù)基準(zhǔn);聯(lián)邦元學(xué)習(xí);目標(biāo)檢測(cè)等

    今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

    今日 Paper | 隨機(jī)微分方程;流式自動(dòng)語(yǔ)音識(shí)別;圖像分類(lèi)等

    今日 Paper | 高維感官空間機(jī)器人;主動(dòng)人體姿態(tài)估計(jì);深度視頻超分辨率;行人重識(shí)別等

    今日 Paper | 3D手勢(shì)估計(jì);自學(xué)習(xí)機(jī)器人;魯棒語(yǔ)義分割;卷積神經(jīng)網(wǎng)絡(luò);混合高斯過(guò)程等

    今日 Paper | 精簡(jiǎn)BERT;面部交換;三維點(diǎn)云;DeepFakes 及 5G 等

    今日 Paper | 虛假新聞檢測(cè);馬爾可夫決策過(guò)程;場(chǎng)景文本識(shí)別;博弈論框架等

    今日 Paper | 問(wèn)答系統(tǒng);3D人體形狀和姿勢(shì);面部偽造檢測(cè);AdderNet等

    雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。

    今日 Paper | 蚊子叫聲數(shù)據(jù)集;提高語(yǔ)音識(shí)別準(zhǔn)確率;對(duì)偶注意力推薦系統(tǒng)等

    分享:
    相關(guān)文章

    編輯

    聚焦數(shù)據(jù)科學(xué),連接 AI 開(kāi)發(fā)者。更多精彩內(nèi)容,請(qǐng)?jiān)L問(wèn):yanxishe.com
    當(dāng)月熱門(mén)文章
    最新文章
    請(qǐng)?zhí)顚?xiě)申請(qǐng)人資料
    姓名
    電話
    郵箱
    微信號(hào)
    作品鏈接
    個(gè)人簡(jiǎn)介
    為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
    您的郵箱還未驗(yàn)證,完成可獲20積分喲!
    請(qǐng)驗(yàn)證您的郵箱
    立即驗(yàn)證
    完善賬號(hào)信息
    您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
    立即設(shè)置 以后再說(shuō)