成人av在线资源一区,亚洲av日韩av一区,欧美丰满熟妇乱XXXXX图片,狠狠做五月深爱婷婷伊人,桔子av一区二区三区,四虎国产精品永久在线网址,国产尤物精品人妻在线,中文字幕av一区二区三区欲色
    您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
    此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
    國際 正文
    發(fā)私信給Misty
    發(fā)送

    1

    ICML神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)日程表(周二)

    本文作者: Misty 2016-06-20 16:13
    導(dǎo)語:關(guān)于神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí),ICML大會上到底會講些什么,雷鋒網(wǎng)與你分享。

    神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)

    大會主席:Hal Daume III

    地點: Ballroom 1+2+Juliard

    10:30– 強類型遞歸神經(jīng)網(wǎng)絡(luò) Strongly-Typed Recurrent Neural Network)  

                 David Balduzzi、 Muhammad Ghifary 惠靈頓維多利亞大學(xué)

    10:47– 源代碼極端總結(jié)卷積關(guān)注網(wǎng)絡(luò) (A Convolutional Attention Network for Extreme Summarization of Source Code)

                   Miltiadis Allamanis 愛丁堡大學(xué);Hao Peng 北京大學(xué)

    11:04– 問我任何事:自然語言程序動態(tài)記憶網(wǎng)絡(luò)(Ask Me Anything: Dynamic Memory Networks for Natural Language Processing )

                  Ankit Kumar、 Ozan Irsoy 、 Peter Ondruska、 Mohit Iyyer 、James Bradbury、 Ishaan Gulrajani、Victor Zhong、Romain Paulus   MetaMind公司

    11:40– 視覺動態(tài)記憶網(wǎng)絡(luò)和文字問題問答(Dynamic Memory Networks for Visual and Textual Question Answering)  

                Caiming Xiong、Stephen Merity MetaMind公司

    11:57– 使用LSTM地區(qū)嵌入的監(jiān)督和半監(jiān)督文字分類 (Supervised and Semi-Supervised Text Categorization using LSTM for Region Embeddings)

                Rie Johnson RJ調(diào)查咨詢公司

    12:14– PHOG:代碼概率模型 (PHOG: Probabilistic Model for Code)

                 Pavol Bielik、Veselin Raychev、Martin Vechev  蘇黎世聯(lián)邦理工學(xué)院

    增強式學(xué)習(xí)

    會議主席: Tom Erez

    地點: Ballroom 3+4

     10:30 –  關(guān)于 蒙特卡洛樹搜索復(fù)雜支撐戰(zhàn)略的分析(On the Analysis of Complex Backup Strategies in Monte Carlo Tree Search) 

                 Piyush Khandelwal、Elad Liebman 、Peter Stone U 德克薩斯大學(xué)奧斯汀分校

    10:47 –  隨機化價值功能歸納和探索 (Generalization and Exploration via Randomized Value Functions ) 

                Ian Osband 、 Benjamin Van Roy 斯坦福大學(xué);Zheng Wen Adobe 研究所

    11:04 – 增強式學(xué)習(xí)價值評估策略  (Doubly Robust Off-policy Value Evaluation for Reinforcement Learning) 

                Nan Jiang密歇根大學(xué); Lihong Li 微軟

    11:40 – 通過近似狀態(tài)抽象的最優(yōu)行為(Near Optimal Behavior via Approximate State Abstraction)

                David Abel 、 David Hershkowitz、 Michael Littman 布朗大學(xué)

    11:57 –  增強式學(xué)習(xí)自由模式軌道優(yōu)化 (Model-Free Trajectory Optimization\\ for Reinforcement Learning )

                  Riad Akrour 、 Gerhard Neumann 、 Hany Abdulsamad、Abbas Abdolmaleki 達姆施塔特工業(yè)大學(xué)

    12:14 –  政策優(yōu)化自由模式限制學(xué)習(xí)(Model-Free Imitation Learning with Policy Optimization) 

                 Jonathan Ho 、Jayesh Gupta、 Stefano Ermon 斯坦福大學(xué)

    會議主席:Lihong Li

    地點: Marquis

    03:40 – 指導(dǎo)成本學(xué)習(xí): 通過策略最優(yōu)化的深度逆向優(yōu)化控制(Guided Cost Learning: Deep Inverse Optimal Control via Policy Optimization)

                Chelsea Finn、 Sergey Levine 、Pieter Abbeel  加州大學(xué)伯克利分校

    03:57 –  在線后果預(yù)測的模仿學(xué)習(xí) (Smooth Imitation Learning for Online Sequence Prediction)                Hoang Le、Andrew Kang、 Andrew Kang , Yisong Yue 加州理工學(xué)院

    04:14 –  基于模型積累的連續(xù)深度Q-Learning(Continuous Deep Q-Learning with Model-based Acceleration) 

                 Shixiang Gu劍橋大學(xué); Timothy Lillicrap Google DeepMind; Ilya Sutskever OpenAI; Sergey Levine 谷歌

    04:31 –  深度增強式學(xué)習(xí)的異步方法 (Asynchronous Methods for Deep Reinforcement Learning)              Volodymyr Mnih Google、Adria Puigdomenech Badia、Mehdi Mirza、Alex Graves 、Timothy Lillicrap、Tim Harley、David , Koray Kavukcuoglu 谷歌Deepmind

    會議主席: Tom Erez

    地點 : Marquis

    05:10 –  通過高斯近似原理預(yù)測最大期待價值(Estimating Maximum Expected Value through Gaussian Approximation) 

                Carlo D’Eramo、 Marcello Restelli、 Alessandro Nuara 米蘭理工大學(xué)

    05:27 – 增強式學(xué)習(xí)數(shù)據(jù)效率政策評估 (Data-Efficient Off-Policy Policy Evaluation for Reinforcement Learning)

                 Philip Thomas 、 Emma卡內(nèi)基梅隆大學(xué)

    05:44 – 積累前景理論遇上增強式學(xué)習(xí):預(yù)測和控制 (Cumulative Prospect Theory Meets Reinforcement Learning: Prediction and Control )

                 Prashanth L.A、Cheng Jie, Michael Fu 、Steve Marcus馬里蘭大學(xué)

    06:01 – Softened Approximate Policy Iteration for Markov Games Maekov(對策軟化近似戰(zhàn)略迭代)Julien Pérolat、Bilal Piot 、Matthieu Geist 、Bruno Scherrer 、Olivier Pietquin里爾大學(xué)

    組合最優(yōu)化

    會議主席: Andreas Krause

    地點: Marquis

    10:30 – 子模塊功能概率的算法優(yōu)化(Algorithms for Optimizing the Ratio of Submodular Functions ) 

                Wenruo Bai、Rishabh Iyer、Kai Wei、Jeff Bilmes 華盛頓大學(xué)

    10:47 – 水平擴展子模塊最大化(Horizontally Scalable Submodular Maximization)

                 Mario Lucic 、Olivier Bachem 蘇黎世理工學(xué)院;Morteza Zadimoghaddam 、Andreas Krause 谷歌研究院

    11:04 –  通過兩層子模塊最大化學(xué)習(xí)稀疏組合代表(Learning Sparse Combinatorial Representations via Two-stage Submodular Maximization)

                 Eric Balkanski 、Baharan Mirzasoleiman、Andreas Krause 、Yaron Singer 蘇黎世理工學(xué)院

    11:40 – 速度限制子模塊最大化:個性化數(shù)據(jù)總結(jié)(Fast Constrained Submodular Maximization: Personalized Data Summarization )

                 Baharan Mirzasoleiman蘇黎世理工學(xué)院; Ashwinkumar Badanidiyuru 谷歌研究院; Amin Karbasi 耶魯大學(xué)

    11:57 – 困難排列問題的簡單界約束解決方案(A Box-Constrained Approach for Hard Permutation Problems )

                Cong Han Lim 、Madison、Steve Wright 威斯康辛大學(xué)

    12:14 – 多序列比對和模體識別的凸面原子解決方案(A Convex Atomic-Norm Approach to Multiple Sequence Alignment and Motif Discovery)

                 Ian En-Hsu Yen 、Xin Lin 、Jiong Zhang 、Pradeep Ravikumar 特克薩斯大學(xué)奧斯丁分校

    無監(jiān)督學(xué)習(xí)/表征學(xué)

     會議主席: Jennifer Dy

     地點: Lyceum

    10:30 – 非參數(shù)標準相關(guān)分析(Nonparametric Canonical Correlation Analysis)

                 Tomer Michaeli 以色列理工學(xué)院; Weiran Wang 、 Karen Livescu TTI Chicago

    10:47 – 信息篩The Information Sieve)

               Greg Ver Steeg、Aram Galstyan 信息科技研究所

    11:04 – 核心和距離矩陣平均值 (Gromov-Wasserstein Averaging of Kernel and Distance Matrices Gromov-Wasserstein

                Gabriel Peyré、Justin Solomon 京都Marco Cuturi

    11:40 – 反事實推理的學(xué)習(xí)代表 Learning Representations for Counterfactual Inference)

                Fredrik Johansson哥德堡科技大學(xué);Uri Shalit 、David Sontag 紐約大學(xué)

    11:57 – 為什么正規(guī)化自動編碼器學(xué)習(xí)稀疏表示?  (Why Regularized Auto-Encoders learn Sparse Representation?為什么正規(guī)化自動編碼器學(xué)習(xí)稀疏表示?) 

               Devansh Arpit 、Yingbo Zhou、Hung Ngo、Venu Govindaraju 紐約州立大學(xué)

    12:14 – 隨機森林砍伐的數(shù)據(jù)流異常檢測(Robust Random Cut Forest Based Anomaly Detection on Streams) 

                Sudipto Guha 賓夕法尼亞大學(xué); Nina Mishra、Gourav Roy Amazon、Okke Schrijvers 斯坦福大學(xué)

    分樣/內(nèi)核方法

    會議主席: Marius Kloft

    地點: Empire

    10:30 – 受限玻爾茲曼機和朋友的混合交替吉布斯采樣法(Mixing Rates for the Alternating Gibbs Sampler over Restricted Boltzmann Machines and Friends ) 

                 Christopher Tosh 加州大學(xué)圣地亞哥分校

    10:47 – 柔軟拒絕采樣 (Pliable Rejection Sampling)

                Akram Erraqabi Inria、 Michal Valko、Alexandra Carpentier 、Odalric Maillard 歐洲北部里爾

    11:04 – 內(nèi)核擬合優(yōu)化檢驗(A Kernel Test of Goodness of Fit)

                 Kacper Chwialkowski 、Heiko Strathman、 Arthur Gretton、 Gatsby 倫敦大學(xué)學(xué)院

    11:40 – 擬合優(yōu)度檢驗的Kernelized Stein差異(A Kernelized Stein Discrepancy for Goodness-of-fit Tests ) 

                Qiang Liu 、Jason Lee、 Michael 加州大學(xué)伯克利分校

    11:57 – 通過SALSA的高維非參數(shù)回歸添加劑近似(Additive Approximations in High Dimensional Nonparametric Regression via the SALSA)

                Kirthevasan Kandasamy、 Yaoliang Yu卡內(nèi)基梅隆大學(xué)

    12:14 – 雙非參數(shù)張量分解回歸(Doubly Decomposing Nonparametric Tensor Regression)

                Masaaki Imaizumi、Kohei Hayashi 東京大學(xué)

    稀疏和壓縮傳感

    大會主席:Gal Chechik

    地點: Soho

    10:30 – 數(shù)據(jù)缺失子空間聚類的信息理論要求(The Information-Theoretic Requirements of Subspace Clustering with Missing Data)

                Daniel Pimentel-Alarcon 、Robert Nowak 麥迪遜大學(xué)

    10:47 – 穩(wěn)健的邊信息主成分分析(Robust Principal Component Analysis with Side Information)

                Kai-Yang Chiang德州大學(xué)奧斯丁分校; Cho-Jui Hsieh加州大學(xué)戴維斯分校

    11:04 – 通過基礎(chǔ)字典追蹤的在線低秩子空間聚類(Online Low-Rank Subspace Clustering by Basis Dictionary Pursuit)

                Jie Shen、Ping Li、Huan Xu 羅格斯大學(xué)

    11:40 – 可證明的非凸和離群值相位檢索:中位數(shù)TruncatedWirtinger流(Provable Non-convex Phase Retrieval with Outliers: Median TruncatedWirtinger Flow)

                Huishuai Zhan、Yingbin Liang 雪城大學(xué); Yuejie Chi 俄亥俄州立大學(xué)

    11:57 – 估算結(jié)構(gòu)向量自回歸模型(Estimating Structured Vector Autoregressive Models)

                Igor Melnyk、Arindam Banerjee 明尼蘇達州

    12:14 – 關(guān)于低質(zhì)矩陣估計更快的效率和Oracle財產(chǎn) (Towards Faster Rates and Oracle Property for Low-Rank Matrix Estimati)

                 Huan Gui、Jiawei Han 伊利諾伊大學(xué)

    近似推理

    會議主席: Jon Mcauliffe

    地點: Liberty

    10:30 –分層變分模型(Hierarchical Variational Models)

               Rajesh Ranganath , Dustin Tran 、Blei David 哥倫比亞大學(xué)

    10:47 – 變分分析隨機梯度算法(A Variational Analysis of Stochastic Gradient Algorithms)

                 Stephan Mandt、Blei David哥倫比亞大學(xué);Matthew Hoffman Adobe研究所

    11:04 – 黑盒α差異最小化 (Black-Box Alpha Divergence Minimization)

                Jose miguel Hernandez-Lobato , Yingzhen Li、 Mark Rowland、Thang Bui、Daniel Hernandez-Lobato 、Richard Turner 劍橋大學(xué)

    11:40 – 蒙特卡羅目標變分推理(Variational Inference for Monte Carlo Objectives)

                Andriy Mnih , Danilo Rezende 谷歌 DeepMind

    11:57 – 作為貝葉斯估計的Dropout:代表深度學(xué)習(xí)模塊的不確定性(Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning) 

                 Yarin Gal 劍橋大學(xué)

    12:14 – 輔助深度生成模型 (Auxiliary Deep Generative Models)

                 Lars Maal?e、Ole Winther 丹麥技術(shù)大學(xué), Casper Kaae S?nderby 、S?ren Kaae S?nderby 哥本哈根大學(xué)

    神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)I

    會議主席: Nicolas Le Roux

    地點: Ballroom 1+2+Juliard

    03:40 – 序列學(xué)習(xí)因式分解函數(shù)信念網(wǎng)絡(luò)(Factored Temporal Sigmoid Belief Networks for Sequence Learning)

               Jiaming Song清華大學(xué); Zhe Gan、Lawrence Carin 杜克大學(xué)

    03:57 – 雙向亥姆霍茲機器(Bidirectional Helmholtz Machines)

                Jorg Bornschein、Samira Shabanian 、Asja Fischer 、Yoshua Bengio 蒙特利爾大學(xué)

    04:14 – 結(jié)構(gòu)化和有效的變分矩陣高斯后驗深度學(xué)習(xí)(Structured and Efficient Variational Deep Learning with Matrix Gaussian Posteriors )

                Christos Louizos、Max Welling 阿姆斯特丹大學(xué)

    04:31 – Dropout蒸餾(Dropout distillation)

                 Samuel Rota Bulò FBK, Lorenzo Porzi FBK, Peter Kontschieder 劍橋微軟研究院

     會議主席: Yoshua Bengio

     地點: Ballroom 1+2+Juliard

    05:10 – 整流器網(wǎng)絡(luò)的表達(Expressiveness of Rectifier Network)

                Xingyuan Pan、Vivek Srikumar 猶他大學(xué)

    05:27 – 卷積整流器網(wǎng)絡(luò)廣義張量分解(Convolutional Rectifier Networks as Generalized Tensor Decompositions)

                Nadav Cohen、Amnon Shashua Mobileye耶路撒冷希伯來大學(xué)

    05:44 – 深度卷積網(wǎng)絡(luò)的點定量化(Fixed Point Quantization of Deep Convolutional Networks)

                Darryl Lin、Sachin Talathi 高通研究所;Sreekanth Annapureddy NetraDyne公司

    06:01 –  CryptoNets::將神經(jīng)網(wǎng)絡(luò)運用于高生產(chǎn)量和準確度的加密數(shù)據(jù)(CryptoNets: Applying Neural Networks to Encrypted Data with High Throughput and Accuracy ) 

                  Ran Gilad-Bachrach、Nathan Dowlin Princeton、Kim Laine、Kristin Lauter、Michael Naehrig 、John Wernsing 微軟研究所

    神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)II

    會議主席: Alexandru Niculescu-Mizil

    地點: Ballroom 3+4

    03:40 – 圖形嵌入半監(jiān)督學(xué)習(xí)回顧(Revisiting Semi-Supervised Learning with Graph Embeddings )             Zhilin Yang、William Cohen卡耐基梅隆大學(xué)Ruslan Salakhudinov 多倫多大學(xué)

    03:57 –  ADIOS: 輸出空間架構(gòu)深度(ADIOS: Architectures Deep In Output Space)

                 Moustapha Cisse 、 Maruan Al-Shedivat卡耐基梅隆大學(xué); Samy Bengio 谷歌

    04:14 – 深度嵌入的無監(jiān)督聚類分析(Unsupervised Deep Embedding for Clustering Analysis)

                Junyuan Xie、Ali Farhadi 華盛頓大學(xué); Ross Girshick Facebook;

    04:31 – 卷積神經(jīng)網(wǎng)絡(luò)圖學(xué)習(xí)(Learning Convolutional Neural Networks for Graphs)

                 Mathias Niepert 、Mohamed Ahmed ;Konstantin Kutzkov NEC 歐洲實驗室

    會議主席: David Sontag

    地點: Ballroom 3+4

    05:10 –  多因子神經(jīng)關(guān)注糾正預(yù)測(Correcting Forecasts with Multifactor Neural Attention )

                 Matthew Riemer、 Aditya Vempaty、Flavio Calmon、Fenno Heath、Richard Hull、Elham Khabiri IBM

    05:27 – 神經(jīng)網(wǎng)絡(luò)元學(xué)習(xí)(Meta-Learning with Memory-Augmented Neural Networks Memory-Augmented)

                Adam Santoro、Matthew Botvinick 、Daan Wierstra、Timothy Lillicrap 谷歌DeepMind Sergey Bartunov 高級經(jīng)濟學(xué)院

    05:44 – 簡單算法的示例學(xué)習(xí)(Learning Simple Algorithms from Examples) 

                Wojciech Zaremba , Tomas , Armand Joulin , Rob Fergus Facebook AI研究所

    06:01 – 長短期記憶聯(lián)想(Associative Long Short-Term Memory) 

                 Ivo Danihelka 、Greg Wayne 、Benigno Uria 、 Nal Kalchbrenner 、Alex Graves 谷歌DeepMind

    Via:ICML@NYC

    雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

    分享:
    相關(guān)文章

    編輯

    歡迎合作,歡迎來撩。 微信號:Misty_Yoong
    當月熱門文章
    最新文章
    請?zhí)顚懮暾埲速Y料
    姓名
    電話
    郵箱
    微信號
    作品鏈接
    個人簡介
    為了您的賬戶安全,請驗證郵箱
    您的郵箱還未驗證,完成可獲20積分喲!
    請驗證您的郵箱
    立即驗證
    完善賬號信息
    您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
    立即設(shè)置 以后再說