0
| 本文作者: camel | 編輯:郭奕欣 | 2017-08-21 23:18 | 專題:IJCAI 2017 |
雷鋒網AI科技評論按:研討會開了幾天,IJCAI 2017正會終于要開始了,接下來的幾天將是一系列激動人心的特邀演講和各種獎項的確定和頒發。
在明天早上的開幕典禮上,將從6篇入圍的論文中確定期待已久的兩項Distinguished Papers獎。這6篇論文當中,3篇Distinguished Student Paper全是華人學生的論文,而Distinguished Paper中也有一篇是中國學者的工作。所以前一個獎項已經被中國學生包了,后一個也很有可能會是中國學者獲獎。在頒獎之前,我們不如先來了解一下這六篇論文內容,然后押上一寶,明天看能否猜中哪家獲獎。
1)使用Limit Datalog程序的聲明數據分析的基礎
下載地址:https://arxiv.org/pdf/1705.06927.pdf

雷鋒網注:分析復雜數據目前是非常熱的話題,這種分析,例如數據聚合、屬性驗證或查詢回答等,現在主要是通過指定如何操作數據來完成,但是當數據較為復雜時這種方式表現并不是很好。現在有人提出數據分析應當被聲明,也就是說用戶應當描述期望輸出是什么,而不是怎么計算它。例如,在一張圖中,不是通過具體的算法來計算最短路徑,而是應當1)描述什么是路徑長度;2)選擇最小長度的路徑。
在數據分析中,近來有人提出了聲明數據分析(declarative data analysis)方法,這種方法一個重要組成部分就是能夠捕獲相關任務的有效語言,Datalog_Z(支持遞歸)是其首選,但是這種語言是不可判定的。我們通過引入limit Datalog_Z并對使用乘法進行約束,事實蘊涵在聚合中將變得conExpTime-完整,在數據復雜性中變得coNP完整。此外,額外的穩定性要求會導致復雜性分別下降到ExpTime和PTime。最后我們展示了穩定的Datalog_Z可以用來表達許多數據分析任務,所以我們的這些結果將為高級信息系統的開發提供一個堅實的基礎。
2)全局游戲策略(GGP)中基于約束的對稱檢測
下載地址:https://www.ijcai.org/proceedings/2017/0040.pdf

雷鋒網注:全局游戲策略,General Game Playing,是斯坦福大學組織的一個比賽。每年一搞。GGP是一個電腦系統可以靠描述在一定“運行時間”內獨自進行策略游戲。換句話說,它們不知道規則直到游戲開始。不像專門對應于一個游戲的,例如深藍,全局游戲策略不是依賴特定的算法來對應特定的游戲;它們必須令程序自己開發算法。全局游戲策略依賴于玩這個游戲的智能本身而不是那個設計這個程序的程序猿的腦子。
對稱檢測是減少游戲搜索樹的一種有前途的方法。在全局游戲策略(GGP)中,任何一種游戲都是由游戲描述語言(GDL)中的一組規則表示出來的,而對稱檢測的最佳方法則依賴于與游戲的GDL描述有關的規則圖。雖然這種基于規則的對稱檢測方法可以應用于各種樹搜索算法,但它們僅涵蓋在GDL描述中顯而易見的有限數量的對稱性。在本文中,我們開發了一種替代方法,這種對稱檢測方法是來自于利用約束編程技術的隨機游戲。GDL游戲中的極小值優化問題在此變成了隨機約束滿足問題(stochastic constraint satisfaction problem, SCSP),可以將其視為一級SCSP序列。Minimax對稱性由這些一級約束網絡的微結構的補集推斷出來。基于這種方法的理論分析,我們用實驗方法展示了多種游戲,最近的隨機約束求解器MAC-UCB,加上基于約束的對稱性檢測,顯著地優于標準的蒙特卡洛樹搜索算法+基于規則的對稱性檢測。這種約束驅動的方法也通過我們的隊員在最近一次GGP比賽中獲得的出色成績得到了驗證。
3)通過知識片段轉移的一般異構遷移距離度量學習
下載地址:https://www.ijcai.org/proceedings/2017/0341.pdf

雷鋒網注:遷移學習(Transfer learning) 顧名思義就是就是把已訓練好的模型參數遷移到新的模型來幫助新模型訓練數據集。考慮到大部分數據或任務是存在相關性的,所以通過遷移學習,我們可以將已經學到的參數分享給新模型,從而加快并優化模型的學習,不用像之前那樣從零開始。
遷移學習旨在利用其他相關任務的信息(遷移知識)來提高目標學習任務的表現。最近,遷移距離度規學習(transfer distance metric learning, TDML)引起了很大的興趣,但是大多數這類方法都假設源和目標學習任務的特征表示是一樣的。因此,他們不適用于數據來自異構域(特征空間、模態和事件語義)的應用程序。雖然現在有一些異構遷移學習(heterogeneous transfer learning,HTL)方法能夠處理這樣的問題,但它們在實際的程序中缺乏靈活性,且學習遷移也通常被限制為線形的。所以,我們在此開發了一種基于知識片段遷移策略的異構TDML(HTDML)框架,這種框架更為通用且更為靈活。在我們的HTDML中,可以使用任何(線形或非線性)的距離度規學習算法來學習預先準備好的源度規,然后從源度規中提取一組知識片段來幫助目標度規學習。此外,不管是線形還是非線性的距離度規都可以從目標域中學習。通過大量對場景分類和對象識別的實驗,證明了我們所提出的這種方法的優越性。
1)用于對象圖像重新渲染的標記解脫生成對抗網絡
下載地址:https://www.ijcai.org/proceedings/2017/0404.pdf

雷鋒網注:標記解脫生成對抗網絡(Tag Disentangled Generative Adversarial Networks,TDGAN)
在本文中,我們提出了一個原理性的標記解脫生成對抗網絡(TDGAN),用于通過指定多個場景屬性(如視點,照明,表情等)從單個圖像重新渲染出感興趣對象的新圖像。整個框架由解離網絡(Disentangled Network),生成網絡(Generative Network),標簽映射網絡(Tag Mapping Net)和辨別網絡(Discriminative Network)組成,它們基于完全/部分標記的給定圖像集(即監督/半監督設置)來聯合訓練。給定一張輸入圖像,解離網絡將提取解離的、可解釋的表示,隨后生成網絡將用它來生成圖像。為了提高解離表示的質量,于是在我們的框架中集成了標簽映射網絡來探測圖像與其標簽之間的一致性。此外,引入辨別網絡以實現用于生成更逼真圖像的對抗訓練策略。兩個有挑戰性的數據集實驗證明了這種框架在這些問題上的優良表現。
2)使用Stein效應的數據驅動隨機傅立葉特征
下載地址:http://static.ijcai.org/proceedings-2017/0207.pdf

雷鋒網注:Stein效應——假設有n個向量變量{x_j},這些變量是從一個p(p>3)維、平均值為μ的多變量正態分布中抽取出來的樣本。那么μ的最有效的估計值不是<x>(樣本平均值),而是由James和Stein在在1961年提出的估計量(James–Stein estimator或收縮估計量)。
大規模內核近似是機器學習研究中的一個重要問題。Rahimi等人使用隨機傅里葉特征的方法現在變得越來越受歡迎,其中核近似被視為通過蒙特卡羅或準蒙特卡羅積分的經驗平均估計。這種方法的局限性在于,所有的特征都獲得相等的權重(總和為1)。在本文中,我們提出了一種“Stein效應”的新的收縮估計器,這種估計器將為隨機特征提供一種數據驅動的加權策略,并在降低經驗風險方面提供了理論依據。我們進一步提出了一種有效的隨機算法用于所提方法的大規模應用。我們對六個基準數據集的實證結果表明,這種方法在內核近似和監督學習任務中都比典型方法表現得更好。
3)多任務CNN的個性化顯著性預測
下載地址:https://www.ijcai.org/proceedings/2017/0543.pdf

雷鋒網注:個性化顯著性預測,Personalized Saliency Prediction,PSP
顯著性檢測是計算機視覺中長期存在的問題。大量的工作都集中在探索不分性別、種族、年齡等差別的具有普遍性的顯著性模型。然而最近的心理學研究表明,個體在觀看包含多個顯著物體的同一個圖案時會表現出差異性。 在本文中我們首次表明,這種異質性對于可靠的顯著性預測是常見的和決定性的。 我們的研究還生成了首個個性化顯著圖(PSMs)的數據庫。我們基于不同參與者共享的通用顯著圖(USM)來為PSM建模,并采用多任務CNN框架來估計PSM和USM之間的差異。 綜合實驗表明,我們新的PSM模型和預測方案是有效且可靠的。
相關文章:
中科院計算所王永慶詳解IJCAI 17錄用論文:如何用注意力機制RNN進行信息傳播建模?|IJCAI 2017
IJCAI探營第一天 6個Tutorial 和13個Workshop為什么都“擠在” RMIT 80號樓?
雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。