成人av在线资源一区,亚洲av日韩av一区,欧美丰满熟妇乱XXXXX图片,狠狠做五月深爱婷婷伊人,桔子av一区二区三区,四虎国产精品永久在线网址,国产尤物精品人妻在线,中文字幕av一区二区三区欲色
    您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
    此為臨時鏈接,僅用于文章預覽,將在時失效
    人工智能學術 正文
    發私信給我在思考中
    發送

    0

    Facebook和NUS、MIT等高校聯合推出3000小時的第一視角視頻數據集Ego4D

    本文作者: 我在思考中 2021-10-15 18:37
    導語:Ego4D收集的第一視角數據集,將在不遠的將來帶給我們前所未有的體驗。

    Facebook和NUS、MIT等高校聯合推出3000小時的第一視角視頻數據集Ego4D

    1. 左:同一場景在第一視角和第三視角下;右:第一視角視頻采集設備

    從第三視角看世界,和從第一視角和世界互動,有顯著差異。比如說,看別人坐過山車和自己坐過山車,體驗完全不同。

    本文摘要翻譯自NUS新聞:https://news.nus.edu.sg/nus-facebook-world-class-universities-teach-ai-to-understand-the-world-through-our-eyes/

    為了開啟下一波AI技術浪潮,為增強現實 (AR) 和智能機器人賦能,AI需要從現在的第三視角轉換成第一視角的全新范式。這是因為在第一視角的世界中,常有實時的運動變化,手與物體的交互,多種感官的信息融合。

    為此,Facebook聯合新加坡國立大學 (NUS) 、MIT等世界各地的13所大學組成了一個學術聯盟,致力于開展一個長期項目——Ego4D(第一視角的 4D 實時感知 )。

    Ego4D鏈接:https://ego4d-data.org/

    來自NUS研究團隊的Principal Investigator(主要負責人),助理教授Mike壽政說:“在過去十年里,我們見證了AI在理解圖像方面的變革,這是建立在 ImageNet 等數據集所奠定的基礎上的。類似的,我相信我們的 Ego4D 數據集,將為第一視角的視頻研究打好基礎,從而推動智能感知在 AR 和機器人方面的快速發展。”



    1

    目前最大的第一視角視頻數據集


    Facebook和NUS、MIT等高校聯合推出3000小時的第一視角視頻數據集Ego4D 

    2. Ego4D 是目前最大的第一視角的日常活動視頻數據集

    大多數AI系統需要大量數據進行訓練,現有的大規模視頻數據集通常以第三視角為主;而現有的第一視角數據集在規模、多樣性和復雜性上都很有限。因此,該學術聯盟推出了 Ego4D 數據集:

    ● 大規模:研究人員分發頭戴式相機或者AR眼鏡給數據采集者,從而收集了累計3,000 小時的、日常活動中的第一視角視頻;

    ● In-the-wild:包含了人們的日常生活的數百種不同活動,記錄了相機佩戴者在關注什么,用手和面前的物體做什么,以及他們是如何與其他人互動的;

    ● 多樣性:涵蓋全球 73 個地點、9個國家,700 多名不同背景、種族、職業、年齡的數據采集者,囊括不同的文化和地理差異;

    ● 抽好的特征:所有視頻,均有預先抽好的SlowFast特征,方便大家進行實驗;

    ● 授權公開:這些數據將于 2021 年 11 月公開,視頻中的所有可見人臉和可聽懂的語音均已獲得參與者的授權。



    2

    新任務,新技術
    Facebook和NUS、MIT等高校聯合推出3000小時的第一視角視頻數據集Ego4D 

    3. 通過采集的第一視角視頻數據,Ego4D團隊可以開發AI模型來解決新的任務

    與數據收集同樣重要的是,定義正確的任務,進行嚴格的人工標注,來引導新技術的研發。

    為此,Ego4D 學術聯盟聯合構建了五個全新的、具有挑戰性的任務:

    (1) 情景記憶:什么時候發生了什么?如圖3A, 告訴我錢包最近一次出現的位置。

    (2) 預測未來:我接下來要做什么?如圖3B, 他即將跳起來抓住單杠。

    (3) 手與物體交互:我在做什么以及如何做?如圖3C, 告訴我下一步的操作。

    (4) 視覺+聽覺:多人場景下,誰在什么時候說了什么?如圖3D, 生成會議內容的總結。

    (5) 社交交互:人與人如何交互?如圖3D, 我注視著他,而他正在對我說話。

    “我們NUS研究團隊主要為其中兩個關鍵任務開發模型:一是,利用聲音和視覺線索幫助AI識別“誰在什么時候說了什么;二是,開發具有社交智能的 AI,檢測當下誰在對誰說話,誰在關注誰。”同樣來自NUS團隊的Co-PI李海洲教授如是說。

    有第一視角感知能力的AI,將賦能AR眼鏡、智能機器人等等同樣是第一視角的設備,將在我們的日常生活和工作中發揮更大作用。想象一下:在對著新菜譜做菜時,不必再來來回回地看菜譜,你的AR 眼鏡就可以實時地同步指導你執行每個步驟;對于有阿爾茨海默癥等健康問題的人,AR眼鏡可以幫助他們回憶錢包放在哪里了。

    Ego4D數據集只是起點,研發第一視角AI技術,進而賦能智能機器人、AR眼鏡,將在不遠的將來,改變我們的生活、工作、娛樂方式,帶給我們前所未有的、虛擬與現實交融的體驗。

    更多技術詳情請見Arxiv論文:https://arxiv.org/abs/2110.07058
    附:
    Ego4D 計劃的學術聯盟包括以下主要負責人:CV Jawahar (印度國際信息科技研究院,海得拉巴), David Crandall (印第安納大學), Dima Damen (布里斯托大學), Giovanni Maria Farinella (卡塔尼亞大學), Kristen Grauman (Facebook AI), Bernard Ghanem (阿卜杜拉國王科技大學), Jitendra Malik (Facebook AI), Kris Kitani (卡內基梅隆大學和卡內基梅隆大學非洲校區), Aude Oliva (麻省理工學院), Hyun Soo Park (明尼蘇達大學), Jim Rehg (佐治亞理工學院), Yoichi Sato (東京大學), Jianbo Shi (賓夕法尼亞大學), Antonio Torralba (麻省理工學院), Mike Zheng Shou (新加坡國立大學), and Pablo Arbelaez (哥倫比亞安第斯大學)。

    Facebook和NUS、MIT等高校聯合推出3000小時的第一視角視頻數據集Ego4D

    雷鋒網


    雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知

    Facebook和NUS、MIT等高校聯合推出3000小時的第一視角視頻數據集Ego4D

    分享:
    相關文章
    當月熱門文章
    最新文章
    請填寫申請人資料
    姓名
    電話
    郵箱
    微信號
    作品鏈接
    個人簡介
    為了您的賬戶安全,請驗證郵箱
    您的郵箱還未驗證,完成可獲20積分喲!
    請驗證您的郵箱
    立即驗證
    完善賬號信息
    您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
    立即設置 以后再說