0
| 本文作者: 李勤 | 2018-03-02 11:57 |
頂尖的網絡安全研究人員到底在關注什么哪些研究和安全事件?本期,雷鋒網邀請了CGC 機器人競賽項目 UGA Disekt 的創始人李康從 2 月網絡安全領域的大事件及報告中摘選若干信息進行相關閱讀推薦。
推薦人簡介:李康目前就職于美國喬治亞大學,擔任計算機系教授,同時是喬治亞安全與隱私學院的負責人,他關注的研究方向包括系統與網絡安全,研究成果發表在多個學術會議上,包括 IEEE S&P,ACM CCS,NDSS 等。另,李康曾受邀在 BlackHat USA 和 ShmooCon 等會議上多次發表演講。李康具有十幾年的 CTF 安全攻防對抗比賽和組織經歷,是多只 CTF 戰隊的創始人,包括 Disekt,SecDawgs,Boyd306戰隊,同時,他也是清華藍蓮花(Blue-Lotus)戰隊的啟蒙導師和 XCTF 聯賽的聯合發起人。

推薦閱讀:Risk of Trusting the Physics of Sensors.
鏈接:https://cacm.acm.org/magazines/2018/2/224627-risks-of-trusting-the-physics-of-sensors/fulltext
李康點評:傳感器的安全風險在過去被?家?泛忽視。隨著 IoT 萬物互聯的發展,?量傳感器在被?泛部署。這些設備的可信度直接影響各種 IoT 和智能應?的安全性。 最近對智能?箱的海豚音攻擊,對特斯拉?線傳感器的致盲攻擊,對?機指紋傳感器的欺騙攻擊,都是傳感器安全的相關例?。
Kevin Fu 和徐?淵教授在 Communications of the ACM 2018年??期刊上的這篇?章是對傳感器安全的?個精彩總結。
推薦閱讀:Feature Squeezing: Detecting Adversarial Examples in Deep Neural Networks
鏈接:https://evademl.org/docs/featuresqueezing.pdf
項?鏈接: Evade ML https://evademl.org/
李康點評:對抗性機器學習(adversarial learning)是?前深度學習???常熱的安全問題。 對各種深度學習圖?分類的對抗樣本攻擊層出不窮。過去有著名的?熊貓圖片通過干擾變成長臂猿,近期?有關于 ICLR 多個防御?段被證明效果不佳。
來?弗吉尼亞?學的許偉林最新的?作從特征縮減這個?度來提?深度學習系統的安全性。由于深度學習模型?般采??監督模式,不直接設定采?哪些特征,所以在分類時往往使?了眾多并不必須的特征。
這些特征導致攻擊者更容易找到對抗樣本。特征縮減的?的是減少深度學習系統中所使?的特征,從?增強深度學習抵御對抗樣本的能?。這個?作即將會在 2018 年 2 ?在圣地亞哥舉?的 NDSS ?會上發布。
推薦閱讀:https://www.nccgroup.trust/globalassets/newsroom/uk/events/2018/02/reconbrx2018-robinhood-vs-cisco-asa.pdf
李康點評: 2018 年 1 ?,思科 VPN 爆出遠程代碼執行和拒絕服務攻擊的?危漏洞,影響眾多使?思科 VPN 的企業。 NCC Group 的這個報告詳細介紹了該漏洞的發現?法、Fuzz環境、漏洞成因以及攻擊步驟。 報告有?常詳細的分析內容,強力推薦給對漏洞發現和利?有興趣的同學。
雷鋒網其他相關文章:BAT3 在 IoT 安全上湊齊了,我們問了問李康和楊卿 360 要怎么搞。
想看更多網絡安全報道?歡迎關注雷鋒網旗下微信公眾號“宅客頻道”(ID:letshome)。
雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。