KDD 2020最佳論文獎出爐!谷歌、北航獲獎
最佳學(xué)生論文獎
獲獎?wù)撐模骸禩IPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework for Deep Learning with Anonymized Intermediate Representations》
簡介:深度學(xué)習(xí)的成功部分得益于各種大規(guī)模數(shù)據(jù)集的可用性。這些數(shù)據(jù)集通常來自個人用戶,并且包含諸如性別、年齡等隱私信息。用戶對數(shù)據(jù)共享的隱私擔(dān)憂阻礙了眾包數(shù)據(jù)集的生成或使用,并導(dǎo)致對新的深度學(xué)習(xí)應(yīng)用程序的訓(xùn)練數(shù)據(jù)的渴求。一個自然的解決方案是在用戶端對原始數(shù)據(jù)進行預(yù)處理以提取特征,然后只將提取的特征發(fā)送到數(shù)據(jù)采集器。不幸的是,攻擊者仍然可以利用這些提取的特征訓(xùn)練對抗分類器來推斷私有屬性。一些現(xiàn)有技術(shù)利用博弈論來保護私有屬性。然而,這些防御措施是針對已知的初級學(xué)習(xí)任務(wù)設(shè)計的,提取的特征對于未知的學(xué)習(xí)任務(wù)效果不佳。
為了解決學(xué)習(xí)任務(wù)未知或變化的情況,作者提出了一種基于匿名中間表示的任務(wù)無關(guān)隱私的數(shù)據(jù)眾包框架 TIPRDC。該框架的目標(biāo)是學(xué)習(xí)一個特征抽取器,它可以隱藏中間表征中的隱私信息,同時最大限度地保留原始數(shù)據(jù)中嵌入的原始信息,供數(shù)據(jù)采集器完成未知的學(xué)習(xí)任務(wù)。
作者設(shè)計了一種混合訓(xùn)練方法來學(xué)習(xí)匿名中間表示:(1)針對特征隱藏隱私信息的對抗性訓(xùn)練過程;(2)使用基于神經(jīng)網(wǎng)絡(luò)的互信息估計器最大限度地保留原始信息。他們廣泛地評估了 TIPRDC,并將其與使用兩個圖像數(shù)據(jù)集和一個文本數(shù)據(jù)集的現(xiàn)有方法進行了比較他們的結(jié)果表明,TIPRDC大大優(yōu)于其他現(xiàn)有的方法。本文的工作提出了第一個任務(wù)獨立隱私尊重數(shù)據(jù)眾包框架。
Ang Li
論文第一作者 Ang Li 是杜克大學(xué)電子和計算機工程系的一名在讀博士,導(dǎo)師為陳怡然和 Hai "Helen" Li 教授。Ang Li 曾在2013 年獲得北京大學(xué)軟件工程碩士學(xué)位,2018 年獲得阿肯色大學(xué)計算機科學(xué)博士學(xué)位。
最佳論文亞軍
來自弗吉尼亞大學(xué)的 Mengdi Huai、Jianhui Sun、Renqin Cai、Aidong Zhang 和來自紐約州立大學(xué)布法羅分校的 Liuyi Yao 獲得了最佳論文獎的亞軍,獲獎?wù)撐氖恰禡alicious Attacks against Deep Reinforcement Learning Interpretations》。
簡介:近年來,深度強化學(xué)習(xí)(DRL)得到了迅速的發(fā)展,它是深度學(xué)習(xí)和強化學(xué)習(xí)(RL)相結(jié)合的產(chǎn)物。然而,深度神經(jīng)網(wǎng)絡(luò)的采用使得DRL決策過程不透明,缺乏透明度。基于此,人們提出了各種 DRL 解釋方法。然而,這些解釋方法隱含著一個假設(shè),即它們是在可靠和安全的環(huán)境中執(zhí)行的。在實踐中,順序 agent-環(huán)境交互將 DRL 算法及其相應(yīng)的下游解釋暴露在額外的對抗性風(fēng)險中。盡管惡意攻擊盛行,但目前還沒有研究針對 DRL 解釋的惡意攻擊的可能性和可行性。
為了彌補這一差距,本文研究了 DRL 解釋方法的脆弱性。具體來說,作者首先介紹了針對DRL解釋的對抗性攻擊的研究,并提出了一個優(yōu)化框架,在此基礎(chǔ)上可以得到最優(yōu)的對抗攻擊策略。此外,作者還研究了 DRL 解釋方法對模型中毒攻擊的脆弱性,并提出了一個算法框架來嚴(yán)格描述所提出的模型中毒攻擊。最后,作者進行了理論分析和大量實驗,以驗證所提出的針對 DRL 解釋的惡意攻擊的有效性。
這篇論文將深度學(xué)習(xí)和強化學(xué)習(xí)結(jié)合(DRL),并證明了其在眾多序列決策問題中動態(tài)建模的能力。為了提高模型的透明度,已經(jīng)有研究提出了針對 DRL 的各種解釋方法。但是,這些 DRL 解釋方法隱式地假定它們是在可靠和安全的環(huán)境中執(zhí)行的,但在實際應(yīng)用中并非如此。弗吉尼亞大學(xué)的研究團隊調(diào)查了一些 DRL 解釋方法在惡意環(huán)境中的漏洞。具體而言,他們提出了第一個針對 DRL 解釋的對抗性攻擊的研究,提出了一個優(yōu)化框架來解決所研究的對抗性攻擊問題。
Mengdi Huai
Mengdi Huai 是弗吉尼亞大學(xué)的博士生。她的研究興趣主要是數(shù)據(jù)挖掘和機器學(xué)習(xí)。特別是,我對可解釋機器學(xué)習(xí)、對抗性機器學(xué)習(xí)、隱私保護數(shù)據(jù)挖掘、深度強化學(xué)習(xí)、元學(xué)習(xí)、成對學(xué)習(xí)和醫(yī)療數(shù)據(jù)挖掘感興趣。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
-
10 月之暗面,絕地反擊
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 “AI寒武紀(jì)”爆發(fā)至今,五類新物種登上歷史舞臺
- 4 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機器人東風(fēng)翻身?