訂閱
糾錯
加入自媒體

KDD 2020最佳論文獎出爐!谷歌、北航獲獎

最佳學(xué)生論文獎

獲獎?wù)撐模骸禩IPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework for Deep Learning with Anonymized Intermediate Representations》

簡介:深度學(xué)習(xí)的成功部分得益于各種大規(guī)模數(shù)據(jù)集的可用性。這些數(shù)據(jù)集通常來自個人用戶,并且包含諸如性別、年齡等隱私信息。用戶對數(shù)據(jù)共享的隱私擔(dān)憂阻礙了眾包數(shù)據(jù)集的生成或使用,并導(dǎo)致對新的深度學(xué)習(xí)應(yīng)用程序的訓(xùn)練數(shù)據(jù)的渴求。一個自然的解決方案是在用戶端對原始數(shù)據(jù)進行預(yù)處理以提取特征,然后只將提取的特征發(fā)送到數(shù)據(jù)采集器。不幸的是,攻擊者仍然可以利用這些提取的特征訓(xùn)練對抗分類器來推斷私有屬性。一些現(xiàn)有技術(shù)利用博弈論來保護私有屬性。然而,這些防御措施是針對已知的初級學(xué)習(xí)任務(wù)設(shè)計的,提取的特征對于未知的學(xué)習(xí)任務(wù)效果不佳。

為了解決學(xué)習(xí)任務(wù)未知或變化的情況,作者提出了一種基于匿名中間表示的任務(wù)無關(guān)隱私的數(shù)據(jù)眾包框架 TIPRDC。該框架的目標(biāo)是學(xué)習(xí)一個特征抽取器,它可以隱藏中間表征中的隱私信息,同時最大限度地保留原始數(shù)據(jù)中嵌入的原始信息,供數(shù)據(jù)采集器完成未知的學(xué)習(xí)任務(wù)。

作者設(shè)計了一種混合訓(xùn)練方法來學(xué)習(xí)匿名中間表示:(1)針對特征隱藏隱私信息的對抗性訓(xùn)練過程;(2)使用基于神經(jīng)網(wǎng)絡(luò)的互信息估計器最大限度地保留原始信息。他們廣泛地評估了 TIPRDC,并將其與使用兩個圖像數(shù)據(jù)集和一個文本數(shù)據(jù)集的現(xiàn)有方法進行了比較他們的結(jié)果表明,TIPRDC大大優(yōu)于其他現(xiàn)有的方法。本文的工作提出了第一個任務(wù)獨立隱私尊重數(shù)據(jù)眾包框架。

Ang Li

論文第一作者 Ang Li 是杜克大學(xué)電子和計算機工程系的一名在讀博士,導(dǎo)師為陳怡然和 Hai "Helen" Li 教授。Ang Li 曾在2013 年獲得北京大學(xué)軟件工程碩士學(xué)位,2018 年獲得阿肯色大學(xué)計算機科學(xué)博士學(xué)位。

最佳論文亞軍

來自弗吉尼亞大學(xué)的 Mengdi Huai、Jianhui Sun、Renqin Cai、Aidong Zhang 和來自紐約州立大學(xué)布法羅分校的 Liuyi Yao 獲得了最佳論文獎的亞軍,獲獎?wù)撐氖恰禡alicious Attacks against Deep Reinforcement Learning Interpretations》。

簡介:近年來,深度強化學(xué)習(xí)(DRL)得到了迅速的發(fā)展,它是深度學(xué)習(xí)和強化學(xué)習(xí)(RL)相結(jié)合的產(chǎn)物。然而,深度神經(jīng)網(wǎng)絡(luò)的采用使得DRL決策過程不透明,缺乏透明度。基于此,人們提出了各種 DRL 解釋方法。然而,這些解釋方法隱含著一個假設(shè),即它們是在可靠和安全的環(huán)境中執(zhí)行的。在實踐中,順序 agent-環(huán)境交互將 DRL 算法及其相應(yīng)的下游解釋暴露在額外的對抗性風(fēng)險中。盡管惡意攻擊盛行,但目前還沒有研究針對 DRL  解釋的惡意攻擊的可能性和可行性。

為了彌補這一差距,本文研究了 DRL 解釋方法的脆弱性。具體來說,作者首先介紹了針對DRL解釋的對抗性攻擊的研究,并提出了一個優(yōu)化框架,在此基礎(chǔ)上可以得到最優(yōu)的對抗攻擊策略。此外,作者還研究了 DRL 解釋方法對模型中毒攻擊的脆弱性,并提出了一個算法框架來嚴(yán)格描述所提出的模型中毒攻擊。最后,作者進行了理論分析和大量實驗,以驗證所提出的針對 DRL 解釋的惡意攻擊的有效性。

這篇論文將深度學(xué)習(xí)和強化學(xué)習(xí)結(jié)合(DRL),并證明了其在眾多序列決策問題中動態(tài)建模的能力。為了提高模型的透明度,已經(jīng)有研究提出了針對 DRL 的各種解釋方法。但是,這些 DRL 解釋方法隱式地假定它們是在可靠和安全的環(huán)境中執(zhí)行的,但在實際應(yīng)用中并非如此。弗吉尼亞大學(xué)的研究團隊調(diào)查了一些 DRL 解釋方法在惡意環(huán)境中的漏洞。具體而言,他們提出了第一個針對 DRL 解釋的對抗性攻擊的研究,提出了一個優(yōu)化框架來解決所研究的對抗性攻擊問題。

Mengdi Huai

Mengdi Huai 是弗吉尼亞大學(xué)的博士生。她的研究興趣主要是數(shù)據(jù)挖掘和機器學(xué)習(xí)。特別是,我對可解釋機器學(xué)習(xí)、對抗性機器學(xué)習(xí)、隱私保護數(shù)據(jù)挖掘、深度強化學(xué)習(xí)、元學(xué)習(xí)、成對學(xué)習(xí)和醫(yī)療數(shù)據(jù)挖掘感興趣。

<上一頁  1  2  3  下一頁>  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號