圖片一縮放,AI就把熊貓“認”成長臂猿了,這么傻的AI該如何保護?
在實際生活中,我們通常不會期望一個圖像在經過縮小后變成另外一個模樣完全不同的圖像,但這樣奇怪的事情可能會在人工智能領域發(fā)生。
來自德國 Braunschweig 技術大學的研究人員通過大量實驗已經證明,仔細修改數(shù)碼照片的像素值可以使照片在縮小尺寸后變成與之前完全不同的圖像,而這些對圖像的修改操作在人工智能算法領域的影響值得被廣泛關注。
圖像縮放技術在人工智能研究領域有著十分重要的地位,但是也存在一些挑戰(zhàn)。其主要的問題就是,惡意攻擊者可以利用這種圖像縮放技術,對用于人臉識別、目標檢測等計算機視覺方向的機器學習模型發(fā)起對抗性攻擊。
其中,對抗性機器學習是一種對數(shù)據(jù)進行操作的技術,它能在不被人類察覺的情況下改變人工智能算法的行為,而創(chuàng)建對抗性的機器學習示例是一個反復試驗的過程。創(chuàng)建對抗性示例包括對圖像像素進行細微的調整,再通過 AI 算法重新運行該圖像,以查看圖像置信度的變化。通過適當調整后,可以自動化創(chuàng)建一個噪音映射(noise map)來降低一個類的置信度,而提高另一個類的置信度。
在今年 Usenix 安全研討會上發(fā)表的一篇論文中,TU Braunschweig 的研究人員就針對機器學習系統(tǒng)的分級和防止對抗性圖像縮放攻擊進行了深入的回顧。他們的發(fā)現(xiàn)不斷提醒我們,AI 算法許多隱藏的方面和威脅還未被發(fā)現(xiàn),導致這些影響在我們的日常生活中正變得越來越突出。
對抗性圖像縮放
當在許多實例上訓練時,機器學習模型創(chuàng)建不同類之間相似性程度的數(shù)學表達。例如,如果你訓練一個機器學習算法來區(qū)分熊貓和長臂猿,它就會嘗試創(chuàng)建一個統(tǒng)計模型來區(qū)分新圖像中的像素是更像熊貓還是長臂猿。
實際上,這些人工智能算法學習區(qū)分不同物體的方式與人類視覺的工作方式不同。大多數(shù)對抗性攻擊利用這種差異,在改變機器學習系統(tǒng)輸出的同時,進行人類肉眼無法察覺的細微調整。
例如,當你讓一個人描述他是如何從圖片中發(fā)現(xiàn)熊貓的,他可能會尋找一些目標的身體特征,比如眼睛周圍的黑色毛發(fā),黑白相間的皮毛以及體型大小。他可能還會給出其他的背景,比如他希望看到熊貓在什么樣的棲息地,會擺出什么樣的動作姿勢等等。
而對于人工神經網絡來說,只要根據(jù)公式,通過計算機程序運行圖像的像素值提供正確的答案,就確信所看到的圖像確實是一只熊貓。換句話說,通過正確地調整圖像中的像素值,你也可以讓 AI 誤以為它看到的不是熊貓。
其中的細節(jié)在于,研究人員在圖像上添加了一層人眼幾乎覺察不到的噪聲。
當新的像素值通過人工神經網絡時,會產生從長臂猿的圖像中所期望的結果。而在人眼看來,左右兩幅圖像似乎是同一只熊貓。
研究人員在他們的論文中寫道:“盡管大量研究都在研究針對學習算法的攻擊,但目前為止,幾乎沒有人關注機器學習預處理中的漏洞!钡,當經典的對抗性攻擊利用人工智能算法內部工作的特性時,圖像縮放攻擊就集中在機器學習流水線的預處理階段。

最新活動更多
推薦專題
- 1 AI 眼鏡讓百萬 APP「集體失業(yè)」?
- 2 大廠紛紛入局,百度、阿里、字節(jié)搶奪Agent話語權
- 3 深度報告|中國AI產業(yè)正在崛起成全球力量,市場潛力和關鍵挑戰(zhàn)有哪些?
- 4 上海跑出80億超級獨角獸:獲上市公司戰(zhàn)投,干人形機器人
- 5 一文看懂視覺語言動作模型(VLA)及其應用
- 6 國家數(shù)據(jù)局局長劉烈宏調研格創(chuàng)東智
- 7 下一代入口之戰(zhàn):大廠為何紛紛押注智能體?
- 8 百億AI芯片訂單,瘋狂傾銷中東?
- 9 Robotaxi新消息密集釋放,量產元年誰在領跑?
- 10 格斗大賽出圈!人形機器人致命短板曝光:頭腦過于簡單