訂閱
糾錯
加入自媒體

八卦的AI,可知道你是直還是彎

2018-07-24 14:54
智能相對論
關注

又或者是這樣:

八卦的AI,可知道你是直還是彎

而這一切,基于研究者們訓練了的圖推理模型(Graph Reasoning Model,GRM),由該模型結合門控圖神經(jīng)網(wǎng)絡(Gated Graph Neural Network,GGNN)對社會關系進行處理。

基于此,AI能夠識別圖片中三者之間的關系,根據(jù)圖上人物區(qū)域的特征來初始化關系節(jié)點,然后用預先訓練的Faster-RCNN探測器搜索圖像中的語義對象,并提取其特征,初始化相應的對象節(jié)點;通過圖傳播節(jié)點消息以充分探索人與上下文對象的交互,并采用圖注意機制自適應地選擇信息量最大的節(jié)點,以通過測量每個對象節(jié)點的重要性來促進識別。

但是,在實際表現(xiàn)中,AI識別并未盡如人意。如警方在歐冠決賽采用AI面部識別匹配潛在犯罪圖像,其錯誤率高達92%,而在人物關系和性取向識別領域,其應用表現(xiàn)也并不優(yōu)秀。

性取向被識別后,AI倫理的邊界又在哪里?

《紐約客》曾有這樣一期封面:機器人已經(jīng)成為了地球的主角,人類只能蹲在地上接受機器人的施舍。每一個新技術都會引發(fā)大家的擔心,但以往更多是人的體力的延伸,而如若是腦力的延伸、人類隱私的延伸,這種擔憂將會更加嚴重。智能相對論分析師柯鳴認為,性取向識別前,AI還需要解決倫理上的幾大問題。

1.僅靠面部識別太草率

《人格與社會心理學》雜志曾對斯坦福的這個研究,指出深層神經(jīng)網(wǎng)絡比人類在通過圖像檢測性取向判斷中更準確,研究涉及建立一種計算機模型,以識別研究人員將其稱作為同性戀者的“非典型”特征。

在摘要中,研究人員寫道,“我們認為人們的臉部特征包涵了更多人腦所無法判斷的性取向特征。根據(jù)一張圖片,系統(tǒng)(classifier)可以以81%的準確率區(qū)分男性同性戀者,74%的準確率區(qū)分女性同性戀者,這比人腦可以完成的判斷準確率都要高!

但是,在距離應用過程中,僅以面部構造識別似乎并沒有那么“靠譜”。技術無法識別人們的性取向,所謂的技術未來只是識別出網(wǎng)絡中同性戀者頭像存在相似的某種模式。

而且,此研究存在的一個問題在于,研究的機制是通過兩張圖片二選一其中最讓機器覺得“更可能是同性戀”的照片,這種對比判斷其實是從 50% 的隨機幾率開始計算的,因此與單純對一張圖的分析有著很大的區(qū)別。

這其實就造成了一個問題,在真正人類識別的時候,其準確率有多少,而這種非此即彼的識別方式,其評判標準仍有許多地方需要商榷。

2.算法歧視依然是個“大問題”

算法歧視,一直是人工智能應用過程中的一大問題,以搜索為例,在谷歌上搜索“CEO”,搜索結果中沒有一個是女性,也沒有一個是亞洲人,這是一種潛在的偏見。

顯然,人工智能也并不是真的純“人工”。 機器學習的方式和人類學習一樣,從文化中提取并吸收社會結構的常態(tài),因此其也會再建、擴大并且延續(xù)我們?nèi)祟悶樗鼈冊O下的道路,而這些道路,一直都將反映現(xiàn)存的社會常態(tài)。

而無論是根據(jù)面容來判斷一個人是否誠實,或是判斷他的性取向,這些算法都是基于社會原有生物本質(zhì)主義(biological essentialism),這是一種深信人的性取向等本質(zhì)是根植于人身體的理論。畢竟,一個AI工具通過數(shù)據(jù)積累和算法模型可以通過照片判斷一個人的性取向,系統(tǒng)準確率高達91%,這其中所帶來的性取向偏見是不能低估的。

今年年初,來自巴斯大學和普林斯頓大學的計算機科學家就曾用類似IAT(內(nèi)隱聯(lián)想測驗)的聯(lián)想類測試來檢測算法的潛在傾向性,并發(fā)現(xiàn)即使算法也會對種族和性別帶有偏見。甚至,連Google 翻譯也難逃偏見,算法“發(fā)現(xiàn)”并“學習”了社會約定俗成的偏見。當在特定語言環(huán)境中,一些原本是中性的名詞,如果上下文具有特定形容詞(中性),它會將中性詞轉而翻譯為“他”或“她”。

如今的人工智能還基本局限于完成指定任務,而有時候許多實際應用內(nèi)容不是非此即彼的,在許多抉擇中,人類選擇依然存在道德困境,如若將決定權交與算法,其存在的詬病之處更是不言而喻。

3.數(shù)據(jù)使用,掌握“火候”是關鍵

如果說讓AI野蠻生長是為了解決人們工作效率的問題,那么當人工智能逐漸落地于各行業(yè)后,“體面”已經(jīng)逐漸取代效率,成為AI應用的關鍵詞。

當然,如果企業(yè)能夠全方位的保護用戶隱私,這既有著技術上難度,也缺乏一定商業(yè)驅動力,因此,目前來看,如果平衡兩者之間的關系才是關鍵。

實際上,在牽制巨頭破壞用戶隱私方面,歐洲國家已經(jīng)走得很遠,這體現(xiàn)在這些年他們與Facebook、Google等巨頭對抗的一個個集體訴訟案例中:

2014年8月,F(xiàn)acebook在歐洲遭6萬人起訴,一位奧地利隱私保護人士發(fā)起了一項針對Facebook歐洲子公司的大范圍集體訴訟,指控Facebook違背了歐洲數(shù)據(jù)保護法律,F(xiàn)B被質(zhì)疑參與了美國國家安全局的“棱鏡”項目,收集公共互聯(lián)網(wǎng)使用的個人數(shù)據(jù)。

今年1月初,德國政府一家數(shù)據(jù)保護機構周三表示,該機構已針對Facebook采取法律行動,指控Facebook非法讀取并保存不使用該社交網(wǎng)站的用戶的個人信息。德國漢堡數(shù)據(jù)保護辦公室專員表示,由于Facebook在未經(jīng)許可的情況下收集并保存不使用該社交網(wǎng)站的用戶個人信息,這有可能導致Facebook被罰款數(shù)萬歐元。

顯然,目前用戶對于自身數(shù)據(jù)的保護意識正在不斷加強,其在不斷保護自身數(shù)據(jù)的同時也加強隱私防范。畢竟,AI識別性取向目前只是研究而沒有落地產(chǎn)品。

而且,從網(wǎng)站上扒圖并不是什么技術活,讓機器做選擇題的概念,也像極了十多年前哈佛某個宅男做的校園選美網(wǎng)站。其中滋味,冷暖自知吧。

智能相對論:深挖人工智能這口井,評出咸淡,講出黑白,道出深淺。重點關注領域:AI+醫(yī)療、機器人、智能駕駛、AI+硬件、物聯(lián)網(wǎng)、AI+金融、AI+安全、AR/VR、開發(fā)者以及背后的芯片、算法、人機交互等。(智能相對論 / 柯鳴

<上一頁  1  2  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號