訂閱
糾錯
加入自媒體

IBM建立百萬人臉數(shù)據(jù)希望解決AI偏見

科技中立,但人制造出來的 AI 卻可能帶有偏見或歧視。AI 偏見情況像是性別歧視、種族歧視,例如面部偵測算法在識別白人時的準確率比識別黑人高許多,男性跟女性類別也存在類似問題,讓軟件識別犯罪嫌犯人選、企業(yè)挑選求職者時,也曾引發(fā)歧視問題。

為了減少這方面的偏差,IBM研究院打造了一套更加多樣化的“百萬人臉數(shù)據(jù)集”。近年來,隨著智能手機的普及,面部識別已經(jīng)在許多領域得到了廣泛的運用。然而在一些測試中,某些看似很優(yōu)秀的 AI,竟然也會敗下陣來。

憑借全新的“百萬多樣性人臉數(shù)據(jù)集”,AI 開發(fā)者將能夠充分考慮到多樣性的面部特征(DiF)。

為使面部識別能夠按照要求執(zhí)行(既公平又準確),訓練用的數(shù)據(jù),必須提供足夠的平衡和覆蓋。

它應該足夠大、且多樣化,以便了解更多類型的面部固有差異。圖像必須反映我們在世界中看到的面部特征的多樣性。

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號