(相關(guān)資料圖)
【CNMO新聞】最近,ChatGPT的爆火又讓AI(人工智能)的話題擺在了大家的面前。關(guān)于AI技術(shù)的現(xiàn)狀和前景,不少科技圈大佬都發(fā)表了自己的看法。不過,看起來無所不能的AI,似乎已經(jīng)在某些方面開始走彎路了。據(jù)CNMO了解,根據(jù)模型測試,AI已經(jīng)學會了性別歧視,而且還是很常見的“重男輕女”。
AI
據(jù)媒體報道,清華大學交叉信息研究院助理教授于洋,曾在去年帶領(lǐng)團隊做了一個針對“預測某種職業(yè)為何種性別”的AI模型性別歧視水平評估項目。測試模型包含GPT-2,即ChatGPT的前身。結(jié)果顯示,GPT-2有70.59%的概率將教師預測為男性,將醫(yī)生預測為男性的概率則為64.03%。
ChatGPT
不僅如此,在本項目中,團隊測試的AI模型還使用了谷歌開發(fā)的bert和Facebook開發(fā)的roberta。讓人意外的是,所有受測AI對于測試職業(yè)的性別預判,結(jié)果傾向都為男性。于洋對此表示:“它(AI)會重男輕女,愛白欺黑(即種族歧視)”。類似的案例在2015年也有出現(xiàn),當時Google Photos應(yīng)用誤把兩名黑人標注為“大猩猩”,隨后谷歌立即道歉,并表示將調(diào)整算法以修復問題。
CNMO了解到,早在2019年,聯(lián)合國教科文組織便發(fā)表了一份題為《如果我能,我會臉紅》的報告,指出當時大多數(shù)AI語音助手存在性別偏見。
綜合來看,關(guān)于AI算法中含有性別、種族歧視的案例并不鮮見,但要消除這些偏見并非易事。就如微軟紐約研究院的高級研究員Hanna Wallach此前所說:只要機器學習的程序是通過社會中已存在的數(shù)據(jù)進行訓練的,那么只要這個社會還存在偏見,機器學習也就會重現(xiàn)這些偏見。
網(wǎng)站首頁 |網(wǎng)站簡介 | 關(guān)于我們 | 廣告業(yè)務(wù) | 投稿信箱
Copyright © 2000-2020 hngelin.com All Rights Reserved.
中國網(wǎng)絡(luò)消費網(wǎng) 版權(quán)所有 未經(jīng)書面授權(quán) 不得復制或建立鏡像
聯(lián)系郵箱:920 891 263@qq.com
汕头市| 雷波县| 密云县| 共和县| 丹寨县| 凤山县| 安国市| 双流县| 栾城县| 阜康市| 海林市| 龙川县| 子洲县| 中阳县| 舟山市| 永新县| 厦门市| 湖北省| 崇义县| 南昌县| 临清市| 上杭县| 浮山县| 潮州市| 赤壁市| 绥棱县| 库尔勒市| 陆川县| 开化县| 正安县| 山东省| 芮城县| 都江堰市| 哈尔滨市| 菏泽市| 普安县| 乌恰县| 土默特右旗| 始兴县| 晴隆县| 安陆市|