遼中縣古典主義音樂學(xué)習(xí)組

IT必須注意隱藏的偏見并采取措施將傷害降至最低

只看樓主 收藏 回復(fù)
  • - -
樓主
Ads學(xué)堂

據(jù)Gartner Research稱,從現(xiàn)在起到2022年,由于數(shù)據(jù),算法或負(fù)責(zé)管理它們的團隊的偏見,85%的AI項目將產(chǎn)生錯誤的結(jié)果。此外,據(jù)蓋洛普民意調(diào)查組織報道,85%的美國人目前至少使用一種人工智能設(shè)備,程序或服務(wù)。

當(dāng)我從20世紀(jì)80年代后期開始使用AI系統(tǒng)時,這種偏見是我早已知道的。事實上,人們編程和教授人工智能系統(tǒng),因此那些人工智能系統(tǒng)往往會有教導(dǎo)他們的人的固有偏見。

使用云來托管昂貴的人工智能系統(tǒng)實際上會讓事情變得更糟,因為能夠負(fù)擔(dān)人工智能的公司數(shù)量已經(jīng)增加,但擁有可靠人工智能技能的人數(shù)并沒有以同樣的速度增長。因此,除了廣泛使用的人工智能工具之外的天生偏見之外,人才的缺乏也意味著知識庫如何構(gòu)建的更多錯誤將在一段時間內(nèi)變得普遍。

這些偏見是什么樣的?女性可能會發(fā)現(xiàn)她們正在獲得短桿。這是因為男性在人工智能開發(fā)和教學(xué)中占絕大部分,因此他們的意識或無意識偏見被編碼。例如,2015年的一項研究表明,在谷歌搜索“首席執(zhí)行官”的圖像中,只有11%的人是女性 - 盡管美國27%的首席執(zhí)行官是女性。(雖然很容易在谷歌上挑選,但它很快就糾正了這些問題。)

公司將不得不為這些內(nèi)置AI偏見付費。例如,他們需要吸收不向足夠的女性發(fā)放貸款的利潤,這些女性占市場的55%左右。而且,至少是壞業(yè)力,它會讓你在最壞的情況下進入合法的熱水。

關(guān)于這個還能做什么?現(xiàn)實情況是,有偏見的人工智能系統(tǒng)比例外更為常態(tài)。因此,IT需要認(rèn)識到存在或可能存在偏差,并采取措施限制損害。幸運的是,工具正在出現(xiàn),以幫助您發(fā)現(xiàn)基于AI的偏見。


友情鏈接