精品人妻伦一区二区三区久久,狼友av永久网站免费极品在线,欧美日韩黄色大片,香港三日本8a三级少妇三级99

BM宣布退出人臉識別業(yè)務(wù):人臉識別和公眾隱私,種族歧視等的矛盾

來源:譽(yù)澄智能 2020/6/9 21:48:32??????點(diǎn)擊:

美國人越來越反感人臉識別了。

具體來說,黑人 George Floyd 之死,也讓美國社會繼續(xù)反思警察執(zhí)法問題,并由此引申到警察在執(zhí)法中所采用的技術(shù)——其中最被嚴(yán)重詬病的,就是人臉識別。

人臉識別再次成為眾矢之的的情況下,科技行業(yè)也有了一些動靜。

南都訊 記者馮群星 非裔美國人喬治·弗洛伊德(George Floyd)之死正在引發(fā)一系列的連鎖反應(yīng)。當(dāng)?shù)貢r間6月8日,IBM官網(wǎng)公布了首席執(zhí)行官阿里德·克里希納(Arvind Krishna)致美國國會的一封信,宣布不再提供通用的人臉識別或分析軟件。另據(jù)外媒報道,IBM表示也不會再繼續(xù)開發(fā)或者研究相關(guān)技術(shù)。

當(dāng)?shù)貢r間5月25日,在美國明尼蘇達(dá)州明尼阿波利斯鮑德霍恩社區(qū),非裔美國人喬治·弗洛伊德被白人警察德里克·肖萬(Derek Michael Chauvin)逮捕。肖萬單膝跪在弗洛伊德脖頸處超過8分鐘,弗洛伊德被跪壓期間失去知覺并在急救室被宣告死亡。這一事件讓美國社會長期存在的種族歧視問題再次浮上水面,引發(fā)了美國大規(guī)模的游行和示威活動。

克里希納在信中表示,喬治·弗洛伊德及多位非裔美國人的死亡提醒美國人,“與種族歧視的斗爭一如既往得緊迫”。因此,IBM希望與國會合作,從技術(shù)使用、警察改革等關(guān)鍵領(lǐng)域著手,推動實(shí)現(xiàn)公平正義和種族平等。

“IBM不再提供通用的人臉識別或分析軟件。IBM堅決反對并且絕不容忍將任何技術(shù)(包括其他供應(yīng)商提供的人臉識別技術(shù))用于大規(guī)模監(jiān)視、種族歧視、侵犯基本人權(quán)和自由,或用于任何與我們的價值觀、與我們的信任與透明度原則不符的目的。我們認(rèn)為,現(xiàn)在是時候開始關(guān)于國內(nèi)執(zhí)法機(jī)構(gòu)是否能使用,以及如何使用人臉識別技術(shù)的全國性討論?!笨死锵<{寫道。

他表示,人工智能是一種強(qiáng)大的工具,可以幫助執(zhí)法機(jī)構(gòu)保護(hù)民眾的安全。但是,人工智能的供應(yīng)商和用戶負(fù)有共同的責(zé)任,即確保人工智能應(yīng)用,尤其是執(zhí)法機(jī)構(gòu)的人工智能應(yīng)用不存在歧視。有關(guān)歧視的測試結(jié)果應(yīng)該被公開和審核?!白詈?,國家應(yīng)該出臺政策,鼓勵和推動警方使用一些能提高執(zhí)法透明度與可信性的技術(shù),比如執(zhí)法記錄儀和現(xiàn)代的數(shù)據(jù)分析技術(shù)?!?/p>

據(jù)AI前哨站梳理,克里希納的擔(dān)心并非杞人憂天。多項(xiàng)研究顯示,美國各大公司的人臉識別算法在面對黑人時均存在準(zhǔn)確率低的問題。這也是人臉識別在美國一直飽受詬病的原因之一。

2018年,美國一個民間組織使用535位美國國會議員的照片測試了亞馬遜的人臉識別系統(tǒng),結(jié)果竟有28位國會議員被識別成罪犯。值得注意的是,這28人中有11人為有色人種,包括美國著名的民權(quán)領(lǐng)袖、眾議員約翰·劉易斯(John Lewis)。由于亞馬遜的人臉識別系統(tǒng)被美國執(zhí)法機(jī)構(gòu)廣泛使用,這一測試結(jié)果加深了人們對算法歧視的擔(dān)憂。“我們需要用技術(shù)來幫人們解決問題,而不是加重有色人種所面臨的不公。黑人和棕色人種已經(jīng)成為歧視性判決系統(tǒng)的受害者。”劉易斯在隨后的一份聲明中寫道。

15881665447364210.jpg

2019年底,美國國家標(biāo)準(zhǔn)技術(shù)研究院(National Institute of Standards and Technology,以下簡稱NIST)在調(diào)研了189種人臉識別算法后也發(fā)現(xiàn),現(xiàn)有的人臉識別算法仍然無法排除種族、性別等因素的影響。

根據(jù)NIST的研究,在一對一的匹配中,大多數(shù)算法對亞裔和非裔美國人的誤報率超過白人,不同算法的誤報率差異從10倍到100倍不等;不同地區(qū)的算法也有差異,美國公司開發(fā)的一對一匹配算法對亞裔、非裔美國人和土著群體的誤報率尤其高。而在一對多的匹配中,針對非裔美國女性的誤報率普遍更高。研究人員指出,這可能會導(dǎo)致錯誤的犯罪指控。

事實(shí)上,IBM曾經(jīng)試圖解決“算法歧視”的問題,并在2018年發(fā)布了可用于人臉識別算法訓(xùn)練的公開數(shù)據(jù)集。但2019年,有網(wǎng)友發(fā)現(xiàn)該數(shù)據(jù)集抓取了近100萬張來自圖片社區(qū)Flickr的照片。這些照片被抓取主要是因?yàn)闃?biāo)記了知識共享許可協(xié)議(Creative Commons license)。IBM辯稱數(shù)據(jù)集并非商用,但許多上傳照片的用戶以及被拍攝者認(rèn)為不能在未經(jīng)其同意的情況下將其數(shù)據(jù)用于訓(xùn)練。今年初,一些伊利諾伊州用戶以IBM侵犯隱私為由提起了訴訟。

據(jù)路透社、The Verge等媒體報道,IBM此前的人臉識別業(yè)務(wù)并未帶來可觀的營收。有知情人士在接受路透社采訪時表示,IBM將不再以應(yīng)用程序編程界面或任何其他形式開發(fā)、創(chuàng)造、研究或銷售人臉識別產(chǎn)品,但會根據(jù)此前的客戶有需要的情況下提供支持。該人士補(bǔ)充說,IBM將繼續(xù)研究計算機(jī)視覺技術(shù),但僅限于視覺對象檢測,而不是用于人臉識別和分析。