IBM宣布放棄人臉識(shí)別業(yè)務(wù)
2020-06-11 10:08:33 作者 : 賈浩楠 來源 : 澎湃新聞????????警用裝備網(wǎng)訊:?從來只見科技巨頭搶占技術(shù)高地,沒聽說過誰主動(dòng)放棄未來的。
然而,今日的美國,真的上演了這離奇、反常的一幕。
當(dāng)?shù)貢r(shí)間6月8日,IBM高調(diào)宣布不再提供任何人臉識(shí)別服務(wù)和人臉分析軟件,正式退出這一市場(chǎng)。不僅如此,今后IBM也不會(huì)繼續(xù)研發(fā)相關(guān)技術(shù)。
IBM的理由是「反對(duì)將技術(shù)用于種族歧視和大規(guī)模監(jiān)視」。
但它真正的誠意有多少?
是誰讓IBM放棄了大熱的AI應(yīng)用方向
IBM的這一決定來自于CEO 克里什納(Arind Krishna)給幾位美國國會(huì)議員的一封信。
從信中的內(nèi)容來看,放棄人臉識(shí)別業(yè)務(wù)的舉動(dòng),是IBM因黑人弗洛伊德之死,抗議種族主義的種種舉措的其中之一。

IBM為了「自由」、「隱私」、「種族」這些美式政治正確議題拼了,至少從表面看是這樣。
IBM告訴外媒,這個(gè)決策并不是心血來潮,而是經(jīng)過了數(shù)個(gè)月的討論,并與客戶進(jìn)行了持續(xù)溝通。另外,盡管IBM不再宣傳、推銷和更新這些產(chǎn)品,但它依舊會(huì)在有需求之時(shí)對(duì)現(xiàn)有的客戶進(jìn)行支持。
克里什納并沒有將AI全盤否定,他表示人工智能仍然是幫助執(zhí)法部門保護(hù)公民安全的有力工具。
但他也強(qiáng)調(diào),AI系統(tǒng)的供應(yīng)商和用戶有共同的責(zé)任對(duì)AI進(jìn)行偏見測(cè)試(Tested For Bias),特別是執(zhí)法過程中使用的AI,要有專門的審查評(píng)估制度。

最后,克里什納還說,國家的政策還應(yīng)鼓勵(lì)和促進(jìn)使用特定技術(shù),如人體攝像機(jī)和現(xiàn)代數(shù)據(jù)分析技術(shù)。來提高警務(wù)透明度和問責(zé)制。
IBM 的這封信,是一個(gè)議政屬性較強(qiáng)的信件。它除了談到對(duì)相關(guān)技術(shù)的措施和態(tài)度,還呼吁國會(huì)通過相應(yīng)的議案和政策來推動(dòng)警務(wù)透明、人員就業(yè)等問題。
IBM的“順?biāo)饲椤?/strong>
難道IBM就是這么深明大義,毅然放棄前景大熱的AI技術(shù)?
當(dāng)然不是。
據(jù)美國CNBC報(bào)道,一位知情人士承認(rèn),IBM 此舉確有為了迎合美國當(dāng)下對(duì)種族問題的強(qiáng)烈關(guān)注的因素,但同時(shí),IBM 也有商業(yè)考量。
實(shí)際上人臉識(shí)別業(yè)務(wù)并沒有為 IBM 帶來重大的營收——換句話說,棄之并不可惜。
在人臉識(shí)別技術(shù)方面,IBM 雖然并不突出。在克里什納的信中,他呼吁美國執(zhí)法部門采用「更加透明」的技術(shù),比如攝像頭和數(shù)據(jù)分析系統(tǒng)。

數(shù)據(jù)分析系統(tǒng)對(duì)于IBM來說,是一項(xiàng)比人臉識(shí)別重要得多的業(yè)務(wù)。
另外,克里什納在就任 CEO 之初時(shí)表示,IBM將專注于混合云和人工智能兩大戰(zhàn)略,尤其是在云計(jì)算方面。他強(qiáng)調(diào)稱,IBM和Red Hat要把Linux、容器和Kunbernetes建立為新的混合云標(biāo)準(zhǔn)。
顯然,在Arind Krshna的領(lǐng)導(dǎo)之下,IBM更為專注的是與微軟和亞馬遜等對(duì)手在云計(jì)算領(lǐng)域的戰(zhàn)爭(zhēng)——人臉識(shí)別技術(shù)屬于二線業(yè)務(wù)。

外媒分析,IBM放棄的只是眼下它并不占優(yōu)勢(shì),營收也有限的一塊業(yè)務(wù),長遠(yuǎn)布局不受影響。
精明的IBM這一手操作,既調(diào)整了業(yè)務(wù),又迎合了美國民意。
但國際隱私組織(Privacy International)對(duì)IBM的聲明十分不信任。
原因在于IBM推出了智能警務(wù)平臺(tái),并在世界多地投入使用,這個(gè)系統(tǒng)依賴閉路電視攝像機(jī)和警察部門的數(shù)據(jù)處理系統(tǒng)直接相連,仍然是一種監(jiān)視手段。
此外,該組織認(rèn)為IBM的公告模棱兩可。公告中說要放棄「通用型」面部識(shí)別,讓人高度懷疑這不會(huì)是IBM面部識(shí)別業(yè)務(wù)的終結(jié),未來IBM可能會(huì)進(jìn)行識(shí)別系統(tǒng)的定制化。
人臉識(shí)別在美國已成眾矢之的
美國的人臉識(shí)別技術(shù)一直走在科技前沿,并且在商用層面早有動(dòng)作。亞馬遜早在 2016 年就推出了人臉識(shí)別軟件 Rekognition,如今已經(jīng)向美國大部分警察部門提供服務(wù)。
盡管如此,目前的人臉識(shí)別技術(shù)還不能夠有百分百的準(zhǔn)確性。
這背后的一個(gè)首要因素是美國的種族問題。
2018 年Joy Buolamwini和Timnit Gebru的研究首次揭示了商業(yè)人臉識(shí)別系統(tǒng)(包括 IBM 的)的缺陷:人臉識(shí)別針對(duì)黑人、女性的錯(cuò)誤率高達(dá) 21%-35%,而針對(duì)白人、男性的錯(cuò)誤率則低于 1%。

黑人女性有 20%~30%的概率被識(shí)別錯(cuò)誤,產(chǎn)生誤會(huì)。如果是在警用安保等場(chǎng)景下,后果可能會(huì)非常嚴(yán)重。這在美國是一個(gè)嚴(yán)重的政治問題。
除了對(duì)人種、性別的識(shí)別偏差外,人臉識(shí)別技術(shù)還因其在侵犯隱私方面的問題而受到抨擊。
而最近黑人弗洛伊德之死,讓人臉識(shí)別技術(shù)成了種族問題最新的替罪羊。
包括舊金山市在內(nèi),美國已經(jīng)有多個(gè)地方公共部門禁用了人臉識(shí)別技術(shù)。
盡管如此,亞馬遜等公司有用技術(shù)賺錢的需求,而美國警察也有實(shí)用技術(shù)的需求,因此多數(shù)州的警察部門仍然是人臉識(shí)別系統(tǒng)的大客戶。
2019 年,亞馬遜在股東會(huì)議否決了停止出售人臉識(shí)別技術(shù)的提案。后來在一次采訪中,亞馬遜CTO Werner Vogels稱,技術(shù)無罪,我們無責(zé)任。
對(duì)于人臉識(shí)別技術(shù)的爭(zhēng)議,IBM出了自己的答案:直接放棄,而不是繼續(xù)研究改進(jìn)。
IBM此舉,是否會(huì)導(dǎo)致越來越多的美國科技企業(yè)放棄探索人臉識(shí)別技術(shù)?美國會(huì)不會(huì)最終全面禁用人臉識(shí)別呢?
新聞稿件歡迎直接聯(lián)系:QQ 34004818 微信公眾號(hào):cpsjyzb
我要評(píng)論
0 條評(píng)論
- 還沒有人評(píng)論過,趕快搶沙發(fā)吧!
熱點(diǎn)榜
最新專題
更多-
-
科技助警,干貨滿載:第八屆警用無人機(jī)論壇亮點(diǎn)紛呈!
第八屆警用無人機(jī)創(chuàng)新 [ 詳情 ]
- 回顧第七屆世界無人機(jī)大會(huì) 07-10
- 專題:回顧2022世界無人機(jī)大會(huì) 01-13
加入收藏
加關(guān)注
登錄
注冊(cè)
微警用
