加拿大政府上月宣布,要對美國紐約的一家科技公司「Clearview AI」展開調查,指控該公司運用人臉辨識技術,在網路上非法蒐集逾30億張人臉建立資料庫,提供給48個執法單位使用。
這並非Clearview AI第一次被盯上,這家成立僅4年、來自紐約的新創公司,目前在美國已有11起官司纏身,歐盟、英國、澳洲也展開調查,指控它侵犯隱私,而它在加拿大已經停止提供服務。
根據它最近的一起官司,加州有四個訴求公民自由的團體,指控Clearview AI在臉書、推特、Google、YouTube和 Venmo等數十個網站,未經使用者同意,透過自動掃描和複製資料等技術,搜括超過30億張人臉,再利用眼睛形狀和大小等生物特徵,建立「臉紋」資料庫,幫助顧客用於辨識人的身分。
Clearview AI的顧客包括私人公司和執法單位。據該公司的說法,光在美國,就有約3100個執法單位是其客戶,包括美國軍方。
看來生意做很大的Clearview AI原本一直「惦惦呷三碗公」,直到《紐約時報》調查報導記者希爾(Kashmir Hill)去年1月一篇報導揭露執法單位利用Clearview AI破案,才引起世人注意。
希爾從2019年11月開始,鍥而不捨追蹤Clearview AI,在最近一期《紐約時報》雜誌又發表專題《你的臉不是你的》,揭開Clearview AI的神秘面紗,讓人們一窺這家宣稱以協助執法為出發點的科技公司,如何測試法律和道德的極限。
《紐時》揭露,2019年5月,美國國土安全部的調查人員,從雅虎的一名敘利亞用戶,收到一堆1名小女孩遭到性侵的照片,而且還有1名蓄著山羊鬍,靠著枕頭的白人男子,眼睛直視著鏡頭,但照片有點模糊,拍攝角度也很傾斜,調查人員很難明確辨識這名男子。
國土安全部就將照片發佈給全國的兒童犯罪偵探,其中1名在紐約的女偵探嘗試用一個她剛下載的Clearview AI(後文簡稱Clearview)人臉辨識App,肉搜這名男子,結果跳出一張Instagram照片。
照片中是1位留著大鬍子的亞洲男性和1名女模特兒,在拉斯維加斯一場健身博覽會的合照,不過,重點不是他們,而是在這張照片的角落,站了一個在健身營養品攤位旁的白人男子,男子的臉只有半片指甲大小。
聯邦調查員找到這家健身營養品公司,發現白人男子名叫費歐拉(Andres Rafael Viola),是住在洛杉磯的阿根廷裔人,接著又找到他的臉書,是公開帳號,其中有一個房間的照片,剛好就是舉發性侵照片中的場景,臉書中甚至還有受害7歲女童的照片。
短短1個月,警方就逮到費歐拉,他承認性侵女童,還拍攝性侵過程,最後被判35年徒刑。
這是國土安全部第一次利用Clearview調查兒童遭性侵的案件,而Clearview的準確度也令調查員十分震驚,官員柏克向《紐時》記者坦承,沒有Clearview 「根本沒有辦法逮到這名男子」。
但Clearview的驚人能力,在《紐時》報導揭露後,也開始引起各方的關切。臉書、Google、Venmo和Linkedln馬上寄警告信給Clearview,控訴其違反他們的服務和需求條款,要求不能再取用照片,但徒勞無功。
美國麻州參議員馬基(Ed Markey)則要求Clearview,公佈有哪些執法單位是其客戶,允許民眾自行刪除照片,陸續也有民間團體控告Clearview,至今已有11起官司,但都無損 Clearview的業務蒸蒸日上,目前市值高達1.09億美元(約31.2億元台幣)。(調查中心/韓政燕報導)
想知道Clearview AI是如何崛起的,請繼續點閱:【全球調查精選2】散發雌雄同體魅力 揭Clearview創辦人網路黑歷史
即時新聞時代也需要好的調查報導。【全球調查精選】是《蘋果新聞網》精選全球媒體所做的精彩長篇調查報導故事,帶領讀者跟隨許多優秀記者的獨特觀察與深入訪談,追查內幕,直搗真相。本周推出的是美國媒體《紐約時報》及《Buzzfeed》針對美國臉部辨識App 「Clearview AI」的精彩報導。


