擬部署人臉辨識系統揪出癡漢 印度遭質疑侵犯隱私
印度擬在勒克瑙的200處地點安裝人臉辨識系統,引發侵犯隱私的質疑。(圖/Shutterstock)
「半島電視臺」22日報導,爲打擊猖獗的性犯罪,印度政府擬在人口最多的北方省省會勒克瑙(Lucknow),在200個最容易發生性騷與性侵的地點安裝人臉辨識系統。雖然政策立意良善,卻遭數位專家質疑恐變質爲侵入性維安政策,並導致個人隱私遭侵犯。
勒克瑙警方證實,在綜整出200處最常發生性騷擾報案的地點後,警方將在這些據點安裝人臉辨識系統。藉由偵測女性臉部表情,即時反制不當肢體碰觸行爲。
報導指出,警方將在每個據點安裝5個人工智慧(AI)鏡頭。一旦發生女性遭到侵犯而產生臉部表情變化,鏡頭就會向最近的警局發送通報。不過,警方不願透露諸如誰有權限閱讀數據等流程細節。
目前印度愈來愈多的機場、車站與咖啡廳採用人臉辨識系統。隨着系統的日益普及,印度警方將建立以全國爲範圍的情資蒐集與犯罪識別現代化系統,進而供警方使用。
不過,數位專家指出,人臉辨識系統運用於打擊性犯罪的好處仍不明確,但卻會造成人民隱私遭侵犯,以及政府擴大對民衆監控等弊端;更何況,警方不願說明這項科技的運作原理、數據儲存方式,以及誰擁有流覽數據的權限。
「網路自由基金會」更駁斥,用表情來研判女性是否遭到騷擾,根本十足荒謬。被侵犯的人會有怎樣的表情?如果一個人打電話給家人時,因爲生氣而產生憤怒的表情,是否就會觸發警報而讓警察趕來?
其認爲,這項技術還未經過實證,可能導致大量因研判錯誤而引發警報的案例,較可行的做法還是警方增加巡邏次數。
目前在美國與歐洲,對於臉部辨識技術的反感與日俱增;但印度官員堅稱,引進相關技術可制止犯罪,還能協尋失蹤兒童。專家反駁,在缺乏相關法律規範下,冒然使用人臉辨識恐威脅隱私權。警方根本沒考慮到這是另一種加諸在婦女身上的權力形式。AI不是萬靈丹,光靠科技無法解決社會問題。
根據統計,印度可謂全球女性最危險的居住地之一,平均每15分鐘就會發生1起強姦案;其中,又以北方省爲最不安全的省,該省在2019年發生的女性遭侵犯的案件數,居各省之冠。
儘管2012年的一起輪姦致死案引爆全國怒火,更讓政府推動一系列改革,包括簡化性犯罪舉報機制、加速法院審理、修法讓強姦者死刑;但實際定罪率卻相當低。