隱私保護做半套 臉書種族歧視、隱私洩漏、情緒實驗罵名多

by Knowing
2017.12.20 04:58PM
958

FB應用機器學習總監Joaquin Quinonero Candela表示,只要臉書用戶入鏡的照片在臉書出現,該名用戶就會收到通知。「如果你在照片裡,有權限看見那篇貼文,我們會通知你,就算你沒有被標記。」

(圖片取自pixabay)

 

有些人不喜歡被Tag,甚至不喜歡自身影像被別人公布在臉書上。對這些人來說,臉書近日啟用的新功能是個福音。

 

隨著機器學習技術的進展,AI已能自動辨識人臉。根據《中央社》,應用機器學習總監Joaquin Quinonero Candela表示,只要臉書用戶入鏡的照片在臉書出現,該名用戶就會收到通知。「如果你在照片裡,有權限看見那篇貼文,我們會通知你,就算你沒有被標記。」

 

臉書這項功能是非強制性的,目的是保護穩私權;另外,當用戶有權限看到照片他才會收到入鏡通知;換句話說,如果我沒有設定某人擁有看我的照片的權利,就算我貼上有他入鏡的照片,他也不會知道;這項功能在加拿大與歐盟國家不會立即上路,因為那些國家的隱私法較嚴格。除了這項政策,臉書還有以下這些爭議。

 

排除特定族群

 

為了增加廣告效益,廣告主會精準投放給固定族群的臉書用戶;然而,過於精準的分類可能會變成歧視。

 

臉書的廣告可以讓客戶根據用戶的地區、年齡、興趣,甚至種族等條件來選擇投放目標。也就是說,客戶可以選擇只讓白人男性用戶看到廣告。如果使用廣告投放選項的是房屋廣告,會觸犯美國的《公平住房法案》。該法案禁止房屋租售或其廣告中有任何基於種族、膚色、宗教或國籍的差別待遇。

 

推薦朋友功能恐洩露隱秘身分

 

臉書推薦朋友的功能可能會使部份開設隱秘帳號的人其真實身分被別人測知,這點對於從事性工作者有莫大的影響。美國有許多性工作者會在臉書設兩個不相關聯的帳號;雖然他們盡量使兩者的朋友圈沒有任何連結,但臉書系統總能將用戶的真實身分推送給隱秘帳號的朋友,使其「檯面上的生活」受到騷擾。

 

偷偷給用戶做情緒實驗

 

2014年美國國家科學院院刊(Proceedings of the National Academy of Sciences)公布了臉書進行的一項實驗報告,實驗內容竟然是在用戶不知情的情況下,調整用戶動態消息上的友人訊息,藉以測試正面、負面訊息的情緒感染力;被調整的用戶接近7萬名。這個內容讓臉書受到極大的撻伐。主導該實驗的Adam D. I. Kramer後來出面道歉。

 

回應 0
蟑螂藥推薦
16 天前

熱門文章

最新消息

本日精選