警察只用「人工智慧辨識圖像」打擊網路色情,但AI堅持把沙漠「看成裸女」警方超崩潰

隨著AI人工智慧越來越新進,倫敦警方表示未來兩三年內將開始利用圖像辨識技術來偵測虐兒事件。不過就目前來看,這項技術的實用性尚未明朗,因為系統連裸體和沙漠 (如下圖) 之間的差異都還分不出來: 廣告1   倫敦市警電子辦案部門組長Mark Stokes表示:「有時它 (

December 20, 2017
選擇語言:
TEEPR原創
採訪報導
綜合報導
編譯
特稿

隨著AI人工智慧越來越新進,倫敦警方表示未來兩三年內將開始利用圖像辨識技術來偵測虐兒事件。不過就目前來看,這項技術的實用性尚未明朗,因為系統連裸體和沙漠 (如下圖) 之間的差異都還分不出來:

廣告1

 

倫敦市警電子辦案部門組長Mark Stokes表示:「有時它 (系統) 會把一張無傷大雅的沙漠照片判定為猥褻影像。」

廣告2

 

廣告3

「基於某些原因,有許多人會用沙漠照片當螢幕保護裝置,結果就這樣被系統判定為膚色。」

 

冰冷的系統也缺乏情理法、法理情的概念,例如去年臉書的自動辨識系統就強制移除了下圖這張贏得普立茲獎的越戰照片,只因照片包含一名裸身女孩,就被自動演算法判定為「猥褻」。經多人抗議後,臉書官方終於解除了該圖的封鎖,並承認這不是一張兒童色情照片。

 

AI行車辨識技術:

參考資料:9GAG

布編:臉書別再打壓人了…QQ

贊助影片

(往下還有更多精彩文章!)

TEEPR 亮新聞著作權聲明:非法抄襲TEEPR 亮新聞網站請注意,本站所有內容皆由自家TEEPR 亮新聞 編輯撰寫,並非如非法內容農場複製貼上。本網站之文字敘述、圖片、影像視聽及其他資訊等,非經授權,不得轉載。如侵權將立刻請臉書封鎖專頁。微改標題、圖片、前段,仍然抓得到!
分類:台灣, 世界, 科技
加入粉絲團! 警察只用「人工智慧辨識圖像」打擊網路色情,但AI堅持把沙漠「看成裸女」警方超崩潰留言按此 好友人數分享! 好友人數加入好友
廣告
廣告