close

臉書(Facebook)24日表示,臉書審查員在過去3個月透過先前未公開的自動標圖軟體幫助,刪除870萬兒童裸照圖檔,並公布另一類似系統,試圖捉捕誘拐或和兒童交友以達性侵目的者。路透社報導,這項在過去一年中推出的機器學習工具自動辨識同時含有兒童及裸體的照片,提升臉書官方取締兒童色情內容速度。臉書全球安全部門負責人戴維斯(Antigone Davis)在訪問中告訴路透社,機器幫助他們區分內容的輕重緩急,並讓公司受訓過的審查團隊更有效率地排列問題內容。臉書嘗試將這項技術應用在旗下應用程式Instagram上。在政府監察單位及國會議員壓力下,臉書誓言加快移除極端分子及非法內容速度。因此,過濾每日數十億計用戶貼文的機器學習程式是計畫不可或缺的一環。但機器學習系統並非完美無缺,新聞媒體及廣告商等用戶今年都曾抱怨臉書自動系統誤將他們的貼文刪除。臉書多年來規定,甚至禁止穿著清涼的兒童出現在「立意良善」的家庭照中,擔心這類影像可能遭他人濫用。戴維斯表示,兒童安全系統會犯錯,但用戶可以申訴。她說:「我們在孩童安全一事上,寧願過度謹慎,也不願冒險犯錯。」臉書先前未公布兒童裸照刪文數據,但為打擊色情活動及成人裸照,首季移除約2100萬則貼文及評論。


文章轉貼如有侵權請告知我們會立即刪除
. . . . .
arrow
arrow
    全站熱搜

    ldqohit54954 發表在 痞客邦 留言(0) 人氣()