摘要: 蘋果將透過偵測Messages與iCloud上的內容,來防止未成年使用者接觸兒童色情資訊,但電子前線基金會(EFF)警告這項做法將犧牲使用者的隱私,也讓蘋果裝置產生後門
▲圖片標題(來源:Apple)
蘋果在本周公布了全新的兒童保護措施,將會偵測Messages與用戶iCloud上的內容是否牽涉到兒童色情,也將更新Siri與搜尋功能,以在使用者搜尋兒童色情內容時加以干預。不過,蘋果的作法讓擁護使用者數位權利的電子前線基金會(Electronic Frontier Foundation,EFF)警告,此舉的代價為使用者的隱私,且將替蘋果裝置帶來後門。
蘋果的兒童保護措施主要有3項,一是於iOS、iPadOS與macOS上內建的Messages程式增添新工具,鎖定那些採用家庭帳號的使用者,透過裝置上的機器學習機制來分析Messages程式所傳遞的內容,假設兒童所收到的訊息包含了色情圖片,那麼蘋果就會模糊該照片並祭出警告,也提醒若兒童執意檢視照片,系統就會傳訊息給家長,同樣的,若是兒童企圖發送色情圖片,系統也會事先祭出將會通知家長的警告。
蘋果表示,所有的分析都在使用者的裝置上進行,蘋果並不會得知內容,此一功能將會在今年隨著iOS 15、iPadOS 15與macOS Monterey出爐而上線,將率先於美國市場推出。
第二個措施則是避免兒童性剝削內容的散布,蘋果將利用iOS與iPadOS上的新技術,來偵測使用者儲存於iCloud上的照片是否屬於已知的兒童性剝削內容(Child Sexual Abuse Material,CSAM),這是由美國失蹤兒童及童工保護中心(National Center for Missing and Exploited Children,NCMEC)所建立的資料庫。
蘋果的作法並非直接掃描用戶存放於iCloud上的照片,而是先將CSAM資料庫轉存為不可讀的雜湊組,再把它上傳到使用者的裝置上,當使用者要把照片存放至iCloud時,就會透過一個名為私有集合交集(Private Set Intersection)的加密技術,與裝置上的CSAM資料庫進行比對,並在每一張上傳至iCloud的照片上,附上一個含有比對結果的加密憑證。
一直到當符合CSAM資料庫的照片達到一定數量時,蘋果才會收到通知,也才會進一步解析這些內容,並手動檢查這些照片是否真為兒童色情,繼之蘋果即會關閉該名使用者的帳號,並向NCMEC檢舉。
最後一項則是改善蘋果裝置上的Siri與搜尋功能,當有使用者查詢與CSAM有關的內容時,蘋果將會向用戶解釋相關主題是有害及有問題的,並提供可能對用戶有所幫助的資源。此一功能將同時現身於iOS 15、iPadOS 15、watchOS 8與macOS Monterey上。
雖然蘋果的立意良善,但EFF卻認為,這是替蘋果的資料儲存系統及傳訊系統建立後門的作法。
在2016年時,美國聯邦調查局(FBI)曾要求蘋果協助解鎖恐怖攻擊嫌犯的iPhone手機,當時遭蘋果執行長Tim Cook斷然拒絕,Cook還曾發表公開信,指責FBI要求蘋果打造出一款可繞過現有安全機制的iPhone作業系統,只要是可以繞過安全機制的iOS就是創造了後門,且這個作業系統很可能可以破解所有人的iPhone。
而今蘋果的作法似乎違背了當初的堅持。EFF表示,假設蘋果得以利用機器學習來分析用戶所傳遞的內容,現在這個內容是兒童色情,但只要些微的調整就可用來尋找其它型態的內容,而且既然得以分析兒童,就能分析所有人,當蘋果遭到外來的壓力時,就無法再以不創造後門來推辭。
儘管蘋果向來擁護端對端加密,然而,相關的變更卻可能讓標榜端對端加密的Messages在法令的壓力下,迫使蘋果於Messages執行篩選、檢舉或刪除等能力。EFF強調,即使蘋果現在的作法是一個經過深思熟慮、擁有完整文件且範圍狹窄的後門,但它仍然是一個後門,而且是以所有人的隱私為代價。
轉貼自: ithome
若喜歡本文,請關注我們的臉書 Please Like our Facebook Page: Big Data In Finance
留下你的回應
以訪客張貼回應