Quyết định của Apple về việc loại bỏ công cụ quét hình ảnh CSAM gây ra tranh cãi mới

Quyết định của Apple về việc ngừng sử dụng công cụ quét ảnh CSAM gây tranh cãi mới #Apple #CSAM #vienthong #anhnude

Hồi tháng 12, Apple đã thông báo rằng họ đang ngừng phát triển công cụ quét ảnh trên iCloud nhằm phát hiện nội dung lạm dụng tình dục trẻ em (CSAM). Ban đầu công bố từ tháng 8 năm 2021, dự án này đã gây tranh cãi từ khi mới ra mắt. Apple đã từng tạm dừng dự án vào tháng 9 do những lo ngại từ các nhóm quyền sống trên mạng và các nhà nghiên cứu rằng công cụ này sẽ bị lạm dụng để xâm nhập vào quyền riêng tư và bảo mật của tất cả người dùng iCloud. Tuần này, một nhóm về an toàn trẻ em mới có tên là Heat Initiative đã thông báo với Apple rằng họ đang tổ chức một chiến dịch yêu cầu công ty “phát hiện, báo cáo và loại bỏ” nội dung lạm dụng tình dục trẻ em từ iCloud và cung cấp thêm công cụ cho người dùng báo cáo CSAM cho công ty.

Hôm nay, một động thái hiếm thấy, Apple đã trả lời Heat Initiative, nêu rõ lý do họ từ bỏ việc phát triển tính năng quét CSAM trên iCloud và tập trung vào các công cụ và tài nguyên trên thiết bị cho người dùng được gọi chung là các tính năng An toàn giao tiếp. Phản hồi của Apple gửi tới Heat Initiative, mà Apple đã chia sẻ với WIRED trong buổi sáng nay, cung cấp một cái nhìn hiếm có không chỉ về lý do của họ để chuyển đổi sang An toàn giao tiếp, mà còn về quan điểm rộng hơn của họ về việc tạo ra các cơ chế để vượt qua các biện pháp bảo vệ quyền riêng tư của người dùng, chẳng hạn như mã hóa, để giám sát dữ liệu. Quan điểm này liên quan đến cuộc tranh luận về mã hóa nói chung, đặc biệt là khi các quốc gia như Vương quốc Anh đang cân nhắc thông qua các luật lệ yêu cầu các công ty công nghệ có khả năng truy cập vào dữ liệu người dùng để tuân thủ yêu cầu của cơ quan thực thi pháp luật.

“Nội dung lạm dụng tình dục trẻ em là đáng ghê tởm và chúng tôi cam kết phá vỡ chuỗi việc ép buộc và ảnh hưởng khiến trẻ em dễ bị tổn thương bởi nó,” Erik Neuenschwander, giám đốc quyền riêng tư và an toàn trẻ em của Apple, đã viết trong phản hồi của công ty tới Heat Initiative. Tuy nhiên, ông thêm rằng sau khi hợp tác với một loạt các nhà nghiên cứu về quyền riêng tư và bảo mật, các nhóm quyền sống trên mạng và những người ủng hộ an toàn trẻ em, công ty kết luận rằng họ không thể tiếp tục phát triển công cụ quét CSAM, ngay cả khi nó được xây dựng để bảo vệ quyền riêng tư.

“Việc quét dữ liệu iCloud lưu trữ riêng tư của mỗi người dùng sẽ tạo ra những điểm tấn công mới cho kẻ trộm dữ liệu tìm kiếm và khai thác,” Neuenschwander viết. “Nó cũng mở ra khả năng cho một dốc trơn nguy hiểm về hậu quả không mong muốn. Quét một loại nội dung, ví dụ, mở ra cánh cửa cho giám sát hàng loạt và có thể tạo ra mong muốn tìm kiếm các hệ thống nhắn tin mã hóa khác với nhiều loại nội dung.”

WIRED không thể liên lạc ngay lập tức với Heat Initiative để nhận ý kiến ​​về phản hồi của Apple. Nhóm này do Sarah Gardner, người từng là phó chủ tịch ngoại việc của tổ chức phi lợi nhuận Thorn, hoạt động nhằm sử dụng công nghệ mới để chiến đấu chống lại lạm dụng trẻ em trực tuyến và buôn bán mại dâm. Năm 2021, Thorn đã ca ngợi kế hoạch của Apple để phát triển tính năng quét CSAM trên iCloud. Gardner viết trong một email gửi CEO Tim Cook vào thứ Tư, ngày 30 tháng 8, mà Apple cũng đã chia sẻ với WIRED, rằng Heat Initiative cảm thấy “thất vọng” với quyết định của Apple về việc ngừng sử dụng tính năng này.

“Chúng tôi tín nhiệm rằng giải pháp mà bạn đã công bố không chỉ đưa Apple trở thành một nhà lãnh đạo toàn cầu về quyền riêng tư người dùng mà còn hứa hẹn loại bỏ hàng triệu hình ảnh và video lạm dụng tình dục trẻ em khỏi iCloud,” Gardner viết cho Cook. “Tôi là thành viên của một sáng kiến ​​phát triển có sự quan tâm từ các chuyên gia và nhà hoạt động quan tâm đến an toàn trẻ em, nhằm tiếp cận với bạn và công ty của bạn, Apple, về việc trì hoãn tiếp tục áp dụng công nghệ quan trọng… Lạm dụng tình dục trẻ em là vấn đề khó khăn mà không ai muốn nói về, đó là lý do tại sao nó bị câm lặng và bị bỏ lại phía sau. Chúng tôi ở đây để đảm bảo điều đó không xảy ra.”

Nguồn: https://www.wired.com/story/apple-csam-scanning-heat-initiative-letter/

In December, Apple said that it was killing an effort to design a privacy-preserving iCloud photo-scanning tool for detecting child sexual abuse material (CSAM) on the platform. Originally announced in August 2021, the project had been controversial since its inception. Apple had first paused it that September in response to concerns from digital rights groups and researchers that such a tool would inevitably be abused and exploited to compromise the privacy and security of all iCloud users. This week, a new child safety group known as Heat Initiative told Apple that it is organizing a campaign to demand that the company “detect, report, and remove” child sexual abuse material from iCloud and offer more tools for users to report CSAM to the company. 

Today, in a rare move, Apple responded to Heat Initiative, outlining its reasons for abandoning the development of its iCloud CSAM scanning feature and instead focusing on a set of on-device tools and resources for users known collectively as Communication Safety features. The company’s response to Heat Initiative, which Apple shared with WIRED this morning, offers a rare look not just at its rationale for pivoting to Communication Safety, but at its broader views on creating mechanisms to circumvent user privacy protections, such as encryption, to monitor data. This stance is relevant to the encryption debate more broadly, especially as countries like the United Kingdom weigh passing laws that would require tech companies to be able to access user data to comply with law enforcement requests.

“Child sexual abuse material is abhorrent and we are committed to breaking the chain of coercion and influence that makes children susceptible to it,” Erik Neuenschwander, Apple’s director of user privacy and child safety, wrote in the company’s response to Heat Initiative. He added, though, that after collaborating with an array of privacy and security researchers, digital rights groups, and child safety advocates, the company concluded that it could not proceed with development of a CSAM-scanning mechanism, even one built specifically to preserve privacy.

“Scanning every user’s privately stored iCloud data would create new threat vectors for data thieves to find and exploit,” Neuenschwander wrote. “It would also inject the potential for a slippery slope of unintended consequences. Scanning for one type of content, for instance, opens the door for bulk surveillance and could create a desire to search other encrypted messaging systems across content types.”

WIRED could not immediately reach Heat Initiative for comment about Apple’s response. The group is led by Sarah Gardner, former vice president of external affairs for the nonprofit Thorn, which works to use new technologies to combat child exploitation online and sex trafficking. In 2021, Thorn lauded Apple’s plan to develop an iCloud CSAM scanning feature. Gardner said in an email to CEO Tim Cook on Wednesday, August 30, which Apple also shared with WIRED, that Heat Initiative found Apple’s decision to kill the feature “disappointing.”

“We firmly believe that the solution you unveiled not only positioned Apple as a global leader in user privacy but also promised to eradicate millions of child sexual abuse images and videos from iCloud,” Gardner wrote to Cook. “I am a part of a developing initiative involving concerned child safety experts and advocates who intend to engage with you and your company, Apple, on your continued delay in implementing critical technology … Child sexual abuse is a difficult issue that no one wants to talk about, which is why it gets silenced and left behind. We are here to make sure that doesn’t happen.”


[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *