Tổ chức giám sát an toàn cho trẻ em buộc Apple tiếp tục giấu số liệu về ảnh không đúng đối với trẻ em

Trong ngày hôm nay, mới đây, một tổ chức bảo vệ trẻ em đã lên tiếng cáo buộc Apple đã ẩn giấu số liệu về hình ảnh lạm dụng trẻ em trên nền tảng của mình. Theo tờ báo The Guardian, theo thông tin từ Hiệp hội Quốc gia về Ngăn chặn Bạo lực và Bắt buộc chăm sóc Trẻ em của Anh (NSPCC), Apple đã báo cáo một số lượng về hình ảnh lạm dụng trẻ em ít hơn nhiều so với thực tế trên các dịch vụ của mình như iCloud, FaceTime và iMessage.

Số liệu cho thấy Apple đã báo cáo 267 trường hợp năm 2023, nhưng NSPCC đã phát hiện rằng chỉ ở Anh và Wales đã có tới 337 trường hợp từ tháng 4 năm 2022 đến tháng 3 năm 2023 mà Apple đã liên quan đến.

Các chuyên gia lo ngại về hình ảnh CSAM được tạo ra bởi trí tuệ nhân tạo, và Apple đã chứng nhận rằng dịch vụ sắp ra mắt của họ, Apple Intelligence, sẽ không tạo ra hình ảnh như thật. Trong khi đó, Google đã báo cáo hơn 1.470.958 trường hợp trong năm 2023 và Meta đã báo cáo 17.838.422 trường hợp trên Facebook và 11.430.007 trên Instagram cùng giai đoạn.

Apple đã từ chối phán định về vấn đề này và chỉ trỏ đến tuyên bố trước đó về quyền riêng tư người dùng. Mặc dù dịch vụ iMessage của Apple được mã hóa và không thể xem nội dung, Meta đã báo cáo khoảng 1.389.618 trường hợp nghi ngờ về CSAM trên WhatsApp đã mã hóa trong năm 2023.

Sự kiện quan trọng trong ngày hôm nay về cáo buộc của tổ chức bảo vệ trẻ em đối với Apple đã gây ra nhiều tranh cãi về vấn đề an toàn cho trẻ em trên mạng xã hội. #Apple #CSAM #AnToanTreEm #NSPCC

Nguồn: https://appleinsider.com/articles/24/07/22/child-safety-watchdog-accuses-apple-of-hiding-real-csam-figures

Apple cancelled its major CSAM proposals but introduced features such as automatic blocking of nudity sent to children


A child protection organization says it has found more cases of abuse images on Apple platforms in the UK than Apple has reported globally.

In 2022, Apple abandoned its plans for Child Sexual Abuse Material (CSAM) detection, following allegations that it would ultimately be used for surveillance of all users. The company switched to a set of features it calls Communication Safety, which is what blurs nude photos sent to children.

According to The Guardian newspaper, the UK’s National Society for the Prevention of Cruelty to Children (NSPCC) says Apple is vastly undercounting incidents of CSAM in services such as iCloud, FaceTime and iMessage. All US technology firms are required to report detected cases of CSAM to the National Center for Missing & Exploited Children (NCMEC), and in 2023, Apple made 267 reports.

Those reports purported to be for CSAM detection globally. But the UK’s NSPCC has independently found that Apple was implicated in 337 offenses between April 2022 and March 2023 — in England and Wales alone.

“There is a concerning discrepancy between the number of UK child abuse image crimes taking place on Apple’s services and the almost negligible number of global reports of abuse content they make to authorities,” Richard Collard, head of child safety online policy at the NSPCC said. “Apple is clearly behind many of their peers in tackling child sexual abuse when all tech firms should be investing in safety and preparing for the roll out of the Online Safety Act in the UK.”

In comparison to Apple, Google reported over 1,470,958 cases in 2023. For the same period, Meta reported 17,838,422 cases on Facebook, and 11,430,007 on Instagram.

Apple is unable to see the contents of users iMessages, as it is an encrypted service. But the NCMEC notes that Meta’s WhatsApp is also encrypted, yet Meta reported around 1,389,618 suspected CSAM cases in 2023.

In response to the allegations, Apple reportedly referred The Guardian only to its previous statements about overall user privacy.

Reportedly, some child abuse experts are concerned about AI-generated CSAM images. The forthcoming Apple Intelligence will not create photorealistic images.


Leave a Reply

Your email address will not be published. Required fields are marked *