Apple mở rộng chương trình tìm lỗ hổng để kiểm tra sự riêng tư của Apple Intelligence. Apple đang đặt rất nhiều niềm tin vào sự riêng tư và bảo mật của Apple Intelligence. Do đó, họ đã mở rộng chương trình tìm lỗ hổng của mình, cung cấp phần thưởng lên đến 1 triệu USD (khoảng 1,3 triệu CAD) cho bất kỳ ai phát hiện ra lỗ hổng trong hệ thống Private Cloud Compute (PCC).
Nhấc đến khả năng xử lý các tính năng trên thiết bị dựa trên trí tuệ nhân tạo, Apple Intelligence được xây dựng để chạy hầu hết các lệnh trí tuệ sinh sản và ngữ cảnh trên iPhone, Mac, v.v., mà không cần sự hỗ trợ từ máy chủ bên ngoài. Tuy nhiên, đối với các yêu cầu nặng hơn hoặc khó khăn hơn, Apple đang sử dụng các máy chủ PCC, được xây dựng với Apple Silicon và một hệ điều hành mới.
Để đảm bảo tính an toàn trên thiết bị của mình, Apple không gửi bất kỳ thông tin hoặc yêu cầu ngữ cảnh nào đến dịch vụ của mình. Tuy nhiên, điều này tự nhiên đặt ra câu hỏi về những yêu cầu nào sẽ đến máy chủ PCC. Đối với việc xác định bất kỳ vấn đề nào rõ ràng trong hệ thống PCC, chương trình tìm lỗ hổng của Apple hiện đang khuyến khích mọi người tìm ra bất kỳ sai khác nào trong các hoạt động trên máy chủ.
Các nhà nghiên cứu bảo mật có thể truy cập hướng dẫn an ninh với PCC, cung cấp “Môi trường Nghiên cứu ảo” cho phép phân tích bảo mật của PCC trên Mac và mã nguồn của PCC trên GitHub. Phần thưởng sẽ được trao cho bất kỳ ai tìm ra lỗ hổng trong PCC, và cung cấp phản hồi hợp lệ cho Apple về các vấn đề liên quan đến bảo mật và riêng tư. Apple đang đánh giá những vấn đề bảo mật có thể có “ảnh hưởng đáng kể đối với PCC”.
Với việc ra mắt dự kiến vào tuần tới, Apple Intelligence sẽ được phát hành trên toàn thế giới cùng với sự giới thiệu công khai của iOS 18.1.
#Apple #AppleIntelligence #bugbounty #PCC #sựkiệnNgàyHômNay
Apple is putting a lot of stock into the privacy and security of Apple Intelligence. Thus, it’s expanding its bug bounty program. Apple is offering payouts upwards of $1 million USD (around $1.3 million CAD). Payouts go to anyone who finds vulnerabilities within the Private Cloud Compute (PCC) system.
The Cupertino company is often lauding Apple Intelligence for its ability to handle on-device AI-powered features. Apple Intelligence is built to run most generative and contextual AI commands across iPhones, Macs, etc., without being facilitated on external servers. However, for more intensive or difficult requests, Apple is leveraging PCC servers, built with Apple Silicon and a new OS.
For these requests, Apple Intelligence will open up its on-device framework. Apple Intelligence’s on-device security appears to be fairly ironclad, as Apple doesn’t send any information or contextual requests to its services. However, this naturally brings up the concern of what happens to requests that hit the PCC. How secure are these? To identify any glaring issues within the PCC system, Apple’s bug bounty program is now encouraging people to find any discrepancies within server-based operations.
Security researchers access the security guide highlighting the ins and outs of the PCC. Additionally, researchers are provided with a ‘Virtual Research Environment‘ that allows a security analysis of PCC on a Mac (provided you have a device running Apple Silicon and 16GB of RAM with macOS Sequoia 15.1 Developer Preview). Finally, Apple provides source code on GitHub for “certain key components of PCC that help to implement its security and privacy requirements.”
Rewards go to anyone who pokes holes in PCC and provides Apple with legitimate feedback on privacy and security concerns. Apple is offering between $50,000 USD (around $69,000 CAD) to $1 million USD for discoveries across various categories. Apple is also evaluating security issues that may have “a significant impact to PCC.”
With an expected launch next week, Apple Intelligence will be available worldwide with the public introduction of iOS 18.1.
Source: The Verge
MobileSyrup may earn a commission from purchases made via our links, which helps fund the journalism we provide free on our website. These links do not influence our editorial content. Support us here.
[ad_2]