Apple cam kết đảm bảo an toàn trong công nghệ trí tuệ nhân tạo tại Nhà Trắng

Apple đã ký cam kết của Nhà Trắng về việc phát triển AI an toàn, an ninh và đáng tin cậy, theo một thông cáo trên trang web của Nhà Trắng vào thứ Sáu. Công ty sẽ sớm ra mắt dịch vụ AI sáng tạo của mình, Apple Intelligence, vào các sản phẩm cốt lõi của mình, đưa AI sáng tạo trước mắt khoảng 2 tỷ người dùng của Apple.

Apple cùng với 15 công ty công nghệ khác – bao gồm Amazon, Anthropic, Google, Inflection, Meta, Microsoft và OpenAI – đã cam kết tuân thủ các quy tắc cơ bản của Nhà Trắng về việc phát triển AI sáng tạo vào tháng 7 năm 2023. Lúc đó, Apple chưa tiết lộ mức độ mà công ty dự định tích hợp AI vào iOS. Nhưng chúng ta đã nghe lời Apple rõ ràng tại WWDC vào tháng Sáu: Họ đang sats đầu vào AI sáng tạo, bắt đầu từ một đối tác nhúng ChatGPT vào iPhone. Với tư cách là một mục tiêu thường xuyên của các cơ quan quản lý liên bang, Apple muốn báo hiệu sớm rằng họ sẵn lòng tuân thủ các quy tắc của Nhà Trắng về AI – một cố gắng có thể là để quyến rũ sự ủng hộ trước bất kỳ cuộc chiến về quy định AI trong tương lai.

Nhưng cam kết tự nguyện của Apple đối với Nhà Trắng có hiệu lực như thế nào? Không nhiều, nhưng đó là một bước đi. Nhà Trắng gọi đây là “bước đầu tiên” để Apple và 15 công ty AI khác phát triển AI an toàn, an ninh và đáng tin cậy. Bước thứ hai là sắc lệnh thực thi về AI của Tổng thống Biden vào tháng Mười, và hiện có một số dự luật đang di chuyển qua Quốc hội liên bang và các quốc hội địa phương để kiểm soát tốt hơn các mô hình AI.

Theo cam kết này, các công ty AI hứa sẽ thử nghiệm (hành động như một hacker phản cộng để thử nghiệm lực lượng an ninh của tổ chức) các mô hình AI trước khi công bố công khai và chia sẻ thông tin đó với công chúng. Cam kết tự nguyện của Nhà Trắng cũng yêu cầu các công ty AI xử lý các trọng số mô hình AI chưa được công bố một cách bí mật. Apple và các công ty khác đồng ý làm việc với trọng số mô hình AI trong môi trường an toàn, giới hạn truy cập vào trọng số mô hình ít nhân viên nhất có thể. Cuối cùng, các công ty AI đồng ý phát triển hệ thống gán nhãn nội dung, chẳng hạn như đóng dấu nước, để giúp người dùng phân biệt cái gì là do AI tạo ra và cái gì không phải.

Ngoài ra, Bộ Thương mại cho biết sẽ sớm phát hành một báo cáo về những lợi ích, nguy cơ và hệ quả tiềm năng của các mô hình cơ sở mã nguồn mở. AI mã nguồn mở ngày càng trở thành một trận địa pháp lý đầy xung đột chính trị. Một số phe muốn hạn chế việc truy cập vào trọng số mô hình mạnh của AI với tên gọi là an toàn. Tuy nhiên, việc làm đó có thể giới hạn đáng kể hệ sinh thái khởi nghiệp và nghiên cứu AI. Lập trường của Nhà Trắng ở đây có thể có tác động đáng kể đến ngành công nghiệp AI lớn hơn.

Nhà Trắng cũng lưu ý rằng các cơ quan liên bang đã tiến triển đáng kể đối với các nhiệm vụ được giao theo sắc lệnh thực thi của tháng Mười. Các cơ quan liên bang đã tuyển dụng hơn 200 người liên quan đến AI đến nay, cấp quyền truy cập cho hơn 80 nhóm nghiên cứu vào tài nguyên tính toán và phát hành một số khung nhận diện cho việc phát triển AI (chính phủ thích khung việc phát triển).

#Apple #AI #NhàTrắng #camkếtAI

Nguồn: https://techcrunch.com/2024/07/26/apple-signs-the-white-houses-commitment-to-ai-safety/

Apple signed the White House’s voluntary commitment to developing safe, secure and trustworthy AI, according to a press release on Friday. The company will soon launch its generative AI offering, Apple Intelligence, into its core products, putting generative AI in front of Apple’s 2 billion users.

Apple joins 15 other technology companies — including Amazon, Anthropic, Google, Inflection, Meta, Microsoft and OpenAI — that committed to the White House’s ground rules for developing generative AI in July 2023. At the time, Apple had not revealed how deeply it planned to ingrain AI into iOS. But we heard Apple loud and clear at WWDC in June: It’s going all in on generative AI, starting with a partnership that embeds ChatGPT in the iPhone. As a frequent target of federal regulators, Apple wants to signal early that it’s willing to play by the White House’s rules on AI — a possible attempt to curry favor before any future regulatory battles on AI break out.

But how much teeth do Apple’s voluntary commitments to the White House have? Not much, but it’s a start. The White House calls this the “first step” toward Apple and 15 other AI companies developing AI that is safe, secure and trustworthy. The second step was President Biden’s AI executive order in October, and there are several bills currently moving through federal and state legislatures to better regulate AI models.

Under the commitment, AI companies promise to red-team (acting as an adversarial hacker to stress test an organization’s safety measures) AI models before a public release and share that information with the public. The White House’s voluntary commitment also asks AI companies to treat unreleased AI model weights confidentially. Apple and other companies agree to work on AI model weights in secure environments, limiting access to model weights to as few employees as possible. Lastly, the AI companies agree to develop content labeling systems, such as watermarking, to help users distinguish what is and isn’t AI generated.

Separately, the Department of Commerce says it will soon release a report on the potential benefits, risks and implications of open-source foundation models. Open-source AI is increasingly becoming a politically charged regulatory battlefield. Some camps want to limit how accessible model weights to powerful AI models should be in the name of safety. However, doing so could significantly limit the AI startup and research ecosystem. The White House’s stance here could have a significant impact on the greater AI industry.

The White House also noted that federal agencies have made significant progress on tasks set out by the October executive order. Federal agencies have made more than 200 AI-related hires to date, awarded more than 80 research teams’ access to computational resources, and released several frameworks for developing AI (the government loves frameworks).


[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *