#sựkiện: Cơ quan giám sát quyền riêng tư của Pháp bảo vệ mắt khỏi việc thu thập dữ liệu trong kế hoạch hành động AI
Cơ quan giám sát quyền riêng tư của Pháp, CNIL, vừa công bố kế hoạch hành động đối với trí tuệ nhân tạo. Kế hoạch cung cấp thông tin về nơi sẽ tập trung sự chú ý, bao gồm cả các công nghệ AI tổng quát như ChatGPT của OpenAI. Để nghiên cứu phạm vi công nghệ và đưa ra các đề xuất cho các hệ thống AI thân thiện với quyền riêng tư, một Dịch vụ Trí tuệ Nhân tạo chuyên dụng đã được thiết lập trong CNIL.
Mục tiêu chính của cơ quan quản lý là chỉ đạo sự phát triển của AI tôn trọng dữ liệu cá nhân, chẳng hạn như bằng cách phát triển các phương tiện để kiểm toán và kiểm soát hệ thống AI để bảo vệ con người. CNIL nhấn mạnh việc hiểu cách các hệ thống AI tác động đến mọi người là một trọng tâm chính khác cùng với việc hỗ trợ những người chơi sáng tạo trong hệ sinh thái AI địa phương áp dụng phương pháp hay nhất của CNIL.
Các cơ quan bảo vệ dữ liệu ở châu Âu đang trong quá trình xây dựng thỏa thuận về khuôn khổ dựa trên rủi ro để điều chỉnh các ứng dụng của AI mà khối đã đề xuất vào tháng 4 năm 2021. Khuôn khổ này, Đạo luật AI của EU, có thể được thông qua vào cuối năm nay và quy định theo kế hoạch là một lý do khác mà CNIL nêu bật để chuẩn bị kế hoạch hành động về AI của mình.
Ngoài ra, CNIL của Pháp cũng đặc biệt chú ý đến hoạt động của một số nhà sản xuất mô hình AI nhất định trong việc lấy dữ liệu từ Internet để xây dựng bộ dữ liệu cho các hệ thống AI đào tạo, chẳng hạn như các mô hình ngôn ngữ lớn. Vì vậy, CNIL tập trung vào bảo vệ dữ liệu có sẵn công khai trên web chống lại việc sử dụng cạo hoặc cạo, dữ liệu để thiết kế các công cụ.
Tuy nhiên, nhiều công ty AI đã phải đối mặt với các thách thức pháp lý trong việc thu thập dữ liệu người dùng. Việc OpenAI không xin phép người dùng web cá nhân trước khi nhập dữ liệu của họ khiến công ty hiện đang dựa vào yêu cầu về lợi ích hợp pháp ở Ý để xử lý. Điều này đồng nghĩa với việc các công ty cần đảm bảo tính công bằng và minh bạch trong quá trình xử lý dữ liệu khi sử dụng các công cụ AI.
Với các quy tắc rõ ràng bảo vệ dữ liệu cá nhân của công dân châu Âu, CNIL hi vọng sẽ đóng vai trò quan trọng trong việc phát triển các hệ thống AI thân thiện với quyền riêng tư cho tương lai.
Nguồn: https://techcrunch.com/2023/05/17/cnil-ai-action-plan/
Cơ quan giám sát quyền riêng tư của Pháp, CNIL, đã công bố một kế hoạch hành động đối với trí tuệ nhân tạo, cung cấp thông tin tổng quan về nơi nó sẽ tập trung sự chú ý, bao gồm cả các công nghệ AI tổng quát như ChatGPT của OpenAI, trong những tháng tới và hơn thế nữa.
Một Dịch vụ Trí tuệ Nhân tạo chuyên dụng đã được thiết lập trong CNIL để nghiên cứu phạm vi công nghệ và đưa ra các đề xuất cho “các hệ thống AI thân thiện với quyền riêng tư”.
Mục tiêu chính đã nêu của cơ quan quản lý là chỉ đạo sự phát triển của AI “tôn trọng dữ liệu cá nhân”, chẳng hạn như bằng cách phát triển các phương tiện để kiểm toán và kiểm soát hệ thống AI để “bảo vệ con người”.
Hiểu cách các hệ thống AI tác động đến mọi người là một trọng tâm chính khác, cùng với việc hỗ trợ những người chơi sáng tạo trong hệ sinh thái AI địa phương áp dụng phương pháp hay nhất của CNIL.
“CNIL muốn thiết lập các quy tắc rõ ràng bảo vệ dữ liệu cá nhân của công dân châu Âu nhằm góp phần phát triển các hệ thống AI thân thiện với quyền riêng tư,” nó viết.
Gần một tuần trôi qua mà không có một loạt các cuộc gọi cao cấp khác từ các nhà công nghệ yêu cầu các cơ quan quản lý nắm bắt được AI. Và mới hôm qua, trong buổi điều trần tại Thượng viện Hoa Kỳ, CEO của OpenAI Sam Altman kêu gọi các nhà lập pháp điều chỉnh công nghệđề xuất một chế độ cấp phép và thử nghiệm.
Tuy nhiên, các cơ quan quản lý bảo vệ dữ liệu ở châu Âu đã đi rất xa – với những thứ như Clearview AI đã bị xử phạt rộng rãi trên toàn khối vì lạm dụng dữ liệu của mọi người chẳng hạn. Trong khi chatbot AI, Replika, đã phải đối mặt với việc thực thi gần đây ở Ý.
ChatGPT của OpenAI cũng thu hút sự can thiệp rất công khai của DPA Ý vào cuối tháng ba dẫn đến việc công ty vội vã đưa ra các tiết lộ và kiểm soát mới cho người dùng, cho phép họ áp dụng một số giới hạn về cách công ty có thể sử dụng thông tin của họ.
Đồng thời, các nhà lập pháp EU đang trong quá trình xây dựng thỏa thuận về khuôn khổ dựa trên rủi ro để điều chỉnh các ứng dụng của AI mà khối đã đề xuất vào tháng 4 năm 2021.
Khuôn khổ này, Đạo luật AI của EU, có thể được thông qua vào cuối năm nay và quy định theo kế hoạch là một lý do khác mà CNIL nêu bật để chuẩn bị kế hoạch hành động về AI của mình, cho biết công việc này “cũng sẽ giúp chuẩn bị cho việc đưa vào ứng dụng. của dự thảo Quy định AI của Châu Âu, hiện đang được thảo luận”.
Các cơ quan bảo vệ dữ liệu hiện tại (DPAs) có thể sẽ đóng một vai trò trong việc thực thi Đạo luật AI, vì vậy các cơ quan quản lý xây dựng kiến thức và chuyên môn về AI sẽ rất quan trọng để chế độ hoạt động hiệu quả. Mặc dù các chủ đề và chi tiết mà các DPA của EU chọn để tập trung sự chú ý của họ vào được thiết lập để cân nhắc các thông số hoạt động của AI trong tương lai — chắc chắn là ở châu Âu và, có khả năng, xa hơn nữa do khối này đã đi trước bao xa khi nói đến việc đưa ra quy tắc kỹ thuật số.
Quét dữ liệu trong khung
Về AI tổng quát, cơ quan quản lý quyền riêng tư của Pháp đang đặc biệt chú ý đến hoạt động của một số nhà sản xuất mô hình AI nhất định trong việc lấy dữ liệu từ Internet để xây dựng bộ dữ liệu cho các hệ thống AI đào tạo, chẳng hạn như các mô hình ngôn ngữ lớn (LLM), có thể phân tích cú pháp tự nhiên. ngôn ngữ và phản ứng theo cách giống như con người đối với giao tiếp.
Nó cho biết một lĩnh vực ưu tiên cho dịch vụ AI của nó sẽ là “bảo vệ dữ liệu có sẵn công khai trên web chống lại việc sử dụng cạo hoặc cạo, dữ liệu để thiết kế các công cụ”.
Đây là một khu vực không thoải mái đối với các nhà sản xuất LLM như ChatGPT, những người đã dựa vào việc lặng lẽ thu thập một lượng lớn dữ liệu web để tái sử dụng làm thức ăn gia súc đào tạo. Những người đã thu thập thông tin web có chứa dữ liệu cá nhân phải đối mặt với một thách thức pháp lý cụ thể ở Châu Âu — nơi Quy định bảo vệ dữ liệu chung (GDPR), được áp dụng từ tháng 5 năm 2018, yêu cầu họ phải có cơ sở pháp lý để xử lý như vậy.
Có một số cơ sở pháp lý được quy định trong GDPR, tuy nhiên, các tùy chọn khả thi cho một công nghệ như ChatGPT bị hạn chế.
bên trong Quan điểm của DPA Ý, chỉ có hai khả năng: Sự đồng ý hoặc lợi ích hợp pháp. Và vì OpenAI đã không xin phép người dùng web cá nhân trước khi nhập dữ liệu của họ nên công ty hiện đang dựa vào yêu cầu về lợi ích hợp pháp ở Ý để xử lý; một khiếu nại vẫn đang được điều tra bởi cơ quan quản lý địa phương, đảm bảo. (Lời nhắc: Các hình phạt GDPR có thể tăng lên tới 4% doanh thu hàng năm trên toàn cầu ngoài bất kỳ lệnh khắc phục nào.)
Quy định toàn EU có các yêu cầu bổ sung đối với các thực thể xử lý dữ liệu cá nhân — chẳng hạn như quá trình xử lý phải công bằng và minh bạch. Vì vậy, có thêm những thách thức pháp lý đối với các công cụ như ChatGPT để tránh vi phạm pháp luật.
Và – đáng chú ý – trong kế hoạch hành động của mình, CNIL của Pháp nêu bật “tính công bằng và minh bạch của quá trình xử lý dữ liệu làm nền tảng cho hoạt động của (các công cụ AI)” như một câu hỏi đặc biệt được quan tâm mà họ cho biết Dịch vụ Trí tuệ Nhân tạo và một đơn vị nội bộ khác, CNIL. Phòng thí nghiệm Đổi mới Kỹ thuật số, sẽ ưu tiên xem xét kỹ lưỡng trong những tháng tới.
Các lĩnh vực ưu tiên đã nêu khác mà CNIL gắn cờ cho phạm vi AI của nó là:
- bảo vệ dữ liệu do người dùng truyền khi họ sử dụng các công cụ này, từ bộ sưu tập của họ (thông qua giao diện) đến khả năng sử dụng lại và xử lý thông qua các thuật toán máy học;
- hậu quả đối với quyền của các cá nhân đối với dữ liệu của họ, cả liên quan đến dữ liệu được thu thập để học các mô hình và những dữ liệu có thể được cung cấp bởi các hệ thống đó, chẳng hạn như nội dung được tạo trong trường hợp AI tổng quát;
- bảo vệ chống lại sự thiên vị và phân biệt đối xử có thể xảy ra;
- những thách thức bảo mật chưa từng có của các công cụ này.
Đưa ra lời khai trước ủy ban thượng viện Hoa Kỳ vào ngày hôm qua, Altman đã bị các nhà lập pháp Hoa Kỳ chất vấn về cách tiếp cận của công ty để bảo vệ quyền riêng tư và Giám đốc điều hành OpenAI đã tìm cách thu gọn chủ đề là chỉ đề cập đến thông tin do người dùng chatbot AI chủ động cung cấp – ví dụ: , ChatGPT cho phép người dùng chỉ định rằng họ không muốn lịch sử hội thoại của mình được sử dụng làm dữ liệu đào tạo. (Tuy nhiên, một tính năng ban đầu nó không cung cấp.)
Khi được hỏi những bước cụ thể đã được thực hiện để bảo vệ quyền riêng tư, Altman nói với ủy ban thượng viện: “Chúng tôi không đào tạo về bất kỳ dữ liệu nào được gửi tới API của chúng tôi. Vì vậy, nếu bạn là khách hàng doanh nghiệp của chúng tôi và gửi dữ liệu, chúng tôi hoàn toàn không đào tạo về nó… Nếu bạn sử dụng ChatGPT, bạn có thể chọn không tham gia khóa đào tạo của chúng tôi về dữ liệu của bạn. Bạn cũng có thể xóa lịch sử hội thoại hoặc toàn bộ tài khoản của mình.”
Nhưng anh ấy không có gì để nói về dữ liệu được sử dụng để đào tạo mô hình ngay từ đầu.
Định nghĩa hạn hẹp của Altman về ý nghĩa của quyền riêng tư đã bỏ qua câu hỏi cơ bản về tính hợp pháp của dữ liệu đào tạo. Nếu bạn muốn, hãy gọi đó là ‘tội lỗi riêng tư ban đầu’ của AI tổng quát. Nhưng rõ ràng là việc loại bỏ chủ đề này sẽ ngày càng khó khăn hơn đối với OpenAI và công việc thu thập dữ liệu của nó khi các cơ quan quản lý ở Châu Âu bắt đầu thực thi luật bảo mật hiện có của khu vực trên các hệ thống AI mạnh mẽ.
Trong trường hợp của OpenAI, nó sẽ tiếp tục phải tuân theo một loạt các phương pháp thực thi chắp vá trên khắp châu Âu vì nó không có cơ sở vững chắc trong khu vực — điều mà cơ chế một cửa của GDPR không áp dụng (như thường áp dụng cho Big Tech ) nên bất kỳ DPA nào cũng có thẩm quyền điều chỉnh nếu họ tin rằng dữ liệu của người dùng cục bộ đang được xử lý và quyền của họ đang gặp rủi ro. Vì vậy, trong khi Ý gặp khó khăn vào đầu năm nay với sự can thiệp vào ChatGPT, áp đặt lệnh ngừng xử lý song song với việc mở cuộc điều tra về công cụ này, cơ quan giám sát của Pháp chỉ công bố một cuộc điều tra vào tháng 4, để đáp lại các khiếu nại. (Tây Ban Nha cũng cho biết họ đang thăm dò công nghệ, một lần nữa mà chưa có bất kỳ hành động bổ sung nào.)
Trong một sự khác biệt khác giữa các DPA của EU, CNIL dường như quan tâm đến việc thẩm vấn một loạt các vấn đề hơn là Danh sách sơ bộ của Ý — bao gồm cả việc xem xét cách áp dụng nguyên tắc giới hạn mục đích của GDPR cho các mô hình ngôn ngữ lớn như ChatGPT. Điều này cho thấy rằng cuối cùng nó có thể yêu cầu một loạt các thay đổi hoạt động mở rộng hơn nếu nó kết luận rằng GDPR đang bị vi phạm.
“CNIL sẽ sớm đệ trình một bản hướng dẫn về các quy tắc áp dụng cho việc chia sẻ và sử dụng lại dữ liệu,” nó viết. “Công việc này sẽ bao gồm vấn đề sử dụng lại dữ liệu có thể truy cập miễn phí trên internet và hiện được sử dụng để học nhiều mô hình AI. Do đó, hướng dẫn này sẽ phù hợp với một số quy trình xử lý dữ liệu cần thiết cho việc thiết kế các hệ thống AI, bao gồm cả các AI tổng quát.
“Nó cũng sẽ tiếp tục công việc thiết kế hệ thống AI và xây dựng cơ sở dữ liệu cho máy học. Những điều này sẽ tạo ra một số ấn phẩm bắt đầu từ mùa hè năm 2023, sau cuộc tham vấn đã được tổ chức với một số bên tham gia, nhằm đưa ra các khuyến nghị cụ thể, đặc biệt là liên quan đến thiết kế các hệ thống AI như ChatGPT.”
Đây là phần còn lại của các chủ đề mà CNIL cho biết sẽ được giải quyết “dần dần” thông qua các ấn phẩm trong tương lai và hướng dẫn AI mà nó tạo ra:
- việc sử dụng hệ thống NCKH để thiết lập và tái sử dụng cơ sở dữ liệu đào tạo;
- việc áp dụng nguyên tắc mục đích cho các AI có mục đích chung và các mô hình nền tảng như mô hình ngôn ngữ lớn;
- giải thích về việc chia sẻ trách nhiệm giữa các thực thể tạo nên cơ sở dữ liệu, những thực thể tạo ra các mô hình từ dữ liệu đó và những thực thể sử dụng các mô hình đó;
- các quy tắc và thực tiễn tốt nhất áp dụng cho việc lựa chọn dữ liệu để đào tạo, có tính đến các nguyên tắc về độ chính xác và giảm thiểu dữ liệu;
- quản lý quyền của các cá nhân, đặc biệt là quyền tiếp cận, cải chính và phản đối;
- các quy tắc áp dụng về thời hạn sử dụng, đặc biệt đối với các cơ sở đào tạo và các mô hình phức tạp nhất sẽ được sử dụng;
- cuối cùng, nhận thức được rằng các vấn đề do hệ thống trí tuệ nhân tạo đặt ra không dừng lại ở ý tưởng của họ, CNIL cũng đang theo đuổi mục tiêu của mình. phản ánh đạo đức (sau một báo cáo được xuất bản vào năm 2017) về việc sử dụng và chia sẻ các mô hình học máy, ngăn chặn và sửa chữa các thành kiến và phân biệt đối xử hoặc chứng nhận hệ thống AI.
Về kiểm toán và kiểm soát các hệ thống AI, cơ quan quản lý của Pháp quy định rằng các hành động của họ trong năm nay sẽ tập trung vào ba lĩnh vực: vị trí về việc sử dụng giám sát video ‘nâng cao’, được xuất bản vào năm 2022; việc sử dụng AI để chống gian lận (chẳng hạn như gian lận bảo hiểm xã hội); và điều tra khiếu nại.
Nó cũng xác nhận rằng nó đã nhận được khiếu nại về khuôn khổ pháp lý cho việc đào tạo và sử dụng AI tổng quát — và cho biết nó đang làm việc để làm rõ điều đó.
“Đặc biệt, CNIL đã nhận được một số khiếu nại chống lại công ty OpenAI quản lý dịch vụ ChatGPT và đã mở một quy trình kiểm soát,” nó cho biết thêm, đồng thời lưu ý đến sự tồn tại của một nhóm làm việc chuyên dụng gần đây đã được thành lập trong Ban bảo vệ dữ liệu châu Âu để cố gắng điều phối cách các cơ quan chức năng châu Âu khác nhau tiếp cận việc điều chỉnh chatbot AI (và tạo ra thứ mà nó gọi là “phân tích hài hòa về quá trình xử lý dữ liệu được triển khai bởi công cụ OpenAI”).
Để cảnh báo thêm cho các nhà sản xuất hệ thống AI chưa bao giờ xin phép mọi người sử dụng dữ liệu của họ và có thể hy vọng được tha thứ trong tương lai, CNIL lưu ý rằng họ sẽ đặc biệt chú ý đến việc liệu các thực thể xử lý dữ liệu cá nhân có phát triển, đào tạo hay sử dụng hay không. Hệ thống AI có:
- thực hiện Đánh giá tác động bảo vệ dữ liệu để ghi lại các rủi ro và thực hiện các biện pháp giảm thiểu chúng;
- có biện pháp thông báo cho người dân biết;
- các biện pháp dự kiến để thực hiện các quyền của con người phù hợp với bối cảnh cụ thể này.
Vì vậy, er, đừng nói rằng bạn không được cảnh báo!
Đối với việc hỗ trợ những người chơi AI sáng tạo muốn tuân thủ các quy tắc (và giá trị) của Châu Âu, CNIL đã thiết lập và vận hành một hộp cát quy định trong vài năm — và điều đó đang khuyến khích các công ty và nhà nghiên cứu AI đang làm việc để phát triển các hệ thống AI chơi tốt đẹp với các quy tắc bảo vệ dữ liệu cá nhân để liên lạc (thông qua [email protected]).
[ad_2]