Nhóm nhiệm vụ ChatGPT của Liên minh châu Âu tiết lộ thông tin đầu tiên về việc giải quyết tuân thủ quyền riêng tư của chatbot AI

Nhóm nhiệm vụ ChatGPT của Liên minh châu Âu giới thiệu cái nhìn đầu tiên về việc giải quyết tuân thủ quyền riêng tư của chatbot AI Một nhóm nhiệm vụ bảo vệ dữ liệu đã dành hơn một năm để xem xét làm thế nào nguyên tắc bảo vệ dữ liệu của Liên minh châu Âu được áp dụng vào chatbot phổ biến của OpenAI, ChatGPT, đã báo cáo các kết luận sơ bộ vào ngày Thứ Sáu. Điểm chính là nhóm làm việc của những người thực thi quyền riêng tư vẫn chưa quyết định được các vấn đề pháp lý chính như sự hợp pháp và công bằng của việc xử lý của OpenAI. Vấn đề này quan trọng vì mức phạt cho vi phạm đã được xác nhận của chế độ bảo vệ quyền riêng tư của khối có thể lên đến 4% doanh số hàng năm toàn cầu. Các cơ quan giám sát cũng có thể yêu cầu dừng việc xử lý không tuân thủ. Vì thế — trong lý thuyết — OpenAI đang đối diện với rủi ro quy định đáng kể trong khu vực vào thời điểm mà các luật riêng cho AI hiện nay đang ít ỏi (và, ngay cả trong trường hợp của Liên minh châu Âu, còn nhiều năm nữa mới hoàn toàn hoạt động). Nhưng mà không có sự rõ ràng từ các cơ quan thi hành pháp luật bảo vệ dữ liệu của Liên minh châu Âu về cách áp dụng các luật bảo vệ dữ liệu hiện tại vào ChatGPT, nếu không có, có thể chắc chắn rằng OpenAI sẽ tiếp tục hoạt động như thường lệ — mặc dù có một số phàn nàn rằng công nghệ của họ vi phạm các khía cạnh của Nghị định về bảo vệ dữ liệu chung (GDPR) của khối. Ví dụ, cuộc điều tra này từ cơ quan bảo vệ dữ liệu của Ba Lan đã được mở sau khi có một phàn nàn về chatbot tạo ra thông tin về một cá nhân và từ chối sửa lỗi. Một phàn nàn tương tự cũng đã được gửi ở Áo. Rất nhiều phàn nàn ve GDPR, nhưng ít quá trình thi hành luật Trên giấy, GDPR áp dụng khi dữ liệu cá nhân được thu thập và xử lý — một điều mà các mô hình ngôn ngữ lớn (LLMs) như GPT của OpenAI, mô hình AI đứng sau ChatGPT, đôi khi thực hiện ở quy mô lớn khi chúng thu thập dữ liệu từ internet công cộng để huấn luyện mô hình của họ, bao gồm việc thu thập bài viết của mọi người trên các nền tảng truyền thông xã hội. Luật của Liên minh cũng trao quyền cho cơ quan GIám sát dữ liệu để yêu cầu dừng việc xử lý không tuân thủ. Điều này có thể là một quả ruột rất mạnh mẽ để hình thành cách mà gigant AI đứng sau ChatGPT có thể hoạt động trong khu vực nếu các cơ quan thi hành GDPR quyết định kích nó. Thật vậy, chúng tôi đã nhìn thấy một phản chiếu của điều này năm ngoái khi cơ quan giám sát quyền riêng tư của Ý đã trừng phạt OpenAI bằng một lệnh cấm tạm thời về việc xử lý dữ liệu của người dùng địa phương của ChatGPT. Hành động này, sử dụng quyền lực khẩn cấp chứa trong GDPR, dẫn đến gigant AI tạm thời đóng dịch vụ này ở nước này. ChatGPT chỉ khôi phục hoạt động ở Ý sau khi OpenAI thực hiện các thay đổi về thông tin và kiểm soát mà nó cung cấp cho người dùng phản hồi theo một số yêu cầu của cơ quan bảo vệ dữ liệu. Nhưng cuộc điều tra về chatbot này của Ý, bao gồm những vấn đề chính như cơ sở pháp lý mà OpenAI tuyên bố để xử lý dữ liệu của người dùng để huấn luyện mô hình AI của mình ban đầu, vẫn đang diễn ra. Vì thế, công cụ vẫn ở dưới một đám mây pháp lý ở Liên minh châu Âu. Dưới GDPR, bất cứ tổ chức nào muốn xử lý dữ liệu về người phải có cơ sở pháp lý cho hoạt động đó. Nghị định xác định sáu cơ sở có thể — mặc dù hầu hết không khả dụng trong ngữ cảnh của OpenAI. Và cơ quan bảo vệ dữ liệu của Ý đã chỉ dẫn cho gigant AI rằng nó không thể dựa vào việc tuyên bố sự cần thiết hợp đồng đê xử lý dữ liệu của người dùng để huấn luyện AIs của mình — để lại cho nó chỉ có hai cơ sở pháp lý khả dụng: hoặc sự đồng thuận (cụ thể là hỏi xin sự cho phép của người dùng để sử dụng dữ liệu của họ); hoặc một cơ sở pháp lý rộng lớn gọi là quyền lợi hợp pháp, cơ sở đòi hỏi một bài kiểm tra cân nhắc và đòi hỏi điều khiển để cho phép người dùng phản đối việc xử lý. Kể từ sau can thiếp của Ý, OpenAI dường như đã chuyển sang tuyên bố rằng nó có một quyền lợi hợp pháp cho việc xử lý dữ liệu cá nhân được sử dụng để huấn luyện mô hình của mình. Tuy nhiên, vào tháng Một, quyết định thảo luận của cơ quan bảo vệ dữ liệu về cuộc điều tra của nó đã cho thấy OpenAI đã vi phạm GDPR. Mặc dù không có chi tiết của những kết luận tả liệu được xuất bản nên chúng ta chưa xem xét toàn bộ đánh giá của cơ quan về điểm cơ sở pháp lý. Một quyết định cuối cùng về complaint này vẫn đang chờ xem xét. Một ‘sửa chữa’ chính xác cho sự hợp pháp của ChatGPT? Báo cáo của nhóm nhiệm vụ bàn luận về vấn đề hợp pháp phức tạp này, nhấn mạnh ChatGPT cần có một cơ sở pháp lý hợp lệ cho tất cả các giai đoạn của việc xử lý dữ liệu cá nhân — bao gồm việc thu thập dữ liệu huấn luyện; xử lý trước dữ liệu (như lọc); huấn luyện chính; thông điệp và đầu ra của ChatGPT; và bất kỳ huấn luyện trên các đầu vào ChatGPT. Ba giai đoạn đầu trong danh sách mang theo những “rủi ro đặc biệt” cho quyền căn bản của mọi người — với báo cáo nhấn mạnh cách tự động và điều lệ truy cập dữ liệu trang web có thể dẫn đến lượng lớn dữ liệu cá nhân được ăn nhận, bao gồm nhiều khía cạnh của cuộc sống của mọi người. Nó cũng lưu ý rằng dữ liệu được thu dọc có thể bao gồm các loại dữ liệu cá nhân nhạy cảm nhất (mà GDPR gọi là “dữ liệu loại đặc biệt”), như thông tin sức khỏe, tình dục, quan điểm chính trị v.v, yêu cầu một mức thanh lọc pháp lý cao hơn để xử lý hơn dữ liệu cá nhân chung. Đối với dữ liệu loại đặc biệt, nhóm nhiệm vụ cũng khẳng định rằng chỉ vì nó là công cộng không có nghĩa là có thể được coi là đã được làm cho “mãn túng” công cộng — điều này sẽ kích hoạt một ngoại lệ từ yêu cầu của GDPR yêu cầu sự đồng thuận rõ ràng để xử lý loại dữ liệu này. (“Để dựa vào ngoại lệ được quy định tại Điều 9(2)(e) GDPR, quan trọng để xác định liệu người liên quan dự kiện, một cách rõ ràng và cắt quanh, để cho phép dữ liệu cá nhân liên quan trở thành dễ truy cập cho công chúng tổng thể,” nó viết về vấn đề này.) Để dựa vào LI là cơ sở pháp lý của mình nói chung, OpenAI cần chứng minh nó cần xử lý dữ liệu; xử lý cũng phải được giới hạn vào những gì cần thiết cho nhu cầu này; và nó phải thực hiện một bài kiểm tra cân nhắc, cân nhắc quyền lợi hợp pháp của mình trong quá trình xử lý so với quyền lợi và tự do của các chủ thể dữ liệu (tức là người mà dữ liệu nói về). Ở đây, nhóm nhiệm vụ có một đề xuất khác, viết rằng “chế biến đúng” — như “biện pháp kỹ thuật”, xác định “tiêu chí thu thập chính xác” và không cho phép một số hạng mục hoặc nguồn dữ liệu (như hồ sơ truyền thông xã hội), để cho phép làm cho ít dữ liệu được thu thập trong quá trình đầu tiên để giảm tác động đến cá nhân — có thể “thay đổi bài kiểm tra cân nhắc vào hướng của điều khiển,” nó viết. Cách tiếp cận này có thể buộc các công ty AI phải quan tâm hơn về cách và những gì dữ liệu họ thu thập để giới hạn các rủi ro về quyền riêng tư. “Hơn nữa, cần có các biện pháp để xóa hoặc ẩn danh dữ liệu cá nhân đã được thu thập thông qua việc lượm dữ liệu internet trước khi giai đoạn đào tạo,” nhóm nhiệm vụ cũng đề suất. OpenAI cũng đang muốn dựa vào LI để xử lý dữ liệu nhập của người dùng ChatGPT cho việc huấn luyện mô hình. Về vấn đề này, báo cáo nhấn mạnh việc cần phải thông báo một cách “rõ ràng và có chứng minh” cho người dùng nội dung này có thể được sử dụng cho mục đích huấn luyện — lưu ý đây là một trong những yếu tố sẽ được cân nhắc trong bài kiểm tra cân nhắc cho LI. Việc này sẽ phụ thuộc vào các cơ quan bảo vệ dữ liệu cá nhân xem xét phàn nàn quyết định xem gigant AI đã thực hiện các yêu cầu để thực sự có thể dựa vào LI hay không. Nếu không thể, nhà sản xuất ChatGPT sẽ chỉ còn một lựa chọn pháp lý duy nhất tại Liên minh châu Âu: yêu cầu sự đồng thuận từ công dân. Và với số lượng dữ liệu của nhiều người được dự đoán thực sự chứa trong các tập dữ liệu huấn luyện, không rõ điều đó có khả thi không. (Các hợp đồng mà gigant AI đang cắt chẳng mấy với các tờ báo để cấp phép báo chí của họ, trong khi đó, không sẽ không biến chúng ra một mẫu giấy phép cho dữ liệu cá nhân của người châu Âu vì pháp luật không cho phép mọi người bán chú nguyên thuỷ; sự đồng thuận phải được cho tự nguyện.) Công bằng và minh bạch không phải là tùy chọn Ở nơi khác, về nguyên tắc về công bằng của GDPR, báo cáo của nhóm nhiệm vụ nhấn mạnh rằng rủi ro về quyền riêng tư không thể được chuyển giao cho người dùng, ví dụ bằng cách nhúng một điều khoản trong các Điều khoản và Điều kiện rằng “ác quyền thủ dữ liệu chịu trách nghiệm cho các nội dung chat của họ”. “OpenAI vẫn phải chịu trách nhiệm cho việc tuân thủ với GDPR và không nên vì điều khoản của người dùng đã cấm việc thu thập dữ liệu cá nhân từđầu,” nó bổ sung. Về nghĩa vụ minh bạch, nhóm nhiệm vụ có vẻ nhận ra rằng OpenAI có thể sử dụng một ngoại lệ (GDPR Điều 14(5)(b)) để thông báo cho cá nhân về dữ liệu được thu thập

Nguồn: https://techcrunch.com/2024/05/27/eus-chatgpt-taskforce-offers-first-look-at-detangling-the-ai-chatbots-privacy-compliance/

A data protection taskforce that’s spent over a year considering how the European Union’s data protection rulebook applies to OpenAI’s viral chatbot, ChatGPT, reported preliminary conclusions Friday. The top-line takeaway is that the working group of privacy enforcers remains undecided on crux legal issues, such as the lawfulness and fairness of OpenAI’s processing.

The issue is important as penalties for confirmed violations of the bloc’s privacy regime can reach up to 4% of global annual turnover. Watchdogs can also order non-compliant processing to stop. So — in theory — OpenAI is facing considerable regulatory risk in the region at a time when dedicated laws for AI are thin on the ground (and, even in the EU’s case, years away from being fully operational).

But without clarity from EU data protection enforcers on how current data protection laws apply to ChatGPT, it’s a safe bet that OpenAI will feel empowered to continue business as usual — despite the existence of a growing number of complaints its technology violates various aspects of the bloc’s General Data Protection Regulation (GDPR).

For example, this investigation from Poland’s data protection authority (DPA) was opened following a complaint about the chatbot making up information about an individual and refusing to correct the errors. A similar complaint was recently lodged in Austria.

Lots of GDPR complaints, a lot less enforcement

On paper, the GDPR applies whenever personal data is collected and processed — something large language models (LLMs) like OpenAI’s GPT, the AI model behind ChatGPT, are demonstrably doing at vast scale when they scrape data off the public internet to train their models, including by syphoning people’s posts off social media platforms.

The EU regulation also empowers DPAs to order any non-compliant processing to stop. This could be a very powerful lever for shaping how the AI giant behind ChatGPT can operate in the region if GDPR enforcers choose to pull it.

Indeed, we saw a glimpse of this last year when Italy’s privacy watchdog hit OpenAI with a temporary ban on processing the data of local users of ChatGPT. The action, taken using emergency powers contained in the GDPR, led to the AI giant briefly shutting down the service in the country.

ChatGPT only resumed in Italy after OpenAI made changes to the information and controls it provides to users in response to a list of demands by the DPA. But the Italian investigation into the chatbot, including crux issues like the legal basis OpenAI claims for processing people’s data to train its AI models in the first place, continues. So the tool remains under a legal cloud in the EU.

Under the GDPR, any entity that wants to process data about people must have a legal basis for the operation. The regulation sets out six possible bases — though most are not available in OpenAI’s context. And the Italian DPA already instructed the AI giant it cannot rely on claiming a contractual necessity to process people’s data to train its AIs — leaving it with just two possible legal bases: either consent (i.e. asking users for permission to use their data); or a wide-ranging basis called legitimate interests (LI), which demands a balancing test and requires the controller to allow users to object to the processing.

Since Italy’s intervention, OpenAI appears to have switched to claiming it has a LI for processing personal data used for model training. However, in January, the DPA’s draft decision on its investigation found OpenAI had violated the GDPR. Although no details of the draft findings were published so we have yet to see the authority’s full assessment on the legal basis point. A final decision on the complaint remains pending.

A precision ‘fix’ for ChatGPT’s lawfulness?

The taskforce’s report discusses this knotty lawfulness issue, pointing out ChatGPT needs a valid legal basis for all stages of personal data processing — including collection of training data; pre-processing of the data (such as filtering); training itself; prompts and ChatGPT outputs; and any training on ChatGPT prompts.

The first three of the listed stages carry what the taskforce couches as “peculiar risks” for people’s fundamental rights — with the report highlighting how the scale and automation of web scraping can lead to large volumes of personal data being ingested, covering many aspects of people’s lives. It also notes scraped data may include the most sensitive types of personal data (which the GDPR refers to as “special category data”), such as health info, sexuality, political views etc, which requires an even higher legal bar for processing than general personal data.

On special category data, the taskforce also asserts that just because it’s public does not mean it can be considered to have been made “manifestly” public — which would trigger an exemption from the GDPR requirement for explicit consent to process this type of data. (“In order to rely on the exception laid down in Article 9(2)(e) GDPR, it is important to ascertain whether the data subject had intended, explicitly and by a clear affirmative action, to make the personal data in question accessible to the general public,” it writes on this.)

To rely on LI as its legal basis in general, OpenAI needs to demonstrate it needs to process the data; the processing should also be limited to what is necessary for this need; and it must undertake a balancing test, weighing its legitimate interests in the processing against the rights and freedoms of the data subjects (i.e. people the data is about).

Here, the taskforce has another suggestion, writing that “adequate safeguards” — such as “technical measures”, defining “precise collection criteria” and/or blocking out certain data categories or sources (like social media profiles), to allow for less data to be collected in the first place to reduce impacts on individuals — could “change the balancing test in favor of the controller”, as it puts it.

This approach could force AI companies to take more care about how and what data they collect to limit privacy risks.

“Furthermore, measures should be in place to delete or anonymise personal data that has been collected via web scraping before the training stage,” the taskforce also suggests.

OpenAI is also seeking to rely on LI for processing ChatGPT users’ prompt data for model training. On this, the report emphasizes the need for users to be “clearly and demonstrably informed” such content may be used for training purposes — noting this is one of the factors that would be considered in the balancing test for LI.

It will be up to the individual DPAs assessing complaints to decide if the AI giant has fulfilled the requirements to actually be able to rely on LI. If it can’t, ChatGPT’s maker would be left with only one legal option in the EU: asking citizens for consent. And given how many people’s data is likely contained in training data-sets it’s unclear how workable that would be. (Deals the AI giant is fast cutting with news publishers to license their journalism, meanwhile, wouldn’t translate into a template for licensing European’s personal data as the law doesn’t allow people to sell their consent; consent must be freely given.)

Fairness & transparency aren’t optional

Elsewhere, on the GDPR’s fairness principle, the taskforce’s report stresses that privacy risk cannot be transferred to the user, such as by embedding a clause in T&Cs that “data subjects are responsible for their chat inputs”.

“OpenAI remains responsible for complying with the GDPR and should not argue that the input of certain personal data was prohibited in first place,” it adds.

On transparency obligations, the taskforce appears to accept OpenAI could make use of an exemption (GDPR Article 14(5)(b)) to notify individuals about data collected about them, given the scale of the web scraping involved in acquiring data-sets to train LLMs. But its report reiterates the “particular importance” of informing users their inputs may be used for training purposes.

The report also touches on the issue of ChatGPT ‘hallucinating’ (making information up), warning that the GDPR “principle of data accuracy must be complied with” — and emphasizing the need for OpenAI to therefore provide “proper information” on the “probabilistic output” of the chatbot and its “limited level of reliability”.

The taskforce also suggests OpenAI provides users with an “explicit reference” that generated text “may be biased or made up”.

On data subject rights, such as the right to rectification of personal data — which has been the focus of a number of GDPR complaints about ChatGPT — the report describes it as “imperative” people are able to easily exercise their rights. It also observes limitations in OpenAI’s current approach, including the fact it does not let users have incorrect personal information generated about them corrected, but only offers to block the generation.

However the taskforce does not offer clear guidance on how OpenAI can improve the “modalities” it offers users to exercise their data rights — it just makes a generic recommendation the company applies “appropriate measures designed to implement data protection principles in an effective manner” and “necessary safeguards” to meet the requirements of the GDPR and protect the rights of data subjects”. Which sounds a lot like ‘we don’t know how to fix this either’.

ChatGPT GDPR enforcement on ice?

The ChatGPT taskforce was set up, back in April 2023, on the heels of Italy’s headline-grabbing intervention on OpenAI, with the aim of streamlining enforcement of the bloc’s privacy rules on the nascent technology. The taskforce operates within a regulatory body called the European Data Protection Board (EDPB), which steers application of EU law in this area. Although it’s important to note DPAs remain independent and are competent to enforce the law on their own patch where GDPR enforcement is decentralized.

Despite the indelible independence of DPAs to enforce locally, there is clearly some nervousness/risk aversion among watchdogs about how to respond to a nascent tech like ChatGPT.

Earlier this year, when the Italian DPA announced its draft decision, it made a point of noting its proceeding would “take into account” the work of the EDPB taskforce. And there other signs watchdogs may be more inclined to wait for the working group to weigh in with a final report — maybe in another year’s time — before wading in with their own enforcements. So the taskforce’s mere existence may already be influencing GDPR enforcements on OpenAI’s chatbot by delaying decisions and putting investigations of complaints into the slow lane.

For example, in a recent interview in local media, Poland’s data protection authority suggested its investigation into OpenAI would need to wait for the taskforce to complete its work.

The watchdog did not respond when we asked whether it’s delaying enforcement because of the ChatGPT taskforce’s parallel workstream. While a spokesperson for the EDPB told us the taskforce’s work “does not prejudge the analysis that will be made by each DPA in their respective, ongoing investigations”. But they added: “While DPAs are competent to enforce, the EDPB has an important role to play in promoting cooperation between DPAs on enforcement.”

As it stands, there looks to be a considerable spectrum of views among DPAs on how urgently they should act on concerns about ChatGPT. So, while Italy’s watchdog made headlines for its swift interventions last year, Ireland’s (now former) data protection commissioner, Helen Dixon, told a Bloomberg conference in 2023 that DPAs shouldn’t rush to ban ChatGPT — arguing they needed to take time to figure out “how to regulate it properly”.

It is likely no accident that OpenAI moved to set up an EU operation in Ireland last fall. The move was quietly followed, in December, by a change to its T&Cs — naming its new Irish entity, OpenAI Ireland Limited, as the regional provider of services such as ChatGPT — setting up a structure whereby the AI giant was able to apply for Ireland’s Data Protection Commission (DPC) to become its lead supervisor for GDPR oversight.

This regulatory-risk-focused legal restructuring appears to have paid off for OpenAI as the EDPB ChatGPT taskforce’s report suggests the company was granted main establishment status as of February 15 this year — allowing it to take advantage of a mechanism in the GDPR called the One-Stop Shop (OSS), which means any cross border complaints arising since then will get funnelled via a lead DPA in the country of main establishment (i.e., in OpenAI’s case, Ireland).

While all this may sound pretty wonky it basically means the AI company can now dodge the risk of further decentralized GDPR enforcement — like we’ve seen in Italy and Poland — as it will be Ireland’s DPC that gets to take decisions on which complaints get investigated, how and when going forward.

The Irish watchdog has gained a reputation for taking a business-friendly approach to enforcing the GDPR on Big Tech. In other words, ‘Big AI’ may be next in line to benefit from Dublin’s largess in interpreting the bloc’s data protection rulebook.

OpenAI was contacted for a response to the EDPB taskforce’s preliminary report but at press time it had not responded.


[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *