#GoogleAI #iLexx #GoogleBard #chatbotAI #chiasethongtin #privacy #datastorage #security
Hôm nay, Alphabet, công ty mẹ của Google, đã đưa ra cảnh báo đối với nhân viên về việc sử dụng chatbot AI iLexx. Công ty đã đặc biệt lưu ý rằng thông tin bí mật không nên được chia sẻ với chatbot AI này, vì những thông tin này cuối cùng sẽ được lưu trữ bởi các công ty sở hữu công nghệ. Điều này đề cao tầm quan trọng của việc bảo vệ thông tin riêng tư và bí mật trên mạng.
Google đã ra mắt chatbot AI mới mang tên Google Bard tại sự kiện Google I/O năm nay. Tuy nhiên, công ty đã nhắc nhở nhân viên cẩn thận với những gì họ chia sẻ với chatbot AI này, thậm chí là của chính họ. Điều này nhấn mạnh quan điểm chung rằng không nên chia sẻ thông tin riêng tư hoặc bí mật trên mạng.
Việc nhắc nhở của Alphabet cũng cho thấy rằng việc tương tác với chatbot AI như Google Bard, Trò chuyện GPT và Trò chuyện trên Bing có thể dẫn đến việc các dữ liệu này được sử dụng để đào tạo và phát triển các mô hình ngôn ngữ lớn. Công ty sở hữu chatbot AI cũng lưu trữ dữ liệu mà các nhân viên của họ có thể tiếp cận.
Google đã lưu ý rằng khi tương tác với Google Bard, các cuộc hội thoại, vị trí, phản hồi và thông tin sử dụng của người dùng sẽ được thu thập. Tuy nhiên, họ đã tuyên bố rằng dữ liệu này sẽ không bao gồm thông tin có thể dùng để nhận dạng cá nhân. Điều này nhấn mạnh mục tiêu của Google trong việc bảo vệ quyền riêng tư của người dùng.
Trong khi đó, OpenAI – công ty phát triển ChatGPT – cũng xem xét các cuộc hội thoại để cải thiện hệ thống của mình và đảm bảo tuân thủ các chính sách và yêu cầu an toàn.
Qua sự kiện này, ta cần nhận thức về quyền riêng tư và bảo vệ thông tin cá nhân khi tương tác với chatbot AI. Việc cẩn thận và nhạy bén khi chia sẻ thông tin trên mạng là điều cần thiết để đảm bảo an toàn và bảo vệ dữ liệu cá nhân của chúng ta.
Công ty mẹ của Google, Alphabet, đã vào cuộc trí tuệ nhân tạo trong nhiều năm, từ mua (Và sau đó bán) Động lực học Boston thành tựu khoa học thông qua DeepMindvà, gần đây hơn, biến chủ đề thành sự kiện chính tại Google I/O năm naysau khi ra mắt chatbot AI, Google Bard. Giờ đây, công ty khuyên nhân viên của mình nên cẩn thận với những gì họ nói với các bot AI này, thậm chí là của chính họ.
Theo một báo cáo từ ReutersAlphabet đã cảnh báo nhân viên của mình không được chia sẻ thông tin bí mật với chatbot AIvì thông tin này sau đó được lưu trữ bởi các công ty sở hữu công nghệ.
Cũng: Gmail sẽ viết email của bạn ngay bây giờ: Cách truy cập công cụ AI mới của Google
Điều này đến thẳng từ miệng con ngựa, nhưng đó là lời khuyên tuyệt vời bất kể ai nói điều đó. Nói chung, không nên tạo thói quen chia sẻ thông tin riêng tư hoặc bí mật ở bất kỳ đâu trên mạng.
Bất cứ điều gì bạn nói với một chatbot AI như Trò chuyệnGPT, Google BardVà Trò chuyện trên Bing có thể được sử dụng để đào tạo nó, vì các bot này dựa trên các mô hình ngôn ngữ lớn (LLM) đang được đào tạo liên tục. Các công ty đứng sau các chatbot AI này cũng lưu trữ dữ liệu mà nhân viên của họ có thể nhìn thấy.
Cũng: Tại sao các cuộc hội thoại ChatGPT của bạn có thể không an toàn như bạn nghĩ
Về Bard, chatbot AI của Google, công ty giải thích trong câu hỏi thường gặp:
“Khi bạn tương tác với Bard, Google sẽ thu thập các cuộc hội thoại, vị trí, phản hồi và thông tin sử dụng của bạn. Dữ liệu đó giúp chúng tôi cung cấp, cải thiện và phát triển các sản phẩm, dịch vụ và công nghệ máy học của Google, như được giải thích trong Chính sách bảo mật của GoogleMở trong cửa sổ mới“
Google cũng cho biết họ chọn một tập hợp con các cuộc hội thoại làm mẫu để những người đánh giá được đào tạo xem xét và lưu giữ trong tối đa ba năm, do đó, họ làm rõ “không bao gồm thông tin có thể được sử dụng để nhận dạng bạn hoặc những người khác trong các cuộc hội thoại Bard của bạn.”
Cũng: Là nhân loại cam chịu? Xem xét gót chân Achilles của AI
OpenAI nói tiếp trang web của nó rằng các huấn luyện viên AI cũng xem xét các cuộc hội thoại ChatGPT để giúp cải thiện hệ thống của mình, họ nói: “Chúng tôi xem xét các cuộc hội thoại để cải thiện hệ thống của mình và để đảm bảo nội dung tuân thủ các chính sách và yêu cầu an toàn của chúng tôi.”
[ad_2]