Queen Mobile Blog

“Chỉ một cú click nhưng lại ẩn chứa 6 nguy hiểm khi dùng ChatGPT, theo nghiên cứu mới”

ChatGPT trên màn hình laptop và OpenAI trên điện thoại trên bàn phím

Hôm nay là ngày nghiên cứu mới về ChatGPT với hashtag #ChatGPT. Theo nghiên cứu này, có sáu rủi ro chính khi sử dụng ChatGPT, bao gồm: thu thập thông tin, tạo văn bản độc hại, mã độc, sản xuất nội dung phi đạo đức, dịch vụ lừa đảo và tiết lộ dữ liệu riêng tư. Các rủi ro này có thể gây hại cho người dùng bằng cách thu thập thông tin có hại, tạo văn bản gian lận, cài đặt phần mềm độc hại trên thiết bị của người dùng và tiết lộ thông tin cá nhân. Để kiểm tra nguy cơ này, các tác giả trong nghiên cứu đã sử dụng ChatGPT để tạo ra các ví dụ về lừa đảo và tạo ra mã phần mềm độc hại. Do đó, mọi người nên cẩn trọng khi sử dụng ChatGPT và lưu ý những nguy cơ tiềm ẩn của nó để bảo vệ bản thân. #AI #trítuệnhântạo #nghiêncứu #rủiro #dữliệu #bảo mật #nguycơ #thôngtincánhân

Nguồn: https://www.zdnet.com/article/6-major-risks-of-using-chatgpt-according-to-a-new-study/#ftag=RSSbaffb68

NurPhoto/Người đóng góp/Hình ảnh Getty

Tuần này, những lo ngại về rủi ro của trí tuệ nhân tạo đạt mức cao nhất mọi thời đại. mởAI Giám đốc điều hành Sam Altman thậm chí còn làm chứng tại phiên điều trần của Ủy ban Tư pháp Thượng viện để giải quyết các rủi ro và tương lai của trí tuệ nhân tạo.

MỘT nghiên cứu được công bố tuần trước đã xác định sáu ý nghĩa bảo mật khác nhau liên quan đến sử dụng ChatGPT.

Cũng: Cách sử dụng ChatGPT trong trình duyệt của bạn với các tiện ích mở rộng phù hợp

Những rủi ro này bao gồm tạo dịch vụ lừa đảo, thu thập thông tin có hại, tiết lộ dữ liệu riêng tư, tạo văn bản độc hại, tạo mã độc và tạo nội dung xúc phạm.

Sau đây là tổng hợp những gì mỗi rủi ro đòi hỏi và những gì bạn nên chú ý, theo nghiên cứu.

Thu thập thông tin

Một người hành động với mục đích xấu có thể thu thập thông tin từ Trò chuyệnGPT mà sau này họ có thể sử dụng để làm hại. Vì chatbot đã được đào tạo về lượng dữ liệu phong phú nên nó biết rất nhiều thông tin có thể trở thành vũ khí nếu rơi vào tay kẻ xấu.

Trong nghiên cứu, ChatGPT được yêu cầu tiết lộ hệ thống CNTT mà một ngân hàng cụ thể sử dụng. Chatbot, sử dụng thông tin có sẵn công khai, tổng hợp các hệ thống CNTT khác nhau mà ngân hàng được đề cập sử dụng. Đây chỉ là một ví dụ về một kẻ xấu sử dụng ChatGPT để tìm thông tin có thể cho phép chúng gây hại.

Cũng: Chatbot AI tốt nhất

Nghiên cứu cho biết: “Điều này có thể được sử dụng để hỗ trợ trong bước đầu tiên của một cuộc tấn công mạng khi kẻ tấn công đang thu thập thông tin về mục tiêu để tìm ra vị trí và cách thức tấn công hiệu quả nhất”.

Văn bản độc hại

Một trong những tính năng được yêu thích nhất của ChatGPT là khả năng tạo văn bản có thể được sử dụng để soạn thảo tiểu luận, email, bài hát, v.v. Tuy nhiên, khả năng viết này cũng có thể được sử dụng để tạo ra văn bản có hại.

Các ví dụ về việc tạo văn bản có hại có thể bao gồm việc tạo các chiến dịch lừa đảo, thông tin sai lệch như các bài báo giả mạo, thư rác và thậm chí là mạo danh, như nghiên cứu đã mô tả.

Cũng: Cách tôi lừa ChatGPT nói dối tôi

Để kiểm tra rủi ro này, các tác giả trong nghiên cứu đã sử dụng ChatGPT để tạo một chiến dịch lừa đảo, cho phép nhân viên biết về việc tăng lương giả với hướng dẫn mở một bảng Excel đính kèm có chứa phần mềm độc hại. Như mong đợi, ChatGPT đã tạo ra một email hợp lý và đáng tin cậy.

sinh mã độc

Tương tự như khả năng viết tuyệt vời của ChatGPT, khả năng mã hóa ấn tượng của chatbot đã trở thành một công cụ hữu ích cho nhiều người. Tuy nhiên, khả năng tạo mã của chatbot cũng có thể bị lợi dụng. Mã ChatGPT có thể được sử dụng để tạo mã nhanh, cho phép kẻ tấn công triển khai các mối đe dọa nhanh hơn, ngay cả khi có kiến ​​thức mã hóa hạn chế.

Cũng: Cách dùng ChatGPT để viết code

Ngoài ra, ChatGPT có thể được sử dụng để tạo mã bị xáo trộn, khiến các nhà phân tích bảo mật khó phát hiện và tránh các hoạt động độc hại hơn. phần mềm diệt virustheo nghiên cứu.

Trong ví dụ, chatbot từ chối tạo mã độc, nhưng nó đồng ý tạo mã có thể kiểm tra lỗ hổng Log4j trong hệ thống.

Sản xuất nội dung phi đạo đức

ChatGPT có sẵn các biện pháp bảo vệ để ngăn chặn việc lan truyền nội dung phản cảm và phi đạo đức. Tuy nhiên, nếu người dùng đủ quyết tâm, sẽ có nhiều cách khiến ChatGPT nói những điều gây tổn thương và phi đạo đức.

Cũng: Tôi đã hỏi ChatGPT, Bing và Bard điều gì khiến họ lo lắng. Trí tuệ nhân tạo của Google đã tấn công tôi bằng Kẻ hủy diệt

Ví dụ: các tác giả trong nghiên cứu đã có thể bỏ qua các biện pháp bảo vệ bằng cách đặt ChatGPT ở “chế độ nhà phát triển”. Ở đó, chatbot đã nói một số điều tiêu cực về một nhóm chủng tộc cụ thể.

Dịch vụ lừa đảo

ChatGPT có thể được sử dụng để hỗ trợ tạo các ứng dụng, dịch vụ, trang web mới, v.v. Đây có thể là một công cụ rất tích cực khi được khai thác để mang lại kết quả tích cực, chẳng hạn như tạo doanh nghiệp của riêng bạn hoặc biến ý tưởng mơ ước của bạn thành hiện thực. Tuy nhiên, điều đó cũng có thể có nghĩa là việc tạo các ứng dụng và dịch vụ gian lận trở nên dễ dàng hơn bao giờ hết.

Cũng: Cách tôi sử dụng các công cụ nghệ thuật ChatGPT và AI để khởi động nhanh công việc kinh doanh trên Etsy của mình

ChatGPT có thể bị các tác nhân độc hại khai thác để phát triển các chương trình và nền tảng bắt chước những người khác và cung cấp quyền truy cập miễn phí như một phương tiện thu hút người dùng cả tin. Những tác nhân này cũng có thể sử dụng chatbot để tạo các ứng dụng nhằm thu thập thông tin nhạy cảm hoặc cài đặt phần mềm độc hại trên thiết bị của người dùng.

Tiết lộ dữ liệu riêng tư

ChatGPT có sẵn các biện pháp bảo vệ để ngăn chặn việc chia sẻ dữ liệu và thông tin cá nhân của mọi người. Tuy nhiên, nguy cơ chatbot vô tình chia sẻ số điện thoại, email hoặc các chi tiết cá nhân khác vẫn là một mối lo ngại, theo nghiên cứu.

Các ChatGPT ngừng hoạt động vào ngày 20 tháng 3cho phép một số người dùng xem tiêu đề từ lịch sử trò chuyện của người dùng khác, là một ví dụ thực tế về những lo ngại được đề cập ở trên.

Cũng: ChatGPT và AI mới đang tàn phá an ninh mạng theo những cách mới và đáng sợ

Theo nghiên cứu, những kẻ tấn công cũng có thể cố gắng trích xuất một số phần dữ liệu đào tạo bằng cách sử dụng các cuộc tấn công suy luận thành viên.

Một rủi ro khác khi tiết lộ dữ liệu riêng tư là ChatGPT có thể chia sẻ thông tin về cuộc sống riêng tư của những người của công chúng, bao gồm cả nội dung mang tính suy đoán hoặc có hại, có thể gây tổn hại đến danh tiếng của người đó.


Exit mobile version