#sựkiệnngàyhôm nay
ChatGPT và Bing, hai trung tâm liên quan đến công nghệ AI và trí thông minh nhân tạo của Microsoft đang đối mặt với mối đe dọa bảo mật. Với việc các công ty đua nhau nhúng AI tổng quát vào các dịch vụ của họ, các cuộc tấn công tiêm chích gián tiếp đang trở nên phổ biến hơn bao giờ hết.
Các cuộc tấn công này có thể xảy ra thông qua việc nhập dữ liệu từ một trang web khác hoặc tài liệu đã tải lên. Những cuộc tấn công này đơn giản và không yêu cầu nhiều kỹ năng kỹ thuật để thực hiện.
Các chuyên gia bảo mật cảnh báo rằng các cuộc tấn công tiêm nhắc gián tiếp không chỉ đơn thuần là một mối đe dọa lý thuyết mà có thể được thực hiện để lừa đảo mọi người.
Tuy nhiên, các chức năng mà các mô hình AI có thể thực hiện đều có thể bị tấn công hoặc khai thác để cho phép bất kỳ cuộc tấn công tùy ý nào xảy ra. Điều này là một vấn đề nghiêm trọng trong hệ sinh thái và đòi hỏi các nhà phát triển phải chú ý đến việc bảo vệ an toàn và bảo mật cho người dùng.
Việc tiêm nhắc gián tiếp đang được coi là một kiểu tấn công mới mang rủi ro “khá rộng”. Tuy nhiên, hiện chưa có bản sửa lỗi tốt để giải quyết vấn đề này.
Tình trạng này khẳng định lại tầm quan trọng của việc đảm bảo an toàn và bảo mật trong việc phát triển và triển khai các sản phẩm AI.
Nguồn: https://www.wired.com/story/chatgpt-prompt-injection-attack-security/
Giám đốc truyền thông của Microsoft Caitlin Roulston cho biết công ty đang chặn các trang web đáng ngờ và cải thiện hệ thống của mình để lọc các lời nhắc trước khi chúng được đưa vào các mô hình AI của hãng. Roulston không cung cấp thêm chi tiết. Mặc dù vậy, các nhà nghiên cứu bảo mật cho biết các cuộc tấn công tiêm chích gián tiếp cần phải được thực hiện nghiêm túc hơn khi các công ty đua nhau nhúng AI tổng quát vào dịch vụ của họ.
Sahar Abdelnabi, một nhà nghiên cứu tại Trung tâm Bảo mật Thông tin CISPA Helmholtz ở Đức cho biết: “Đại đa số mọi người không nhận ra tác động của mối đe dọa này. Abdelnabi đã làm việc trên một số nghiên cứu tiêm nhắc gián tiếp đầu tiên chống lại Bingcho thấy nó có thể như thế nào dùng để lừa đảo mọi người. “Các cuộc tấn công rất dễ thực hiện và chúng không phải là mối đe dọa lý thuyết. Hiện tại, tôi tin rằng bất kỳ chức năng nào mà mô hình có thể thực hiện đều có thể bị tấn công hoặc khai thác để cho phép bất kỳ cuộc tấn công tùy ý nào,” cô nói.
Tấn công ẩn
Các cuộc tấn công tiêm nhanh gián tiếp tương tự như vượt ngục, một thuật ngữ được thông qua từ việc phá vỡ các hạn chế phần mềm trên iPhone trước đây. Thay vì ai đó chèn lời nhắc vào ChatGPT hoặc Bing để thử và làm cho nó hoạt động theo một cách khác, các cuộc tấn công gián tiếp dựa vào dữ liệu được nhập từ nơi khác. Đây có thể là từ một trang web mà bạn đã kết nối mô hình với hoặc một tài liệu đang được tải lên.
Jose Selvi, chuyên gia tư vấn bảo mật chính của công ty an ninh mạng NCC Group cho biết: “Prompt injection dễ khai thác hơn hoặc có ít yêu cầu hơn để khai thác thành công so với các loại tấn công khác” nhằm vào hệ thống máy học hoặc AI. Vì lời nhắc chỉ yêu cầu ngôn ngữ tự nhiên, nên các cuộc tấn công có thể yêu cầu ít kỹ năng kỹ thuật hơn để thực hiện, Selvi nói.
Số lượng các nhà nghiên cứu bảo mật và kỹ thuật viên tìm kiếm lỗ hổng trong LLM ngày càng tăng. Tom Bonner, giám đốc cấp cao của nghiên cứu máy học đối thủ tại công ty bảo mật AI Hidden Layer, cho biết việc tiêm nhắc gián tiếp có thể được coi là một kiểu tấn công mới mang rủi ro “khá rộng”. Bonner nói rằng anh ấy đã sử dụng ChatGPT để viết mã độc mà anh ấy đã tải lên phần mềm phân tích mã đang sử dụng AI. Trong mã độc, anh ta đưa vào lời nhắc rằng hệ thống sẽ kết luận tệp đó là an toàn. Ảnh chụp màn hình cho thấy nó nói không có mã độc hại nào được bao gồm trong mã độc hại thực tế.
Ở những nơi khác, ChatGPT có thể truy cập bảng điểm của YouTube video sử dụng plug-in. Johann Rehberger, nhà nghiên cứu bảo mật và giám đốc đội đỏ, đã chỉnh sửa một trong những bản ghi video của anh ấy để bao gồm lời nhắc được thiết kế để điều khiển các hệ thống AI tổng quát. Nó cho biết hệ thống sẽ đưa ra dòng chữ “AI injection Successful” và sau đó giả định một nhân cách mới là một hacker tên là Genie trong ChatGPT và kể một câu chuyện cười.
Trong một trường hợp khác, bằng cách sử dụng một plug-in riêng, Rehberger đã có thể truy xuất văn bản đã được viết trước đó trong một cuộc trò chuyện với ChatGPT. Rehberger nói: “Với việc giới thiệu các phần bổ trợ, công cụ và tất cả những tích hợp này, theo một nghĩa nào đó, nơi mọi người trao quyền đại diện cho mô hình ngôn ngữ, đó là nơi mà việc tiêm nhắc gián tiếp trở nên rất phổ biến. “Đó là một vấn đề thực sự trong hệ sinh thái.”
“Nếu mọi người xây dựng ứng dụng để LLM đọc email của bạn và thực hiện một số hành động dựa trên nội dung của những email đó—mua hàng, tóm tắt nội dung—kẻ tấn công có thể gửi email chứa các cuộc tấn công tiêm nhắc,” William Zhang, một nhà nghiên cứu về máy học cho biết. kỹ sư tại Robust Intelligence, một công ty AI nghiên cứu về tính an toàn và bảo mật của các mô hình.
Không có bản sửa lỗi tốt
Cuộc đua đến nhúng AI tổng hợp vào sản phẩm—từ các ứng dụng danh sách việc cần làm đến Snapchat—mở rộng nơi các cuộc tấn công có thể xảy ra. Zhang nói rằng anh ấy đã thấy các nhà phát triển trước đây không có chuyên môn về trí tuệ nhân tạo đưa AI sáng tạo vào của riêng họ công nghệ.
Ông nói, nếu một chatbot được thiết lập để trả lời các câu hỏi về thông tin được lưu trữ trong cơ sở dữ liệu, nó có thể gây ra sự cố. “Prompt injection cung cấp một cách để người dùng ghi đè hướng dẫn của nhà phát triển.” Ít nhất về mặt lý thuyết, điều này có thể có nghĩa là người dùng có thể xóa thông tin khỏi cơ sở dữ liệu hoặc thay đổi thông tin được đưa vào.