Tham gia các bản tin hàng ngày và hàng tuần của chúng tôi để cập nhật mới nhất và nội dung độc quyền về bảo hiểm AI hàng đầu trong ngành. Tìm hiểu thêm
AI đang thay đổi cách hoạt động của các doanh nghiệp. Mặc dù phần lớn sự thay đổi này là tích cực, nó giới thiệu một số mối quan tâm về an ninh mạng độc đáo. Các ứng dụng AI thế hệ tiếp theo như AI đại lý đặt ra một rủi ro đặc biệt đáng chú ý đối với tư thế an ninh của các tổ chức.
AI Agentic là gì?
AI tác nhân đề cập đến các mô hình AI có thể hoạt động tự chủ, thường tự động hóa toàn bộ vai trò với ít hoặc không có đầu vào của con người. Chatbot tiên tiến là một trong những ví dụ nổi bật nhất, nhưng các đại lý AI cũng có thể xuất hiện trong các ứng dụng như trí thông minh kinh doanh, chẩn đoán y tế và điều chỉnh bảo hiểm.
Trong tất cả các trường hợp sử dụng, công nghệ này kết hợp các mô hình tổng quát, xử lý ngôn ngữ tự nhiên (NLP) và các chức năng học máy khác (ML) để thực hiện các tác vụ nhiều bước một cách độc lập. Thật dễ dàng để thấy giá trị trong một giải pháp như vậy. Có thể hiểu được, Gartner dự đoán rằng Một phần ba Trong tất cả các tương tác AI thế hệ sẽ sử dụng các tác nhân này vào năm 2028.
Rủi ro bảo mật độc đáo của AI tác nhân
Việc áp dụng AI Agentic sẽ tăng lên khi các doanh nghiệp tìm cách hoàn thành một loạt các nhiệm vụ lớn hơn mà không có lực lượng lao động lớn hơn. Mặc dù vậy, hứa hẹn như vậy, đưa ra một mô hình AI rất nhiều sức mạnh có ý nghĩa nghiêm trọng về an ninh mạng.
Các tác nhân AI thường yêu cầu truy cập vào một lượng lớn dữ liệu. Do đó, chúng là mục tiêu chính cho tội phạm mạng, vì những kẻ tấn công có thể tập trung nỗ lực vào một ứng dụng duy nhất để phơi bày một lượng thông tin đáng kể. Nó sẽ có tác dụng tương tự như cá voi – dẫn đến Tổn thất 12,5 tỷ đô la Chỉ riêng vào năm 2021 – nhưng có thể dễ dàng hơn, vì các mô hình AI có thể dễ bị ảnh hưởng hơn các chuyên gia có kinh nghiệm.
Tự chủ của AGE AI là một mối quan tâm khác. Trong khi tất cả các thuật toán ML giới thiệu một số rủi ro, các trường hợp sử dụng thông thường yêu cầu ủy quyền của con người phải làm bất cứ điều gì với dữ liệu của họ. Các đại lý, mặt khác, có thể hành động mà không cần giải phóng mặt bằng. Kết quả là, bất kỳ phơi nhiễm quyền riêng tư tình cờ nào hoặc Những sai lầm như ảo giác AI Có thể trượt qua mà không có ai nhận thấy.
Sự thiếu giám sát này làm cho các mối đe dọa AI hiện có như Data Poisoning tất cả đều nguy hiểm hơn. Những kẻ tấn công có thể làm hỏng một mô hình bằng cách thay đổi 0,01% bộ dữ liệu đào tạo của nóvà làm như vậy là có thể với đầu tư tối thiểu. Điều đó gây tổn hại trong bất kỳ bối cảnh nào, nhưng kết luận bị lỗi của một đặc vụ bị đầu độc sẽ đến xa hơn nhiều so với một trong đó con người xem xét đầu ra trước tiên.
Cách cải thiện an ninh mạng AI Agent
Trước những mối đe dọa này, các chiến lược an ninh mạng cần phải thích nghi trước khi các doanh nghiệp thực hiện AI đại lý ứng dụng. Dưới đây là bốn bước quan trọng đối với mục tiêu đó.
1. Tối đa hóa khả năng hiển thị
Bước đầu tiên là đảm bảo các nhóm hoạt động và bảo mật có khả năng hiển thị đầy đủ trong quy trình làm việc của một đại lý AI. Mỗi nhiệm vụ mà mô hình hoàn thành, mỗi thiết bị hoặc ứng dụng mà nó kết nối và tất cả dữ liệu mà nó có thể truy cập sẽ được thể hiện rõ ràng. Tiết lộ các yếu tố này sẽ giúp dễ dàng phát hiện các lỗ hổng tiềm năng hơn.
Các công cụ lập bản đồ mạng tự động có thể cần thiết ở đây. Chỉ một 23% trong số các nhà lãnh đạo CNTT Giả sử họ có khả năng hiển thị đầy đủ vào môi trường đám mây của họ và 61% sử dụng nhiều công cụ phát hiện, dẫn đến các bản ghi trùng lặp. Quản trị viên phải giải quyết các vấn đề này trước tiên để có được cái nhìn sâu sắc cần thiết về những gì mà các đại lý AI của họ có thể truy cập.
Sử dụng nguyên tắc đặc quyền ít nhất
Một khi rõ ràng những gì đại lý có thể tương tác với, các doanh nghiệp phải hạn chế các đặc quyền đó. Nguyên tắc của đặc quyền ít nhất – cho rằng bất kỳ thực thể nào chỉ có thể nhìn thấy và sử dụng những gì nó hoàn toàn cần – là điều cần thiết.
Bất kỳ cơ sở dữ liệu hoặc ứng dụng nào mà một tác nhân AI có thể tương tác là một rủi ro tiềm ẩn. Do đó, các tổ chức có thể giảm thiểu các bề mặt tấn công có liên quan và ngăn chặn sự di chuyển bên bằng cách hạn chế các quyền này càng nhiều càng tốt. Bất cứ điều gì không đóng góp trực tiếp vào mục đích lái xe giá trị của AI nên vượt quá giới hạn.
Hạn chế thông tin nhạy cảm
Tương tự, quản trị viên mạng có thể ngăn chặn các vi phạm quyền riêng tư bằng cách xóa các chi tiết nhạy cảm khỏi các bộ dữ liệu AI đại lý của họ có thể truy cập. Nhiều công việc của AI đại lý tự nhiên liên quan đến dữ liệu riêng tư. Nhiều hơn 50% chi tiêu AI thế hệ Sẽ đi về phía chatbot, có thể thu thập thông tin về khách hàng. Tuy nhiên, không phải tất cả các chi tiết này là cần thiết.
Mặc dù một đại lý nên học hỏi từ các tương tác của khách hàng trong quá khứ, nhưng nó không cần lưu trữ tên, địa chỉ hoặc chi tiết thanh toán. Lập trình hệ thống để xóa thông tin cá nhân không cần thiết từ dữ liệu có thể truy cập AI sẽ giảm thiểu thiệt hại trong trường hợp vi phạm.
Theo dõi hành vi đáng ngờ
Các doanh nghiệp cũng cần phải chăm sóc khi AI lập trình AI. Áp dụng nó cho một trường hợp sử dụng nhỏ, duy nhất trước tiên và sử dụng một nhóm đa dạng để xem xét mô hình cho các dấu hiệu sai lệch hoặc ảo giác trong quá trình đào tạo. Khi đến lúc triển khai tác nhân, hãy lăn ra từ từ và theo dõi nó cho hành vi đáng ngờ.
Khả năng đáp ứng thời gian thực là rất quan trọng trong giám sát này, vì rủi ro của AI có nghĩa là bất kỳ vi phạm nào cũng có thể gây ra hậu quả nghiêm trọng. Rất may, các giải pháp phát hiện và phản hồi tự động có hiệu quả cao, tiết kiệm trung bình 2,22 triệu đô la Trong chi phí vi phạm dữ liệu. Các tổ chức có thể từ từ mở rộng các đại lý AI của họ sau một thử nghiệm thành công, nhưng họ phải tiếp tục giám sát tất cả các ứng dụng.
Là những tiến bộ về an ninh mạng, các chiến lược an ninh mạng cũng vậy
Sự tiến bộ nhanh chóng của AI giữ lời hứa đáng kể cho các doanh nghiệp hiện đại, nhưng nó Rủi ro an ninh mạng đang tăng nhanh như vậy. Phòng thủ không gian mạng của doanh nghiệp phải mở rộng và tiến lên cùng với các trường hợp sử dụng AI thế hệ. Việc không theo kịp những thay đổi này có thể gây ra thiệt hại lớn hơn lợi ích của công nghệ.
AI Agentive sẽ đưa ML lên một tầm cao mới, nhưng điều tương tự cũng áp dụng cho các lỗ hổng liên quan. Mặc dù điều đó không làm cho công nghệ này quá không an toàn để đầu tư, nhưng nó đảm bảo thận trọng hơn. Các doanh nghiệp phải làm theo các bước bảo mật thiết yếu này khi họ triển khai các ứng dụng AI mới.
Zac Amos là trình chỉnh sửa tính năng tại Phục hồi.
DataDecisionMakers
Chào mừng bạn đến với cộng đồng liên doanh!
DatadeCisionMakers là nơi các chuyên gia, bao gồm cả những người kỹ thuật làm công việc dữ liệu, có thể chia sẻ những hiểu biết và đổi mới liên quan đến dữ liệu.
Nếu bạn muốn đọc về các ý tưởng tiên tiến và thông tin cập nhật, thực tiễn tốt nhất và tương lai của dữ liệu và công nghệ dữ liệu, hãy tham gia với chúng tôi tại DataDecisionMakers.
Bạn thậm chí có thể xem xét đóng góp một bài báo Của của riêng bạn!