Hôm nay diễn ra sự kiện AI cho an ninh tại San Francisco vào ngày 11-12 tháng 7. Đây là cuộc hội thảo của các giám đốc điều hành hàng đầu để chia sẻ cách tích hợp và tối ưu hóa các khoản đầu tư vào AI và đạt được thành công trong an ninh mạng. Ngay từ khi ChatGPT được phát hành, AI, ML và LLM đã trở thành chủ đề thảo luận số một trong lĩnh vực an ninh mạng.
Tuy nhiên, nhiều cuộc thảo luận về tiến bộ của AI trong an ninh mạng tập trung vào tác động của nó đến khả năng phòng thủ và tấn công mạng, trong khi quản lý bảo mật khối lượng công việc AI vẫn chưa được nhiều xem xét. Các nhà cung cấp dịch vụ an ninh mạng đã tung ra nhiều sản phẩm hỗ trợ bảo mật bằng AI như Trợ lý An ninh của Microsoft hoặc ShiftLeft trở thành Qwiet AI. Chúng ta dự đoán sẽ tiếp tục chứng kiến những sản phẩm AI mới về bảo mật mạng trong tương lai.
Về bối cảnh bảo mật AI, giới chuyên môn đang chú ý đến các lỗ hổng trong mã cung cấp năng lượng cho AI và ML. Việc áp dụng và ứng dụng AI vào bảo mật mạng vẫn còn khá mới, và tính bảo mật của AI chưa được hiểu rõ. Vào tháng 3 năm 2023, ENISA đã xuất bản một tài liệu về An ninh mạng của AI và tiêu chuẩn hóa để đánh giá các tiêu chuẩn liên quan đến an ninh mạng của AI, đồng thời xác định các lỗ hổng trong tiến trình tiêu chuẩn hóa.
Công tác bảo mật AI còn đối mặt với nhiều thách thức, bao gồm ngộ độc dữ liệu, tấn công thao túng và đầu độc dữ liệu, ăn cắp người mẫu, đầu độc người mẫu và giả mạo các thuật toán cơ bản. Để hiểu rõ hơn về các thách thức này, hãy tham gia sự kiện Chuyển đổi 2023 vào ngày 11-12 tháng 7 tại San Francisco để nghe các giám đốc điều hành hàng đầu chia sẻ cách tích hợp và tối ưu hóa các khoản đầu tư vào AI để đạt được thành công và tránh những cạm bẫy phổ biến. #AIfornothing #security #event #sanfrancisco #ENISA #cybersecurity #investors #ML #LLM #ChatGPT
Nguồn: https://venturebeat.com/ai/ai-for-security-is-here-now-we-need-security-for-ai/
Tham gia cùng các giám đốc điều hành hàng đầu tại San Francisco vào ngày 11-12 tháng 7, để nghe cách các nhà lãnh đạo đang tích hợp và tối ưu hóa các khoản đầu tư AI để thành công. Tìm hiểu thêm
Sau khi phát hành ChatGPT, trí tuệ nhân tạo (AI), máy học (ML) và các mô hình ngôn ngữ lớn (LLM) đã trở thành chủ đề thảo luận số một của các nhà thực hành an ninh mạng, nhà cung cấp cũng như nhà đầu tư. Điều này không có gì ngạc nhiên; như Marc Andreessen đã lưu ý một thập kỷ trước, phần mềm đang ăn mòn thế giới và AI đang bắt đầu ăn thịt phần mềm.
Bất chấp tất cả sự chú ý mà AI nhận được trong ngành, phần lớn các cuộc thảo luận đều tập trung vào việc những tiến bộ trong AI sẽ tác động như thế nào đến khả năng bảo mật phòng thủ và tấn công. Điều không được thảo luận nhiều là cách chúng tôi tự bảo mật khối lượng công việc AI.
Trong vài tháng qua, chúng tôi đã chứng kiến nhiều nhà cung cấp dịch vụ an ninh mạng tung ra các sản phẩm được hỗ trợ bởi AI, chẳng hạn như Trợ lý An ninh của Microsoftđưa ChatGPT vào các dịch vụ hiện có hoặc thậm chí thay đổi hoàn toàn định vị, chẳng hạn như cách ShiftLeft trở thành Qwiet AI. Tôi dự đoán rằng chúng ta sẽ tiếp tục chứng kiến hàng chục, thậm chí hàng trăm nhà cung cấp dịch vụ bảo mật tung ra các sản phẩm AI mới. Rõ ràng là AI cho bảo mật ở đây.
Một cái nhìn ngắn gọn về các vectơ tấn công của các hệ thống AI
bảo vệ Hệ thống AI và ML là khó khăn, vì chúng có hai loại lỗ hổng: Loại phổ biến trong các loại ứng dụng phần mềm khác và loại dành riêng cho AI/ML.
Sự kiện
Chuyển đổi 2023
Hãy tham gia cùng chúng tôi tại San Francisco vào ngày 11-12 tháng 7, nơi các giám đốc điều hành hàng đầu sẽ chia sẻ cách họ đã tích hợp và tối ưu hóa các khoản đầu tư vào AI để đạt được thành công và tránh những cạm bẫy phổ biến.
Đăng ký ngay
Trước tiên, hãy hiểu rõ ràng: Mã cung cấp năng lượng cho AI và ML có khả năng có lỗ hổng giống như mã chạy bất kỳ phần mềm nào khác. Trong nhiều thập kỷ, chúng ta đã thấy rằng những kẻ tấn công hoàn toàn có khả năng tìm và khai thác các lỗ hổng trong mã để đạt được mục tiêu của chúng. Điều này dẫn đến một chủ đề rộng lớn về bảo mật mã, bao gồm tất cả các cuộc thảo luận về kiểm tra bảo mật phần mềm, dịch chuyển sang trái, bảo mật chuỗi cung ứng và những thứ tương tự.
Vì các hệ thống AI và ML được thiết kế để tạo ra kết quả đầu ra sau khi nhập và phân tích lượng lớn dữ liệu, nên một số thách thức đặc biệt trong việc bảo mật chúng không xuất hiện trong các loại hệ thống khác. Sloan MIT tóm tắt những thách thức này bằng cách tổ chức các lỗ hổng liên quan theo năm loại: rủi ro dữ liệu, rủi ro phần mềm, rủi ro truyền thông, rủi ro yếu tố con người và rủi ro hệ thống.
Một số rủi ro đáng được nêu bật bao gồm:
- Các cuộc tấn công thao túng và đầu độc dữ liệu. Ngộ độc dữ liệu xảy ra khi những kẻ tấn công giả mạo dữ liệu thô được sử dụng bởi mô hình AI/ML. Một trong những vấn đề quan trọng nhất với thao tác dữ liệu là các mô hình AI/ML không thể dễ dàng thay đổi sau khi đã xác định được đầu vào sai.
- Các cuộc tấn công tiết lộ mô hình xảy ra khi kẻ tấn công cung cấp đầu vào được thiết kế cẩn thận và quan sát kết quả đầu ra mà thuật toán tạo ra.
- Ăn cắp người mẫu sau khi họ đã được đào tạo. Việc làm này có thể cho phép kẻ tấn công lấy được dữ liệu nhạy cảm được dùng để đào tạo mô hình, sử dụng chính mô hình đó để thu lợi tài chính hoặc tác động đến các quyết định của mô hình. Ví dụ: nếu một kẻ xấu biết những yếu tố nào được xem xét khi một thứ gì đó được gắn cờ là hành vi nguy hiểm, thì họ có thể tìm cách tránh những dấu hiệu này và phá vỡ một công cụ bảo mật sử dụng mô hình.
- Các cuộc tấn công đầu độc người mẫu. Việc giả mạo các thuật toán cơ bản có thể khiến kẻ tấn công có thể tác động đến các quyết định của thuật toán.
Trong một thế giới nơi các quyết định được đưa ra và thực hiện trong thời gian thực, tác động của các cuộc tấn công vào thuật toán có thể dẫn đến hậu quả thảm khốc. Một trường hợp điển hình là câu chuyện về Thủ đô Hiệp sĩ mà mất 460 triệu USD trong 45 phút do lỗi trong thuật toán giao dịch cao tần của công ty. Công ty đã đứng trước bờ vực phá sản và cuối cùng bị đối thủ mua lại ngay sau đó. Mặc dù trong trường hợp cụ thể này, vấn đề không liên quan đến bất kỳ hành vi đối nghịch nào, nhưng đây là một minh họa tuyệt vời về tác động tiềm ẩn mà một lỗi trong thuật toán có thể gây ra.
Bối cảnh bảo mật AI
Vì việc áp dụng và ứng dụng AI hàng loạt vẫn còn khá mới nên tính bảo mật của AI vẫn chưa được hiểu rõ. Vào tháng 3 năm 2023, Cơ quan An ninh mạng của Liên minh Châu Âu (ENISA) đã xuất bản một tài liệu có tiêu đề An ninh mạng của AI và tiêu chuẩn hóa với mục đích “cung cấp tổng quan về các tiêu chuẩn (hiện có, đang được soạn thảo, đang được xem xét và lên kế hoạch) liên quan đến an ninh mạng của AI, đánh giá mức độ bao phủ của chúng và xác định các lỗ hổng” trong quá trình tiêu chuẩn hóa. Vì EU thích sự tuân thủ, nên trọng tâm của tài liệu này là về các tiêu chuẩn và quy định, chứ không phải các khuyến nghị thực tế cho các nhà lãnh đạo và người hành nghề bảo mật.
Có rất nhiều vấn đề về bảo mật AI trực tuyến, mặc dù nó có vẻ ít hơn đáng kể so với chủ đề sử dụng AI để phòng thủ và tấn công mạng. Nhiều người có thể lập luận rằng bảo mật AI có thể được giải quyết bằng cách để mọi người và công cụ từ một số lĩnh vực bao gồm bảo mật dữ liệu, phần mềm và đám mây hoạt động cùng nhau, nhưng có một trường hợp mạnh mẽ được tạo ra cho một chuyên môn riêng biệt.
Khi nói đến bối cảnh nhà cung cấp, tôi sẽ phân loại bảo mật AI/ML là một lĩnh vực mới nổi. Phần tóm tắt sau đây cung cấp một cái nhìn tổng quan ngắn gọn về các nhà cung cấp trong lĩnh vực này. Lưu ý rằng:
- Biểu đồ chỉ bao gồm các nhà cung cấp bảo mật mô hình AI/ML. Nó không bao gồm những người chơi quan trọng khác trong các lĩnh vực góp phần bảo mật AI như mã hóa, dữ liệu hoặc bảo mật đám mây.
- Biểu đồ vẽ các công ty trên hai trục: huy động vốn và những người theo dõi trên LinkedIn. Điều này được hiểu rằng những người theo dõi LinkedIn không phải là số liệu tốt nhất để so sánh, nhưng bất kỳ số liệu nào khác cũng không phải là lý tưởng.
Mặc dù chắc chắn có nhiều nhà sáng lập giải quyết vấn đề này ở chế độ ẩn, nhưng rõ ràng là không gian bảo mật mô hình AI/ML còn lâu mới bão hòa. Khi những công nghệ tiên tiến này được áp dụng rộng rãi, chắc chắn chúng ta sẽ chứng kiến các cuộc tấn công và cùng với đó là ngày càng có nhiều doanh nhân tìm cách giải quyết thách thức khó giải quyết này.
ghi chú kết thúc
Trong những năm tới, chúng ta sẽ thấy AI và ML định hình lại cách mọi người, tổ chức và toàn bộ ngành hoạt động. Mọi lĩnh vực trong cuộc sống của chúng ta — từ luật pháp, sáng tạo nội dung, tiếp thị, chăm sóc sức khỏe, kỹ thuật và hoạt động không gian — sẽ trải qua những thay đổi đáng kể. Tuy nhiên, tác động thực sự và mức độ mà chúng ta có thể hưởng lợi từ những tiến bộ trong AI/ML sẽ phụ thuộc vào cách chúng ta với tư cách là một xã hội chọn xử lý các khía cạnh bị ảnh hưởng trực tiếp bởi công nghệ này, bao gồm đạo đức, luật pháp, quyền sở hữu tài sản trí tuệ, v.v. Tuy nhiên, có thể cho rằng một trong những phần quan trọng nhất là khả năng bảo vệ dữ liệu, thuật toán và phần mềm mà AI và ML chạy trên đó.
Trong một thế giới được hỗ trợ bởi AI, bất kỳ hành vi không mong muốn nào của thuật toán làm tổn hại đến dữ liệu cơ bản hoặc hệ thống mà chúng chạy sẽ gây ra hậu quả trong đời thực. Tác động trong thế giới thực của các hệ thống AI bị xâm phạm có thể rất thảm khốc: chẩn đoán sai bệnh dẫn đến các quyết định y tế không thể hủy bỏ, sự sụp đổ của thị trường tài chính và tai nạn xe hơi, v.v.
Mặc dù nhiều người trong chúng ta có trí tưởng tượng tuyệt vời, nhưng chúng ta vẫn chưa thể hiểu đầy đủ toàn bộ các cách mà chúng ta có thể bị ảnh hưởng. Cho đến hôm nay, dường như không thể tìm thấy bất kỳ tin tức nào về các vụ hack AI/ML; có thể là do không có hoặc nhiều khả năng là do chúng chưa được phát hiện. Điều đó sẽ sớm thay đổi.
Bất chấp nguy hiểm, tôi tin rằng tương lai có thể tươi sáng. Khi cơ sở hạ tầng internet được xây dựng, vấn đề bảo mật đã được cân nhắc lại bởi vì vào thời điểm đó, chúng tôi không có kinh nghiệm thiết kế hệ thống kỹ thuật số ở quy mô hành tinh hoặc bất kỳ ý tưởng nào về tương lai sẽ như thế nào.
Hôm nay, chúng ta đang ở một nơi rất khác. Mặc dù không có đủ tài năng về bảo mật, nhưng có một sự hiểu biết chắc chắn rằng bảo mật là rất quan trọng và ý tưởng đúng đắn về các nguyên tắc cơ bản của bảo mật trông như thế nào. Điều đó, kết hợp với thực tế là nhiều nhà đổi mới sáng giá nhất trong ngành đang làm việc để bảo vệ AI, cho chúng ta cơ hội không lặp lại những sai lầm trong quá khứ và xây dựng công nghệ mới này trên nền tảng vững chắc và an toàn.
Chúng ta sẽ sử dụng cơ hội này chứ? Chỉ có thời gian sẽ trả lời. Hiện tại, tôi tò mò về những loại vấn đề bảo mật mới mà AI và ML sẽ mang lại và kết quả là những loại giải pháp mới nào sẽ xuất hiện trong ngành.
Ross Haleliuk là nhà lãnh đạo sản phẩm an ninh mạng, trưởng bộ phận sản phẩm tại LimaCharlie và tác giả của mạo hiểm trong Bảo mật.
Dữ liệuNgười ra quyết định
Chào mừng bạn đến với cộng đồng VentureBeat!
DataDecisionMakers là nơi các chuyên gia, bao gồm cả những người kỹ thuật làm công việc dữ liệu, có thể chia sẻ những hiểu biết và đổi mới liên quan đến dữ liệu.
Nếu bạn muốn đọc về các ý tưởng tiên tiến và thông tin cập nhật, các phương pháp hay nhất cũng như tương lai của dữ liệu và công nghệ dữ liệu, hãy tham gia cùng chúng tôi tại DataDecisionMakers.
Bạn thậm chí có thể xem xét đóng góp một bài viết của riêng bạn!
Đọc thêm từ DataDecisionMakers
[ad_2]