“Che chắn AI trước tường lửa: Arthur AI có đúng?”

#Sựkiện #Chuyểndổi2023 #TrítuệnhântạochobảovệdữliệuAI #ArthurAI

Arthur AI cho rằng đã đến lúc cần phải “che chắn” trí tuệ nhân tạo bằng tường lửa để bảo đảm an toàn cho dữ liệu cá nhân và tuân thủ quy định. Chính vì thế, công ty đã tạo ra công nghệ bảo vệ chống lại rủi ro dữ liệu AI với tên gọi Arthur Shield.

Sự kiện Chuyển đổi 2023 sẽ diễn ra tại San Francisco vào ngày 11-12 tháng 7, là nơi các giám đốc điều hành hàng đầu sẽ chia sẻ cách tích hợp và tối ưu hóa các khoản đầu tư vào AI để đạt được thành công và tránh những cạm bẫy phổ biến. Đăng ký ngay để được tham gia.

Theo CEO của Arthur AI, Adam Wenchel, việc cung cấp bảo vệ chống lại đầu ra rủi ro tiềm tàng từ trí tuệ nhân tạo là một thách thức lớn. Tuy nhiên, Arthur AI tin rằng với công nghệ tường lửa AI của mình, các tổ chức có thể triển khai nó để kiểm tra dữ liệu vào và ra để phát hiện các rủi ro tiềm ẩn và vi phạm chính sách.

Arthur AI đã huy động được hơn 60 triệu đô la cho đến nay, với các khách hàng trong số đó là ba trong số năm ngân hàng hàng đầu của Hoa Kỳ, John Deere và Bộ Quốc phòng Hoa Kỳ (DoD). Cùng với sự ra mắt của Arthur Shield, công ty hy vọng sẽ tiếp tục đóng góp trong việc bảo vệ dữ liệu cá nhân và phát triển trí tuệ nhân tạo an toàn và bền vững hơn.

Nguồn: https://venturebeat.com/ai/is-it-time-to-shield-ai-with-a-firewall-arthur-ai-thinks-so/

Tham gia cùng các giám đốc điều hành hàng đầu tại San Francisco vào ngày 11-12 tháng 7, để nghe cách các nhà lãnh đạo đang tích hợp và tối ưu hóa các khoản đầu tư AI để thành công. Tìm hiểu thêm


Với những rủi ro về ảo giác, rò rỉ thông tin dữ liệu cá nhân và tuân thủ quy định mà AI phải đối mặt, ngày càng có nhiều chuyên gia và nhà cung cấp cho rằng rõ ràng cần phải có một số hình thức bảo vệ.

Một tổ chức như vậy hiện đang xây dựng công nghệ để bảo vệ chống lại rủi ro dữ liệu AI có trụ sở tại Thành phố New York Arthur trí tuệ nhân tạo. Công ty, được thành lập vào năm 2018, đã huy động được hơn 60 triệu đô la cho đến nay, phần lớn để tài trợ cho công nghệ quan sát và giám sát học máy. Trong số các công ty mà Arthur AI tuyên bố là khách hàng có ba trong số năm ngân hàng hàng đầu của Hoa Kỳ, con người, John Deere và Bộ Quốc phòng Hoa Kỳ (DoD).

Arthur AI lấy tên này để tỏ lòng kính trọng đối với Arthur Samuel, người được ghi nhận là người đã đặt ra thuật ngữ “học máy” vào năm 1959 và giúp phát triển một số mô hình sớm nhất được ghi nhận.

Arthur AI hiện đang sử dụng nó khả năng quan sát của AI một bước nữa với sự ra mắt của Arthur Shield, về cơ bản là một bức tường lửa cho dữ liệu AI. Với Arthur Shield, các tổ chức có thể triển khai tường lửa ở phía trước mô hình ngôn ngữ lớn (LLM) để kiểm tra dữ liệu vào và ra để phát hiện các rủi ro tiềm ẩn và vi phạm chính sách.

Sự kiện

Chuyển đổi 2023

Hãy tham gia cùng chúng tôi tại San Francisco vào ngày 11-12 tháng 7, nơi các giám đốc điều hành hàng đầu sẽ chia sẻ cách họ đã tích hợp và tối ưu hóa các khoản đầu tư vào AI để đạt được thành công và tránh những cạm bẫy phổ biến.

Đăng ký ngay

“Có một số vectơ tấn công và các vấn đề tiềm ẩn như rò rỉ dữ liệu là những vấn đề lớn và là rào cản đối với việc triển khai LLM thực sự,” Adam Wenchel, đồng sáng lập và CEO của Arthur AI, nói với VentureBeat. “Chúng tôi có những khách hàng về cơ bản muốn triển khai LLM, nhưng họ đang gặp khó khăn ngay bây giờ và họ đang sử dụng sản phẩm này, họ sẽ sử dụng sản phẩm này để thoát khỏi bế tắc.”

Các tổ chức có cần lan can AI hoặc tường lửa AI không?

Thách thức của việc cung cấp một số hình thức bảo vệ chống lại đầu ra rủi ro tiềm tàng từ trí tuệ nhân tạo là một vấn đề mà nhiều nhà cung cấp đang cố gắng giải quyết.

>>Theo dõi liên tục của VentureBeat trí tuệ nhân tạo bảo hiểm <<

Nvidia gần đây đã công bố lan can NeMo công nghệ, cung cấp ngôn ngữ chính sách để giúp bảo vệ LLM khỏi rò rỉ dữ liệu nhạy cảm hoặc ảo giác phản hồi không chính xác. Wenchel nhận xét rằng theo quan điểm của ông, mặc dù lan can rất thú vị, nhưng chúng có xu hướng tập trung hơn vào các nhà phát triển.

Ngược lại, ông cho biết mục tiêu của Arthur AI là tạo sự khác biệt với Arthur Shield bằng cách cung cấp cụ thể một công cụ được thiết kế cho các tổ chức để giúp ngăn chặn các cuộc tấn công trong thế giới thực. Công nghệ này cũng được hưởng lợi từ khả năng quan sát đến từ nền tảng giám sát ML của Arthur, giúp cung cấp vòng phản hồi liên tục nhằm cải thiện hiệu quả của tường lửa.

Arthur Shield hoạt động như thế nào để giảm thiểu rủi ro LLM

Trong thế giới mạng, tường lửa là một công nghệ đã được chứng minh là đúng, lọc các gói dữ liệu vào và ra khỏi mạng.

Đó là cách tiếp cận cơ bản giống như cách mà Arthur Shield đang thực hiện, ngoại trừ các lời nhắc đến LLM và dữ liệu được đưa ra. Wenchel lưu ý rằng một số lời nhắc được sử dụng với LLM ngày nay có thể khá phức tạp. Lời nhắc có thể bao gồm thông tin đầu vào của người dùng và cơ sở dữ liệu, cũng như các phần nhúng phụ đang tải.

“Vì vậy, bạn đang lấy tất cả các dữ liệu khác nhau này, xâu chuỗi chúng lại với nhau, đưa nó vào dấu nhắc LLM và sau đó nhận được phản hồi,” Wenchel nói. “Cùng với đó, có một số lĩnh vực mà bạn có thể khiến mô hình bịa đặt và tạo ảo giác và nếu bạn tạo lời nhắc một cách ác ý, bạn có thể khiến nó trả về dữ liệu rất nhạy cảm.”

Arthur Shield cung cấp một bộ các bộ lọc dựng sẵn liên tục học hỏi và cũng có thể được tùy chỉnh. Các bộ lọc đó được thiết kế để chặn các rủi ro đã biết — chẳng hạn như dữ liệu nhạy cảm hoặc độc hại tiềm ẩn — không được nhập vào hoặc xuất ra từ LLM.

“Chúng tôi có một bộ phận nghiên cứu tuyệt vời và họ đã thực sự thực hiện một số công việc tiên phong về việc áp dụng LLM để đánh giá đầu ra của LLM,” Wenchel nói. “Nếu bạn đang nâng cấp độ phức tạp của hệ thống cốt lõi, thì bạn cần nâng cấp độ tinh vi của hoạt động giám sát đi kèm với nó.”

Sứ mệnh của VentureBeat là trở thành một quảng trường thành phố kỹ thuật số để những người ra quyết định kỹ thuật có được kiến ​​thức về công nghệ doanh nghiệp chuyển đổi và giao dịch. Khám phá Briefings của chúng tôi.


Leave a Reply

Your email address will not be published. Required fields are marked *