#DataDecisionMakers #AI #Quản_lý_rủi_ro
Đùa với lửa: Cách thích ứng với thực tế mới của Trí tuệ nhân tạo (AI)
Trong sự kiện Chuyển đổi 2023 diễn ra tại San Francisco vào ngày 11-12 tháng 7, các giám đốc điều hành hàng đầu đã chia sẻ cách tích hợp và tối ưu hóa khoản đầu tư vào AI để đạt được sự thành công và tránh những rủi ro phổ biến.
Trong quá khứ, khi con người phát hiện ra lửa, họ biết ngay rằng nó có thứ gì đó tốt, nhưng họ cũng bị những rủi ro như bị bỏng, cháy rừng, ngạt khói hoặc thiêu rụi ngôi làng. Tuy nhiên, chúng ta đã quản lý để khai thác sức mạnh của lửa mãi mãi.
Ngày nay, AI được xem như một lực lượng đột phá, cũng mang đến nhiều rủi ro. Chúng ta cần lưu ý đến những rủi ro liên quan đến công nghệ này và quản lý chúng một cách thích hợp. Điều đầu tiên trong việc quản lý rủi ro liên quan đến AI là thiết lập các tiêu chuẩn cho việc sử dụng AI. Các tiêu chuẩn này có thể được thực hiện bởi chính phủ hoặc các nhóm ngành, và chúng có thể là bắt buộc hoặc tự nguyện.
Về việc liệu chính phủ của các nhóm ngành có nên dẫn đường hay không, chúng ta cần sự đồng thuận của tất cả các bên nhằm quản trị và đưa ra các quy tắc ràng buộc cho AI để tránh các rủi ro xảy ra.
#AI #Quản_lý_rủi_ro #DataDecisionMakers
Nguồn: https://venturebeat.com/ai/playing-with-fire-how-to-adapt-to-the-new-realities-of-ai/
Tham gia cùng các giám đốc điều hành hàng đầu tại San Francisco vào ngày 11-12 tháng 7, để nghe cách các nhà lãnh đạo đang tích hợp và tối ưu hóa các khoản đầu tư AI để thành công. Tìm hiểu thêm
Khi con người phát hiện ra lửa khoảng 1,5 triệu năm trước, có lẽ họ biết ngay rằng mình có thứ gì đó tốt. Nhưng họ có thể phát hiện ra những nhược điểm khá nhanh: Đến quá gần và bị bỏng, vô tình gây cháy rừng, ngạt khói hoặc thậm chí thiêu rụi ngôi làng. Đây không phải là những rủi ro nhỏ, nhưng không có đường lùi. May mắn thay, chúng tôi đã quản lý để khai thác sức mạnh của lửa mãi mãi.
Nhanh chóng chuyển tiếp đến ngày hôm nay, trí tuệ nhân tạo (AI) có thể biến đổi như lửa. Giống như lửa, rủi ro là rất lớn – một số người sẽ nói là tồn tại. Nhưng, dù muốn hay không, sẽ không có sự quay ngược lại hoặc thậm chí chậm lại, do tình hình địa chính trị toàn cầu.
Trong bài viết này, chúng tôi khám phá cách chúng tôi có thể quản lý rủi ro của AI và các con đường khác nhau mà chúng tôi có thể thực hiện. AI không chỉ là một sự đổi mới công nghệ khác, nó là một lực lượng đột phá sẽ thay đổi thế giới theo những cách mà chúng ta thậm chí không thể tưởng tượng được. Tuy nhiên, chúng ta cần lưu tâm đến những rủi ro liên quan đến công nghệ này và quản lý chúng một cách thích hợp.
Đặt tiêu chuẩn cho việc sử dụng AI
Bước đầu tiên trong việc quản lý rủi ro liên quan đến AI là thiết lập các tiêu chuẩn cho việc sử dụng AI. Điều này có thể được thực hiện bởi chính phủ hoặc các nhóm ngành, và chúng có thể là bắt buộc hoặc tự nguyện. Mặc dù các tiêu chuẩn tự nguyện là tốt, nhưng thực tế là các công ty chịu trách nhiệm cao nhất có xu hướng tuân theo các quy tắc và hướng dẫn, trong khi những công ty khác không chú ý. Vì lợi ích xã hội bao trùm, mọi người cần tuân theo hướng dẫn. Do đó, chúng tôi khuyến nghị rằng các tiêu chuẩn được yêu cầu, ngay cả khi tiêu chuẩn ban đầu thấp hơn (nghĩa là dễ đáp ứng hơn).
Sự kiện
Chuyển đổi 2023
Hãy tham gia cùng chúng tôi tại San Francisco vào ngày 11-12 tháng 7, nơi các giám đốc điều hành hàng đầu sẽ chia sẻ cách họ đã tích hợp và tối ưu hóa các khoản đầu tư vào AI để đạt được thành công và tránh những cạm bẫy phổ biến.
Đăng ký ngay
Về việc liệu chính phủ của các nhóm ngành có nên dẫn đường hay không, câu trả lời là cả hai. Thực tế là chỉ các chính phủ mới có sức mạnh để đưa ra các quy tắc ràng buộc và khuyến khích hoặc thuyết phục các chính phủ khác trên toàn cầu tham gia. Mặc dù vậy, các chính phủ nổi tiếng là chậm chạp và dễ bị ảnh hưởng bởi các luồng chính trị – chắc chắn là không tốt trong những trường hợp này. Do đó, tôi tin rằng các nhóm ngành phải tham gia và đóng vai trò dẫn dắt trong việc định hình tư duy và xây dựng cơ sở hỗ trợ rộng rãi nhất. Cuối cùng, chúng ta cần một quan hệ đối tác công-tư để đạt được mục tiêu của mình.
Quản lý việc tạo và sử dụng AI
Có hai điều cần được quản lý khi nói đến AI: Việc sử dụng và sự sáng tạo của nó. Việc sử dụng AI, giống như tất cả các đổi mới công nghệ, có thể được sử dụng với mục đích tốt hoặc mục đích xấu. Ý định mới là điều quan trọng và cấp độ quản trị phải phù hợp với mức độ rủi ro (hoặc tốt hay xấu vốn có hoặc ở đâu đó ở giữa). Tuy nhiên, một số loại AI vốn đã nguy hiểm đến mức chúng cần được quản lý, hạn chế hoặc hạn chế cẩn thận.
Thực tế là ngày nay chúng ta không biết đủ để viết ra tất cả các quy định và quy tắc, vì vậy điều chúng ta cần là một điểm xuất phát tốt và một số cơ quan có thẩm quyền sẽ được tin tưởng để ban hành các quy tắc mới khi chúng trở nên cần thiết. AI quản lý rủi ro và hướng dẫn có thẩm quyền cần phải nhanh chóng và nhanh nhẹn; nếu không sẽ tụt hậu xa so với con đường đổi mới và vô giá trị. Các ngành công nghiệp hiện tại và các cơ quan chính phủ di chuyển quá chậm, vì vậy cần thiết lập các phương pháp tiếp cận mới để có thể tiến hành nhanh hơn.
Quản trị quốc gia hoặc toàn cầu về AI
Quản trị và các quy tắc chỉ tốt như liên kết yếu nhất. Sự tham gia của tất cả các bên là rất quan trọng. Đây sẽ là khía cạnh khó khăn nhất. Chúng ta không nên trì hoãn bất cứ điều gì để chờ đợi sự đồng thuận toàn cầu, nhưng đồng thời, các nhóm và khuôn khổ làm việc toàn cầu nên được khám phá.
Tin tốt là chúng tôi không bắt đầu lại từ đầu. Nhiều nhóm toàn cầu khác nhau đã tích cực đưa ra quan điểm và xuất bản kết quả của họ; các ví dụ đáng chú ý bao gồm AI được phát hành gần đây Khung quản lý rủi ro từ Viện Khoa học và Công nghệ Quốc gia (NIST) có trụ sở tại Hoa Kỳ và đề xuất của Châu Âu Đạo luật AI của EU — và còn nhiều người khác nữa. Hầu hết đều có bản chất tự nguyện, nhưng ngày càng có nhiều người có sức mạnh của pháp luật đằng sau họ. Theo quan điểm của tôi, mặc dù chưa có gì bao quát toàn bộ phạm vi một cách toàn diện, nhưng nếu bạn kết hợp tất cả chúng lại với nhau, bạn sẽ ở một điểm khởi đầu đáng khen ngợi cho hành trình này.
phản ánh
Con đường chắc chắn sẽ gập ghềnh, nhưng tôi tin rằng con người cuối cùng sẽ chiến thắng. Trong 1,5 triệu năm nữa, tổ tiên của chúng ta sẽ nhìn lại và nghĩ rằng điều đó thật khó khăn, nhưng cuối cùng chúng ta đã làm đúng. Vì vậy, hãy tiến lên phía trước với AI, nhưng hãy lưu ý đến những rủi ro liên quan đến công nghệ này. Chúng ta phải khai thác AI cho mục đích tốt và cẩn thận để không thiêu rụi thế giới.
Brad Fisher là Giám đốc điều hành của Lumenova trí tuệ nhân tạo.
Dữ liệuNgười ra quyết định
Chào mừng bạn đến với cộng đồng VentureBeat!
DataDecisionMakers là nơi các chuyên gia, bao gồm cả những người kỹ thuật làm công việc dữ liệu, có thể chia sẻ những hiểu biết và đổi mới liên quan đến dữ liệu.
Nếu bạn muốn đọc về các ý tưởng tiên tiến và thông tin cập nhật, các phương pháp hay nhất cũng như tương lai của dữ liệu và công nghệ dữ liệu, hãy tham gia cùng chúng tôi tại DataDecisionMakers.
Bạn thậm chí có thể xem xét đóng góp một bài viết của riêng bạn!
Đọc thêm từ DataDecisionMakers