“Sự dậy sóng Đạo đức trong triển khai Trí tuệ nhân tạo và tương lai của con người”

#SuKienNgayHomNay: Đạo đức đổi mới trong trí tuệ nhân tạo và tương lai của nhân loại

Cùng các giám đốc điều hành hàng đầu tham gia sự kiện tại San Francisco vào ngày 11-12 tháng 7 để nghe cách tích hợp và tối ưu hóa khoản đầu tư AI để đạt được thành công. AI có khả năng thay đổi kết cấu xã hội, văn hóa và kinh tế của thế giới, giống như truyền hình, điện thoại di động và internet kích động sự chuyển đổi hàng loạt.

Tuy nhiên, với sức mạnh lớn đi kèm với rủi ro tương đương. AI tổng quát đã đặt ra những câu hỏi mới về đạo đức và quyền riêng tư, và một trong những rủi ro lớn nhất là sử dụng công nghệ này một cách vô trách nhiệm. Để tránh kết quả này, sự đổi mới không vượt quá trách nhiệm giải trình là điều quan trọng.

Vào ngày 11-12 tháng 7 tại San Francisco, sự kiện Chuyển đổi 2023 sẽ giúp chúng ta hiểu đầy đủ những câu hỏi hóc búa về mặt đạo đức xung quanh AI tổng quát và tác động tiềm tàng của chúng đối với tương lai của dân số toàn cầu.

Mặc dù AI có quyền truy cập vào hàng nghìn tỷ terabyte dữ liệu, việc sử dụng công nghệ này một cách đúng đắn là rất quan trọng để tránh những rủi ro về đạo đức và quyền riêng tư. AI sáng tạo được thiết kế để mô phỏng suy nghĩ bằng ngôn ngữ của con người từ các mẫu mà nó đã chứng kiến ​​trước đây, chứ không tạo ra kiến ​​thức mới hoặc đưa ra quyết định.

Các ứng dụng của AI có rủi ro khác nhau và cần được đánh giá kỹ lưỡng trước khi áp dụng. Công nghệ này có thể đưa ra các khuyến nghị hỗ trợ dựa trên dữ liệu, nhưng quyết định cuối cùng phải căn cứ trên sự giám sát và kiểm soát của con người.

Để giảm thiểu rủi ro trước mắt, chúng ta có thể thực hiện các bước ngay lập tức như tự quản, thử nghiệm, đảm bảo an toàn và định hướng đạo đức cho AI.

Chuyển đổi 2023 là sự kiện quan trọng để tăng cường nhận thức về các vấn đề đạo đức đối với trí tuệ nhân tạo và tương lai của nhân loại. Hãy tham gia cùng chúng tôi tại San Francisco.

Nguồn: https://venturebeat.com/ai/the-ethics-of-innovation-in-generative-ai-and-the-future-of-humanity/

Tham gia cùng các giám đốc điều hành hàng đầu tại San Francisco vào ngày 11-12 tháng 7, để nghe cách các nhà lãnh đạo đang tích hợp và tối ưu hóa các khoản đầu tư AI để thành công. Tìm hiểu thêm


AI có khả năng thay đổi kết cấu xã hội, văn hóa và kinh tế của thế giới. Giống như truyền hình, điện thoại di động và internet kích động sự chuyển đổi hàng loạt, phát triển AI sáng tạo như ChatGPT sẽ tạo ra những cơ hội mới mà nhân loại vẫn chưa hình dung ra.

Tuy nhiên, với sức mạnh lớn đi kèm với rủi ro lớn. Không có gì bí mật rằng AI tổng quát đã đặt ra những câu hỏi mới về đạo đức và quyền riêng tư, và một trong những rủi ro lớn nhất là xã hội sẽ sử dụng công nghệ này một cách vô trách nhiệm. Để tránh kết quả này, điều quan trọng là sự đổi mới không vượt quá trách nhiệm giải trình. Hướng dẫn quy định mới phải được phát triển với cùng tốc độ mà chúng ta đang thấy những người chơi chính của công nghệ phóng ứng dụng AI mới.

Để hiểu đầy đủ những câu hỏi hóc búa về mặt đạo đức xung quanh AI tổng quát — và tác động tiềm tàng của chúng đối với tương lai của dân số toàn cầu — chúng ta phải lùi lại một bước để hiểu các mô hình ngôn ngữ lớn này, cách chúng có thể tạo ra thay đổi tích cực và những điểm chúng có thể thiếu sót.

Những thách thức của AI thế hệ mới

Con người trả lời các câu hỏi dựa trên cấu trúc di truyền (bản chất tự nhiên), giáo dục, tự học và quan sát (nuôi dưỡng). Mặt khác, một cỗ máy như ChatGPT có dữ liệu của thế giới trong tầm tay. Giống như những thành kiến ​​của con người ảnh hưởng đến phản ứng của chúng ta, đầu ra của AI bị sai lệch bởi dữ liệu được sử dụng để huấn luyện nó. Vì dữ liệu thường toàn diện và chứa đựng nhiều quan điểm nên câu trả lời mà AI tổng quát đưa ra phụ thuộc vào cách bạn đặt câu hỏi.

Sự kiện

Chuyển đổi 2023

Hãy tham gia cùng chúng tôi tại San Francisco vào ngày 11-12 tháng 7, nơi các giám đốc điều hành hàng đầu sẽ chia sẻ cách họ đã tích hợp và tối ưu hóa các khoản đầu tư vào AI để đạt được thành công và tránh những cạm bẫy phổ biến.

Đăng ký ngay

AI có quyền truy cập vào hàng nghìn tỷ terabyte dữ liệu, cho phép người dùng “tập trung” sự chú ý của họ thông qua kỹ thuật nhanh chóng hoặc lập trình để làm cho đầu ra chính xác hơn. Đây không phải là một tiêu cực nếu công nghệ được sử dụng để gợi ý hành động, nhưng thực tế là AI tổng quát có thể được sử dụng để đưa ra quyết định mà ảnh hưởng đến cuộc sống của con người.

Ví dụ: khi sử dụng hệ thống định vị, con người chỉ định điểm đến và máy sẽ tính toán tuyến đường nhanh nhất dựa trên các khía cạnh như dữ liệu giao thông đường bộ. Nhưng nếu hệ thống định vị được yêu cầu xác định điểm đến, liệu hành động của nó có phù hợp với kết quả mong muốn của con người không? Hơn nữa, điều gì sẽ xảy ra nếu con người không thể can thiệp và quyết định lái một tuyến đường khác với tuyến đường mà hệ thống định vị gợi ý? AI sáng tạo được thiết kế để mô phỏng suy nghĩ bằng ngôn ngữ của con người từ các mẫu mà nó đã chứng kiến ​​trước đây, chứ không tạo ra kiến ​​thức mới hoặc đưa ra quyết định. Sử dụng công nghệ cho loại trường hợp sử dụng đó là điều gây ra những lo ngại về pháp lý và đạo đức.

Các trường hợp sử dụng trong hành động

Ứng dụng rủi ro thấp

Các ứng dụng có rủi ro thấp, được đảm bảo về mặt đạo đức hầu như sẽ luôn tập trung vào phương pháp hỗ trợ với con người trong vòng lặp, nơi con người có trách nhiệm giải trình.

Chẳng hạn, nếu ChatGPT được sử dụng trong lớp văn học ở trường đại học, một giáo sư có thể sử dụng kiến ​​thức của công nghệ để giúp sinh viên thảo luận về các chủ đề trong tầm tay và kiểm tra mức độ hiểu bài của họ. Ở đây, AI hỗ trợ thành công tư duy sáng tạo và mở rộng quan điểm của học sinh như một công cụ giáo dục bổ sung — nếu học sinh đã đọc tài liệu và có thể đánh giá ý tưởng mô phỏng của AI so với ý tưởng của chính họ.

Ứng dụng rủi ro trung bình

Một số ứng dụng có rủi ro trung bình và đảm bảo bị chỉ trích bổ sung theo quy định, nhưng phần thưởng có thể lớn hơn rủi ro khi được sử dụng đúng cách. Ví dụ: AI có thể đưa ra các khuyến nghị về các phương pháp điều trị và thủ tục y tế dựa trên tiền sử bệnh của bệnh nhân và các mẫu mà nó xác định được ở những bệnh nhân tương tự. Tuy nhiên, một bệnh nhân tiếp tục áp dụng khuyến nghị đó mà không có sự tư vấn của chuyên gia y tế về con người có thể gây ra hậu quả tai hại. Cuối cùng, quyết định — và cách dữ liệu y tế của họ được sử dụng — tùy thuộc vào bệnh nhân, nhưng AI tổng quát không nên được sử dụng để tạo kế hoạch chăm sóc mà không có sự kiểm tra và cân bằng thích hợp.

Ứng dụng rủi ro

Các ứng dụng có rủi ro cao được đặc trưng bởi sự thiếu trách nhiệm của con người và các quyết định do AI tự điều khiển. Ví dụ: theo luật của chúng tôi, một “thẩm phán AI” chủ trì phòng xử án là điều không tưởng. Các thẩm phán và luật sư có thể sử dụng AI để thực hiện nghiên cứu của họ và đề xuất một quá trình hành động để bào chữa hoặc truy tố, nhưng khi công nghệ chuyển sang thực hiện vai trò của thẩm phán, nó sẽ đặt ra một mối đe dọa khác. Các thẩm phán là những người được ủy thác của pháp quyền, bị ràng buộc bởi luật pháp và lương tâm của họ — điều mà AI không có. Trong tương lai có thể có những cách để AI đối xử công bằng và không thiên vị với mọi người, nhưng trong tình trạng hiện tại của chúng ta, chỉ con người mới có thể trả lời cho hành động của mình.

Các bước ngay lập tức hướng tới trách nhiệm giải trình

Chúng tôi đã bước vào một giai đoạn quan trọng trong quy trình quản lý đối với AI tổng quát, nơi các ứng dụng như thế này phải được xem xét trong thực tế. Không có câu trả lời dễ dàng khi chúng tôi tiếp tục nghiên cứu hành vi của AI và phát triển các hướng dẫn, nhưng có bốn bước chúng tôi có thể thực hiện ngay bây giờ để giảm thiểu rủi ro trước mắt:

  1. tự quản: Mọi tổ chức nên áp dụng một khuôn khổ cho việc sử dụng AI có đạo đức và có trách nhiệm trong công ty của họ. Trước khi quy định được soạn thảo và trở thành hợp pháp, tự quản có thể cho thấy điều gì hiệu quả và điều gì không.
  2. thử nghiệm: Khung kiểm tra toàn diện là rất quan trọng — khung tuân theo các quy tắc cơ bản về tính nhất quán của dữ liệu, chẳng hạn như phát hiện sai lệch trong dữ liệu, quy tắc để có đủ dữ liệu cho tất cả nhân khẩu học và nhóm cũng như tính xác thực của dữ liệu. Việc kiểm tra các thành kiến ​​và sự không nhất quán này có thể đảm bảo rằng các tuyên bố từ chối trách nhiệm và cảnh báo được áp dụng cho kết quả cuối cùng, giống như một loại thuốc theo toa trong đó tất cả các tác dụng phụ tiềm ẩn đều được đề cập. Thử nghiệm phải được tiến hành liên tục và không nên giới hạn trong việc phát hành một tính năng một lần.
  3. hành động có trách nhiệm: Sự hỗ trợ của con người là rất quan trọng cho dù AI sáng tạo có trở nên “thông minh” đến mức nào. Bằng cách đảm bảo các hành động do AI điều khiển đi qua bộ lọc của con người, chúng tôi có thể đảm bảo sử dụng AI có trách nhiệm và xác nhận rằng các hoạt động do con người kiểm soát và quản lý một cách chính xác ngay từ đầu.
  4. Đánh giá rủi ro liên tục: Xem xét liệu trường hợp sử dụng thuộc loại rủi ro thấp, trung bình hay cao, có thể phức tạp, sẽ giúp xác định các hướng dẫn phù hợp phải được áp dụng để đảm bảo mức độ quản trị phù hợp. Cách tiếp cận “một kích cỡ phù hợp với tất cả” sẽ không dẫn đến quản trị hiệu quả.

ChatGTP chỉ là phần nổi của tảng băng trôi đối với AI tổng quát. Công nghệ này đang phát triển với tốc độ chóng mặt và việc đảm nhận trách nhiệm ngay bây giờ sẽ quyết định những đổi mới của AI tác động đến nền kinh tế toàn cầu như thế nào, trong số nhiều kết quả khác. Chúng ta đang ở một thời điểm thú vị trong lịch sử loài người, nơi “tính người” của chúng ta đang bị nghi ngờ bởi công nghệ đang cố gắng tái tạo chúng ta.

Một thế giới mới táo bạo đang chờ đợi, và chúng ta phải cùng nhau chuẩn bị để đối mặt với nó.

Rolf Schwartzmann, Ph.D., nằm trong Ban Cố vấn An ninh Thông tin cho băng giá.

Monish Darda là người đồng sáng lập và giám đốc công nghệ tại Icertis.

Dữ liệuNgười ra quyết định

Chào mừng bạn đến với cộng đồng VentureBeat!

DataDecisionMakers là nơi các chuyên gia, bao gồm cả những người kỹ thuật làm công việc dữ liệu, có thể chia sẻ những hiểu biết và đổi mới liên quan đến dữ liệu.

Nếu bạn muốn đọc về các ý tưởng tiên tiến và thông tin cập nhật, các phương pháp hay nhất cũng như tương lai của dữ liệu và công nghệ dữ liệu, hãy tham gia cùng chúng tôi tại DataDecisionMakers.

Bạn thậm chí có thể xem xét đóng góp một bài viết của riêng bạn!

Đọc thêm từ DataDecisionMakers


[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *