#Đạo_đức_AI #Tập_dữ_liệu #Nghiên_cứu_người_dùng #Bảo_vệ_quyền_riêng_tư #Hợp_tác_liên_ngành
Nhà đạo đức AI, Kathy Baxter, đã cảnh báo về vấn đề sự bùng nổ của trí thông minh nhân tạo vào ngày hôm nay. Cô cho rằng nếu chúng ta không hành động ngay bây giờ, sự bùng nổ này sẽ khuếch đại các vấn đề xã hội, vì vậy các nhà phát triển AI cần phải di chuyển nhanh chóng để triển khai các hệ thống giải quyết thiên vị thuật toán.
Baxter cũng nhấn mạnh nhu cầu thể hiện đa dạng trong tập dữ liệu và nghiên cứu người dùng để đảm bảo rằng các hệ thống AI công bằng và không thiên vị. Việc làm cho các hệ thống AI trở nên minh bạch, dễ hiểu và có trách nhiệm giải trình đồng thời bảo vệ quyền riêng tư của cá nhân cũng là rất quan trọng.
Để đạt được các mục tiêu này, Baxter đề xuất hợp tác liên ngành, để chúng ta có thể phát triển các hệ thống AI mạnh mẽ và an toàn, mang lại lợi ích cho tất cả mọi người. Điều quan trọng là phải xem xét các bộ dữ liệu đang được sử dụng và đảm bảo chúng đại diện cho tiếng nói của mọi người. Tính toàn diện trong quá trình phát triển và xác định các tác hại tiềm ẩn thông qua nghiên cứu người dùng cũng rất cần thiết.
Những vấn đề đạo đức AI cơ bản bao gồm đảm bảo rằng các hệ thống AI được phát triển và triển khai mà không đẩy mạnh những thành kiến xã hội hiện có hoặc tạo ra những thành kiến mới. Xu hướng xã hội có thể được truyền vào các hệ thống AI thông qua các bộ dữ liệu được sử dụng để đào tạo chúng. Nghiên cứu người dùng cũng là rất quan trọng để giúp đảm bảo rằng các giải thích rõ ràng và người dùng có thể xác định những điều không chắc chắn trong nội dung do AI tạo ra.
Bảo vệ quyền riêng tư của cá nhân và đảm bảo việc sử dụng AI có trách nhiệm là rất quan trọng. Các lực lượng bán hàng phải có trách nhiệm chỉ sử dụng dữ liệu của khách hàng khi được sự đồng ý và cho phép người dùng chọn tham gia, từ chối hoặc có quyền kiểm soát việc sử dụng dữ liệu của họ.
Để đảm bảo các hệ thống AI an toàn, đáng tin cậy và có thể sử dụng được là rất quan trọng. Các kỹ thuật như “chuỗi gợi ý suy nghĩ” có thể giúp các hệ thống AI thể hiện công việc của chúng và làm cho quá trình ra quyết định của chúng trở nên dễ hiểu hơn. Việc duy trì kiểm soát và tự chủ của con người hơn các hệ thống AI ngày càng tự trị là quan trọng hơn bao giờ hết.
Việc đầu tư vào các biện pháp bảo vệ đạo đức AI và tập trung vào hiện tại có thể giúp giảm thiểu những vấn đề này và đảm bảo việc phát triển và sử dụng các hệ thống AI một cách có trách nhiệm. Việc tập trung các hoạt động AI có đạo đức và cộng tác giữa các ngành giúp tạo ra một tương lai an toàn, toàn diện hơn cho công nghệ AI.
Các nhà phát triển AI phải di chuyển nhanh chóng để phát triển và triển khai các hệ thống giải quyết thiên vị thuật toán, Kathy Baxter, Kiến trúc sư chính về Thực hành AI có đạo đức tại Salesforce cho biết. Trong một cuộc phỏng vấn với ZDNET, Baxter nhấn mạnh nhu cầu thể hiện đa dạng trong tập dữ liệu và nghiên cứu người dùng để đảm bảo hệ thống AI công bằng và không thiên vị. Cô cũng nhấn mạnh tầm quan trọng của việc làm cho các hệ thống AI trở nên minh bạch, dễ hiểu và có trách nhiệm giải trình đồng thời bảo vệ quyền riêng tư của cá nhân. Baxter nhấn mạnh nhu cầu hợp tác liên ngành, giống như mô hình được sử dụng bởi Viện Tiêu chuẩn và Công nghệ Quốc gia (NIST), để chúng tôi có thể phát triển các hệ thống AI mạnh mẽ và an toàn, mang lại lợi ích cho tất cả mọi người.
Một trong những câu hỏi cơ bản về đạo đức AI là đảm bảo rằng các hệ thống AI được phát triển và triển khai mà không củng cố những thành kiến xã hội hiện có hoặc tạo ra những thành kiến mới. Để đạt được điều này, Baxter nhấn mạnh tầm quan trọng của việc đặt câu hỏi ai được lợi và ai trả tiền cho công nghệ AI. Điều quan trọng là phải xem xét các bộ dữ liệu đang được sử dụng và đảm bảo chúng đại diện cho tiếng nói của mọi người. Tính toàn diện trong quá trình phát triển và xác định các tác hại tiềm ẩn thông qua nghiên cứu người dùng cũng rất cần thiết.
“Đây là một trong những câu hỏi cơ bản mà chúng ta phải thảo luận,” Baxter nói. “Phụ nữ da màu, đặc biệt, đã hỏi câu hỏi này và làm nghiên cứu trong lĩnh vực này trong nhiều năm nay. Tôi rất vui khi thấy nhiều người nói về điều này, đặc biệt là với việc sử dụng AI tổng quát. Nhưng những điều chúng ta cần làm, về cơ bản, là hỏi xem ai được lợi và ai trả tiền cho công nghệ này. Giọng nói của ai bao gồm?”
Xu hướng xã hội có thể được truyền vào các hệ thống AI thông qua các bộ dữ liệu được sử dụng để đào tạo chúng. Các tập dữ liệu không mang tính đại diện có chứa thành kiến, chẳng hạn như tập dữ liệu hình ảnh chủ yếu là một chủng tộc hoặc thiếu sự khác biệt về văn hóa, có thể dẫn đến các hệ thống AI có thành kiến. Hơn nữa, việc áp dụng các hệ thống AI không đồng đều trong xã hội có thể duy trì những khuôn mẫu hiện có.
Để làm cho các hệ thống AI minh bạch và dễ hiểu đối với người bình thường, ưu tiên khả năng giải thích trong quá trình phát triển là chìa khóa. Các kỹ thuật như “chuỗi gợi ý suy nghĩ” có thể giúp các hệ thống AI thể hiện công việc của chúng và làm cho quá trình ra quyết định của chúng trở nên dễ hiểu hơn. Nghiên cứu người dùng cũng rất quan trọng để đảm bảo rằng các giải thích rõ ràng và người dùng có thể xác định những điều không chắc chắn trong nội dung do AI tạo ra.
Cũng: AI có thể tự động hóa 25% tất cả các công việc Đây là những thứ có nguy cơ cao nhất (và ít nhất)
Bảo vệ quyền riêng tư của cá nhân và đảm bảo việc sử dụng AI có trách nhiệm đòi hỏi sự minh bạch và đồng ý. Lực lượng bán hàng theo dõi hướng dẫn về AI sinh sản có trách nhiệm, bao gồm tôn trọng nguồn gốc dữ liệu và chỉ sử dụng dữ liệu của khách hàng khi có sự đồng ý. Việc cho phép người dùng chọn tham gia, từ chối hoặc có quyền kiểm soát việc sử dụng dữ liệu của họ là rất quan trọng đối với quyền riêng tư.
Baxter cho biết: “Chúng tôi chỉ sử dụng dữ liệu của khách hàng khi được sự đồng ý của họ. “Việc minh bạch khi bạn đang sử dụng dữ liệu của ai đó, cho phép họ chọn tham gia và cho phép họ quay lại và nói khi nào họ không muốn đưa dữ liệu của mình vào nữa là điều thực sự quan trọng.”
Khi sự cạnh tranh để đổi mới trong AI tổng quát tăng cường, việc duy trì kiểm soát và tự chủ của con người hơn các hệ thống AI ngày càng tự trị là quan trọng hơn bao giờ hết. Trao quyền cho người dùng để đưa ra quyết định sáng suốt về việc sử dụng nội dung do AI tạo ra và theo dõi con người có thể giúp duy trì quyền kiểm soát.
Đảm bảo các hệ thống AI an toàn, đáng tin cậy và có thể sử dụng được là rất quan trọng; sự hợp tác trong toàn ngành là rất quan trọng để đạt được điều này. Baxter ca ngợi Khung quản lý rủi ro AI được tạo bởi NIST, với sự tham gia của hơn 240 chuyên gia từ các lĩnh vực khác nhau. Cách tiếp cận hợp tác này cung cấp một ngôn ngữ và khuôn khổ chung để xác định rủi ro và chia sẻ các giải pháp.
Việc không giải quyết các vấn đề về đạo đức AI này có thể ảnh hưởng nghiêm trọng hậu quảnhư đã thấy trong các trường hợp bắt oan do lỗi nhận dạng khuôn mặt hoặc tạo ra những hình ảnh có hại. Đầu tư vào các biện pháp bảo vệ và tập trung vào hiện tại thay vì chỉ tập trung vào các tác hại tiềm tàng trong tương lai, có thể giúp giảm thiểu những vấn đề này và đảm bảo việc phát triển và sử dụng các hệ thống AI một cách có trách nhiệm.
Cũng: Cách ChatGPT hoạt động
Trong khi tương lai của AI và khả năng của trí thông minh nhân tạo nói chung là chủ đề hấp dẫn, Baxter nhấn mạnh tầm quan trọng của việc tập trung vào hiện tại. Việc đảm bảo sử dụng AI có trách nhiệm và giải quyết các thành kiến xã hội ngày nay sẽ giúp xã hội chuẩn bị tốt hơn cho những tiến bộ của AI trong tương lai. Bằng cách đầu tư vào các hoạt động AI có đạo đức và cộng tác giữa các ngành, chúng ta có thể giúp tạo ra một tương lai an toàn hơn, toàn diện hơn cho công nghệ AI.
Baxter nói: “Tôi nghĩ mốc thời gian rất quan trọng. “Chúng tôi thực sự phải đầu tư vào đây và bây giờ và tạo ra bộ nhớ cơ bắp này, tạo ra các nguồn lực này, tạo ra các quy định cho phép chúng tôi tiếp tục tiến lên nhưng thực hiện nó một cách an toàn.”
[ad_2]