Giải quyết vấn đề tính hợp pháp/tin cậy của AI tổng quát bằng Tư pháp theo thủ tục

#NgàyHômNay: Thung lũng Silicone cần học hỏi từ Tư pháp

Trí tuệ nhân tạo đang khơi lại cuộc tranh luận về sự an toàn và tính hợp pháp của nó. Vì dữ liệu đào tạo của AI được tạo ra bởi con người, việc nó có xu hướng thiên vị cần được kiểm soát. Sam Altman, Giám đốc điều hành OpenAI đã yêu cầu sự kiên nhẫn và đức tin tốt từ chúng ta để họ sửa chữa các lỗi. Edelman Trust Barometer năm 2023 cho thấy toàn cầu 65% lo lắng công nghệ sẽ khiến không thể biết liệu những gì mọi người đang nhìn hoặc nghe có phải là thật hay không.

Một cách tiếp cận tư pháp theo thủ tục để hợp pháp và tin tưởng được sử dụng trong hệ thống pháp luật của quốc gia. Công lý theo thủ tục dựa trên nghiên cứu cho thấy mọi người tin rằng các tổ chức và chủ thể đáng tin cậy và hợp pháp hơn khi họ được lắng nghe và trải nghiệm quá trình ra quyết định trung lập, không thiên vị và minh bạch.

Các công ty AI có thể sử dụng những ý tưởng này để xây dựng lòng tin và tính hợp pháp. Việc thuê đội ngũ phù hợp để giải quyết các câu hỏi phù hợp, bao gồm các nhà khoa học xã hội, những người hiểu được tác động của công nghệ đối với con người và xã hội, để đưa ra quyết định cân nhắc và minh bạch. Các công ty cần thêm đầu vào từ bên ngoài để tạo quan điểm đa dạng và cho phép nhiều phản hồi trực tiếp hơn vào sản phẩm AI.

Sự hợp tác và tiếp cận đa ngành giữa công nghệ và pháp luật có thể giải quyết nhiều rủi ro đối với trí tuệ nhân tạo và xây dựng lòng tin của người tiêu dùng. #tuphaptietkiem #AI #hoptacxanhan #dangtintriển #annguy #xhchungta #songanuong #tongquanAI #congsongkinhdoanh

Nguồn: https://techcrunch.com/2023/05/19/procedural-justice-can-address-generative-ais-trust-legitimacy-problem/




Sự xuất hiện rầm rộ của trí tuệ nhân tạo AI đã khơi lại một cuộc tranh luận quen thuộc về niềm tin và sự an toàn: Liệu các giám đốc điều hành công nghệ có thể được tin cậy để luôn quan tâm đến lợi ích tốt nhất của xã hội không?

Bởi vì dữ liệu đào tạo của nó được tạo ra bởi con người, AI vốn có xu hướng thiên vị và do đó phải tuân theo cách nhìn thế giới không hoàn hảo, theo cảm xúc của chính chúng ta. Chúng tôi biết quá rõ những rủi ro, từ việc củng cố sự phân biệt đối xử và bất bình đẳng chủng tộc đến việc thúc đẩy sự phân cực.

Giám đốc điều hành OpenAI Sam Altman đã yêu cầu “sự kiên nhẫn và đức tin tốt” của chúng tôi khi họ làm việc để “làm cho đúng”.

Trong nhiều thập kỷ, chúng tôi đã kiên nhẫn đặt niềm tin vào các nhà điều hành công nghệ trong tình trạng nguy hiểm: Họ đã tạo ra nó, vì vậy chúng tôi tin họ khi họ nói rằng họ có thể sửa chữa nó. Niềm tin vào các công ty công nghệ tiếp tục giảm mạnh và theo Edelman Trust Barometer năm 2023, toàn cầu 65% lo lắng công nghệ sẽ khiến không thể biết liệu những gì mọi người đang nhìn hoặc nghe có phải là thật hay không.

Đã đến lúc Thung lũng Silicon áp dụng một cách tiếp cận khác để giành được sự tin tưởng của chúng ta — một cách tiếp cận đã được chứng minh là hiệu quả trong hệ thống pháp luật của quốc gia.

Một cách tiếp cận tư pháp theo thủ tục để tin tưởng và hợp pháp

Dựa trên tâm lý xã hội, công lý theo thủ tục dựa trên nghiên cứu cho thấy mọi người tin rằng các tổ chức và chủ thể đáng tin cậy và hợp pháp hơn khi họ được lắng nghe và trải nghiệm quá trình ra quyết định trung lập, không thiên vị và minh bạch.

Bốn thành phần chính của công lý theo thủ tục là:

  • Tính trung lập: Các quyết định không thiên vị và được hướng dẫn bởi lập luận minh bạch.
  • Tôn trọng: Tất cả đều được đối xử với sự tôn trọng và nhân phẩm.
  • Giọng nói: Mọi người đều có cơ hội kể câu chuyện của mình.
  • Đáng tin cậy: Những người ra quyết định truyền đạt những động cơ đáng tin cậy về những người bị ảnh hưởng bởi quyết định của họ.

Sử dụng khuôn khổ này, cảnh sát đã cải thiện lòng tin và sự hợp tác trong cộng đồng của họ và một số công ty truyền thông xã hội đang bắt đầu sử dụng những ý tưởng này để định hình quản trị và điều độ cách tiếp cận.

Dưới đây là một vài ý tưởng về cách các công ty AI có thể điều chỉnh khuôn khổ này để xây dựng lòng tin và tính hợp pháp.

Xây dựng đội ngũ phù hợp để giải quyết các câu hỏi phù hợp

BẰNG Giáo sư Safiya Noble của UCLA lập luận, các câu hỏi xung quanh sự thiên vị thuật toán không thể được giải quyết bởi các kỹ sư một mình, bởi vì chúng là các vấn đề xã hội mang tính hệ thống đòi hỏi quan điểm nhân văn — bên ngoài bất kỳ công ty nào — để đảm bảo đối thoại xã hội, sự đồng thuận và cuối cùng là quy định — cả bản thân và chính phủ.

TRONG “Lỗi hệ thống: Công nghệ lớn đã sai ở đâu và chúng tôi có thể khởi động lại như thế nào,” ba giáo sư của Stanford thảo luận nghiêm túc về những thiếu sót của văn hóa đào tạo khoa học máy tính và kỹ thuật vì nỗi ám ảnh về tối ưu hóa, thường gạt bỏ các giá trị cốt lõi của một xã hội dân chủ sang một bên.

Trong một bài đăng trên blog, Open AI cho biết nó coi trọng đầu vào xã hội: “Vì ưu điểm của AGI là rất lớn nên chúng tôi không tin rằng xã hội có thể ngừng phát triển nó mãi mãi; thay vào đó, xã hội và các nhà phát triển AGI phải tìm ra cách làm cho đúng.”

Tuy nhiên, trang tuyển dụng và người sáng lập của công ty Dòng tweet của Sam Altman cho thấy công ty đang thuê rất nhiều kỹ sư máy học và nhà khoa học máy tính vì “ChatGPT có một lộ trình đầy tham vọng và bị cản trở bởi kỹ thuật.”

Các nhà khoa học và kỹ sư máy tính này có được trang bị để đưa ra quyết định, như OpenAI đã nói, “sẽ cần thận trọng hơn nhiều so với xã hội thường áp dụng cho các công nghệ mới”?

Các công ty công nghệ nên thuê các nhóm đa ngành bao gồm các nhà khoa học xã hội, những người hiểu được tác động của công nghệ đối với con người và xã hội. Với nhiều quan điểm khác nhau về cách đào tạo các ứng dụng AI và triển khai các thông số an toàn, các công ty có thể đưa ra lý lẽ minh bạch cho các quyết định của mình. Đổi lại, điều này có thể thúc đẩy nhận thức của công chúng về công nghệ là trung lập và đáng tin cậy.

Bao gồm quan điểm của người ngoài cuộc

Một yếu tố khác của công lý theo thủ tục là tạo cơ hội cho mọi người tham gia vào quá trình ra quyết định. Trong một thời gian gần đây Blog đăng về cách OpenAI đang giải quyết sự thiên vị, công ty cho biết họ tìm kiếm “đầu vào từ bên ngoài đối với công nghệ của chúng tôi” chỉ ra một bài tập hợp tác màu đỏ gần đây, một quy trình đánh giá rủi ro thông qua cách tiếp cận đối nghịch.

Mặc dù lập nhóm đỏ là một quá trình quan trọng để đánh giá rủi ro, nhưng nó phải bao gồm cả đầu vào từ bên ngoài. TRONG Bài tập hợp tác màu đỏ của OpenAI, 82 trong số 103 người tham gia là nhân viên. Trong số 23 người tham gia còn lại, phần lớn là các học giả khoa học máy tính từ các trường đại học chủ yếu là phương Tây. Để có được những quan điểm đa dạng, các công ty cần nhìn xa hơn nhân viên, kỷ luật và địa lý của chính họ.

Họ cũng có thể cho phép nhiều phản hồi trực tiếp hơn vào các sản phẩm AI bằng cách cung cấp cho người dùng khả năng kiểm soát tốt hơn đối với cách thức hoạt động của AI. Họ cũng có thể cân nhắc tạo cơ hội cho công chúng nhận xét về chính sách mới hoặc những thay đổi về sản phẩm.

Đảm bảo minh bạch

Các công ty nên đảm bảo tất cả các quy tắc và quy trình an toàn liên quan đều minh bạch và truyền đạt những động cơ đáng tin cậy về cách các quyết định được đưa ra. Ví dụ: điều quan trọng là cung cấp cho công chúng thông tin về cách các ứng dụng được đào tạo, dữ liệu được lấy từ đâu, vai trò của con người trong quá trình đào tạo và những lớp an toàn nào tồn tại để giảm thiểu việc sử dụng sai mục đích.

Cho phép các nhà nghiên cứu kiểm tra và hiểu các mô hình AI là chìa khóa để xây dựng lòng tin.

Altman đã làm đúng trong một thời gian gần đây tin tức ABC phỏng vấn khi anh ấy nói, “Tôi nghĩ, xã hội có một khoảng thời gian hạn chế để tìm ra cách phản ứng với điều đó, cách điều chỉnh điều đó, cách xử lý nó.”

Thông qua cách tiếp cận công bằng theo thủ tục, thay vì cách tiếp cận mù mờ và mù quáng của những người đi trước về công nghệ, các công ty xây dựng nền tảng AI có thể thu hút xã hội tham gia vào quá trình này và kiếm được — chứ không phải đòi hỏi — sự tin tưởng và tính hợp pháp.


Leave a Reply

Your email address will not be published. Required fields are marked *