Hôm nay là sự kiện California Xây Dựng Tương Lai, cho Điều Tốt và Điều Xấu. Trong bài viết dài này, tác giả đề cập đến việc bồi thường cho những người da đen bị chính sách phân biệt đối xử trong lịch sử gây thiệt hại đến hàng trăm tỷ đô la. Tuy nhiên, sự tiến bộ của trí tuệ nhân tạo đang đem lại những thách thức mới trong việc giải quyết bất công. AI không trung lập và có thể phóng đại thành kiến về giới tính, chủng tộc… Vì thế, tác giả đề nghị rằng chúng ta cần áp dụng tư duy lịch sử cho câu hỏi về công nghệ, để ngăn chặn những bất công tái diễn. Các giám đốc điều hành công nghệ cũng cần phải cảnh giác với việc điều chỉnh các hệ thống AI. Câu hỏi mà chúng ta đối mặt cả với bồi thường và AI là ai sẽ có quyền đối với tương lai và ai có thể bị tổn hại. Bài viết này được viết bởi tác giả Laila Lalami và được minh họa bởi Benjamin Marra. #CaliforniaXâyDựngTươngLai #TríTuệNhânTạo #BấtCông #TưDuyLịchSử #AIKhôngTrungLập
Nguồn: https://www.nytimes.com/2023/05/30/magazine/california-future.html
Mặc dù lực lượng đặc nhiệm chưa đưa ra con số chính xác về việc con cháu của những người nô lệ có thể được bồi thường như thế nào vì áp dụng chính sách quá mức, giam giữ hàng loạt và phân biệt đối xử về nhà ở, nhưng các nhà kinh tế tư vấn cho lực lượng này ước tính rằng thiệt hại mà cư dân Da đen của bang phải gánh chịu có thể lên tới hàng trăm tỷ đô la. của đô la. Việc bồi thường có thực sự được phê duyệt hay không vẫn chưa được xác định.
Cuộc trò chuyện về bồi thường cho thấy rằng California có một khả năng đặc biệt để xem xét lại lịch sử đầy khó khăn của mình. Nhưng suy nghĩ đó không phải lúc nào cũng mở rộng đến tương lai. Các hệ thống trí tuệ nhân tạo đang được sử dụng để kiểm duyệt nội dung trên phương tiện truyền thông xã hội, đánh giá các ứng dụng đại học, tìm hiểu sơ yếu lý lịch việc làm, tạo ảnh và tác phẩm nghệ thuật giả, giải thích dữ liệu chuyển động được thu thập từ khu vực biên giới và xác định nghi phạm trong các cuộc điều tra tội phạm. Các mô hình ngôn ngữ như ChatGPT, được tạo bởi công ty OpenAI có trụ sở tại San Francisco, cũng đã thu hút rất nhiều sự chú ý vì tiềm năng phá vỡ các lĩnh vực như thiết kế, luật và giáo dục.
Nhưng nếu sự thành công của AI có thể được đo lường bằng mức định giá hàng tỷ đô la và các đợt IPO béo bở, thì những thất bại của nó lại do những người bình thường gánh chịu. Hệ thống AI không trung lập; họ được đào tạo về các tập dữ liệu lớn bao gồm, chẳng hạn như tài liệu khai thác tình dục hoặc dữ liệu về chính sách phân biệt đối xử. Kết quả là, chúng tái tạo và phóng đại những thành kiến tồi tệ nhất trong xã hội của chúng ta. Ví dụ: phần mềm nhận dạng chủng tộc được sử dụng trong các cuộc điều tra của cảnh sát thường xuyên xác định nhầm người Da đen và da nâu. Những người cho vay thế chấp dựa trên AI có nhiều khả năng từ chối các khoản cho vay mua nhà đối với người da màu, góp phần kéo dài sự bất bình đẳng về nhà ở.
Đây dường như là thời điểm mà chúng ta có thể áp dụng tư duy lịch sử cho câu hỏi về công nghệ, để chúng ta có thể ngăn chặn những bất công do những thay đổi mô hình trước đây tái diễn. Vào tháng 4, hai nhà lập pháp đã giới thiệu một dự luật tại Quốc hội nhằm ngăn chặn sự thiên vị trong thuật toán. Hiệp hội Nhà văn Hoa Kỳ, hiện đang đình công, đã đưa ra các giới hạn về việc sử dụng AI trong các yêu cầu của mình. Khả năng chống lại sự dư thừa cũng đến từ bên trong ngành công nghệ. Ba năm trước, Timnit Gebru, người đứng đầu Nhóm đạo đức AI tại Google, đã bị sa thải sau khi cô ấy gióng lên hồi chuông cảnh báo về sự nguy hiểm của các mô hình ngôn ngữ như GPT-3. Nhưng bây giờ, ngay cả các giám đốc điều hành công nghệ cũng trở nên cảnh giác: Trong lời khai của mình trước Thượng viện, Sam Altman, giám đốc điều hành của OpenAI, thừa nhận rằng các hệ thống AI cần phải được điều chỉnh.
Câu hỏi mà chúng ta phải đối mặt với cả bồi thường và AI cuối cùng không khác mấy so với câu hỏi nảy sinh khi một tu sĩ dòng Phanxicô lên đường đến Camino Real vào năm 1769. Nó không quá nhiều “Tương lai sẽ như thế nào?” — mặc dù đó là một câu hỏi thú vị — nhưng “Ai sẽ có quyền đối với tương lai? Ai có thể được phục vụ bởi sửa chữa xã hội hoặc công nghệ mới, và ai có thể bị tổn hại?” Câu trả lời có thể được quyết định ở California.
Laila Lalami là tác giả của bốn cuốn tiểu thuyết, trong đó có “Những người Mỹ khác”. Cuốn sách gần đây nhất của cô ấy là một tác phẩm phi hư cấu, “Những công dân có điều kiện”. Cô ấy sống ở Los Angeles. Benjamin Marra là một họa sĩ minh họa, một họa sĩ truyện tranh và một giám đốc nghệ thuật. Hình minh họa của anh ấy cho “Wayfaring Strangers: Acid Nightmares” của Numero Group đã được đề cử giải Grammy.
[ad_2]