#AI #Google #Apple #sựkiện
Ứng dụng Ảnh của Google và Apple vẫn không thể tìm thấy được khỉ đột, dù đã có sự tiến bộ đáng kể trong trí tuệ nhân tạo sau cuộc tranh cãi về việc người Da đen bị gọi nhầm là khỉ đột. Những lỗi phân tích hình ảnh này gợi lên lo ngại về các lỗ hổng không thể sửa chữa hoặc không thể sửa chữa khác trong các sản phẩm sử dụng AI và thị giác máy tính. Chúng ta cần đặc biệt quan tâm đến việc tăng cường giám sát và huấn luyện dữ liệu của các thuật toán này để tránh các sai sót thiên vị và phân biệt chủng tộc.
Nguồn: https://www.nytimes.com/2023/05/22/technology/ai-photo-labels-google-apple.html
Tám năm sau cuộc tranh cãi về việc người Da đen bị phần mềm phân tích hình ảnh gọi nhầm là khỉ đột – và mặc dù có những tiến bộ lớn về thị giác máy tính – những gã khổng lồ công nghệ vẫn sợ lặp lại sai lầm.
Khi Google phát hành ứng dụng Ảnh độc lập vào tháng 5 năm 2015, mọi người đã rất ngạc nhiên trước những gì ứng dụng này có thể làm: phân tích hình ảnh để gắn nhãn người, địa điểm và đồ vật trong đó, một dịch vụ tiêu dùng đáng kinh ngạc vào thời điểm đó. Nhưng một vài tháng sau khi phát hành, một nhà phát triển phần mềm, Jacky Alciné, đã phát hiện ra rằng Google đã gắn nhãn các bức ảnh của anh ấy và một người bạn, cả hai đều là người Da đen, là “khỉ đột”, một thuật ngữ đặc biệt gây khó chịu vì nó gợi lại sự phân biệt chủng tộc trong nhiều thế kỷ. phép ẩn dụ.
Trong cuộc tranh cãi sau đó, Google đã ngăn phần mềm của mình phân loại bất kỳ thứ gì trong Ảnh là khỉ đột và họ tuyên bố sẽ khắc phục sự cố. Tám năm sau, với những tiến bộ đáng kể trong trí tuệ nhân tạo, chúng tôi đã kiểm tra xem Google đã giải quyết được vấn đề chưa và chúng tôi đã xem xét các công cụ có thể so sánh được từ các đối thủ cạnh tranh: Apple, Amazon và Microsoft.
Có một thành viên trong họ linh trưởng mà Google và Apple có thể nhận ra – vượn cáo, loài động vật đuôi dài, trông có vẻ giật mình thường trực, có chung ngón cái với con người, nhưng có họ hàng xa hơn là vượn.
Các công cụ của Google và Apple rõ ràng là phức tạp nhất khi phân tích hình ảnh.
Tuy nhiên, Google, công ty có phần mềm Android làm nền tảng cho hầu hết các điện thoại thông minh trên thế giới, đã đưa ra quyết định tắt khả năng tìm kiếm động vật linh trưởng bằng hình ảnh vì sợ phạm sai lầm xúc phạm và dán nhãn một người là động vật. Và Apple, với công nghệ hoạt động tương tự như của Google trong thử nghiệm của chúng tôi, dường như cũng vô hiệu hóa khả năng tìm kiếm khỉ và vượn.
Người tiêu dùng có thể không cần thường xuyên thực hiện tìm kiếm như vậy — mặc dù vào năm 2019, một người dùng iPhone đã phàn nàn trên diễn đàn hỗ trợ khách hàng của Apple rằng phần mềm “không thể tìm thấy khỉ trong ảnh trên thiết bị của tôi.” Nhưng vấn đề đặt ra những câu hỏi lớn hơn về các lỗ hổng không thể sửa chữa hoặc không thể sửa chữa khác ẩn giấu trong các dịch vụ dựa trên thị giác máy tính – một công nghệ diễn giải hình ảnh trực quan – cũng như các sản phẩm khác được cung cấp bởi AI
Ông Alciné thất vọng khi biết rằng Google vẫn chưa giải quyết triệt để vấn đề và cho biết xã hội đặt quá nhiều niềm tin vào công nghệ.
Anh ấy nói: “Tôi sẽ mãi mãi không có niềm tin vào AI này.
Các sản phẩm thị giác máy tính hiện được sử dụng cho các nhiệm vụ bình thường như gửi cảnh báo khi có một gói hàng ngay trước cửa nhà và nặng nề như điều hướng ô tô và tìm ra thủ phạm trong các cuộc điều tra của cơ quan thực thi pháp luật.
Lỗi có thể phản ánh thái độ phân biệt chủng tộc giữa những người mã hóa dữ liệu. Trong sự cố khỉ đột, hai cựu nhân viên của Google từng làm việc về công nghệ này cho biết vấn đề là công ty đã không đưa đủ ảnh người Da đen vào bộ sưu tập hình ảnh mà họ sử dụng để đào tạo hệ thống AI của mình. Kết quả là, công nghệ này không đủ quen thuộc với những người da sẫm màu và nhầm lẫn họ với khỉ đột.
Khi trí tuệ nhân tạo trở nên gắn bó hơn trong cuộc sống của chúng ta, nó làm dấy lên nỗi sợ hãi về những hậu quả không lường trước được. Mặc dù các sản phẩm thị giác máy tính và chatbot AI như ChatGPT là khác nhau, nhưng cả hai đều phụ thuộc vào các luồng dữ liệu cơ bản huấn luyện phần mềm và cả hai đều có thể hoạt động sai do sai sót trong dữ liệu hoặc sai lệch được tích hợp vào mã của chúng.
Microsoft gần đây khả năng của người dùng hạn chế để tương tác với một chatbot được tích hợp trong công cụ tìm kiếm của nó, Bing, sau khi nó xúi giục cuộc trò chuyện không phù hợp.
Quyết định của Microsoft, giống như lựa chọn của Google trong việc ngăn thuật toán của họ xác định khỉ đột hoàn toàn, minh họa một cách tiếp cận phổ biến trong ngành — ngăn chặn các tính năng công nghệ hoạt động sai thay vì sửa chúng.
Vicente Ordóñez, giáo sư tại Đại học Rice, người nghiên cứu thị giác máy tính, cho biết: “Việc giải quyết những vấn đề này rất quan trọng. “Làm thế nào chúng ta có thể tin tưởng phần mềm này cho các tình huống khác?”
Michael Marconi, phát ngôn viên của Google, cho biết Google đã ngăn ứng dụng ảnh của mình gắn nhãn bất kỳ thứ gì là khỉ hoặc vượn vì họ quyết định lợi ích “không lớn hơn nguy cơ gây hại”.
Apple từ chối bình luận về việc người dùng không thể tìm kiếm hầu hết các loài linh trưởng trên ứng dụng của mình.
Đại diện của Amazon và Microsoft cho biết các công ty này luôn tìm cách cải thiện sản phẩm của mình.
tầm nhìn xấu
Khi Google đang phát triển ứng dụng ảnh được phát hành cách đây 8 năm, Google đã thu thập một lượng lớn hình ảnh để đào tạo hệ thống AI nhận dạng người, động vật và đồ vật.
Hai cựu nhân viên của Google cho biết sự giám sát đáng kể của nó – rằng không có đủ ảnh của Người da đen trong dữ liệu đào tạo của nó – đã khiến ứng dụng gặp trục trặc sau đó. Các cựu nhân viên cho biết, công ty đã không phát hiện ra vấn đề “khỉ đột” vì họ đã không yêu cầu đủ nhân viên kiểm tra tính năng này trước khi ra mắt công chúng.
Google đã xin lỗi sâu sắc về sự cố khỉ đột, nhưng đó là một trong số các giai đoạn trong ngành công nghệ rộng lớn hơn đã dẫn đến các cáo buộc thiên vị.
Các sản phẩm khác đã bị chỉ trích bao gồm Webcam theo dõi khuôn mặt của HPkhông thể phát hiện một số người có làn da sẫm màu và Đồng hồ Apple, mà, theo đến một vụ kiện, không thể đọc chính xác nồng độ oxy trong máu qua các màu da. Những sai sót cho thấy rằng các sản phẩm công nghệ không được thiết kế cho những người có làn da sẫm màu. (Táo nhọn đến một tờ giấy từ năm 2022 trình bày chi tiết những nỗ lực của họ trong việc thử nghiệm ứng dụng oxy trong máu trên “nhiều loại da và màu da.”)
Nhiều năm sau lỗi Google Photos, công ty đã gặp sự cố tương tự với camera an ninh gia đình Nest trong quá trình thử nghiệm nội bộ, theo một người quen thuộc với sự cố làm việc tại Google vào thời điểm đó. Máy ảnh Nest, sử dụng AI để xác định xem ai đó trên tài sản là quen hay không quen, đã nhầm một số người Da đen với động vật. Người này cho biết Google đã vội vàng khắc phục sự cố trước khi người dùng có quyền truy cập vào sản phẩm.
Tuy nhiên, khách hàng của Nest tiếp tục phàn nàn trên các diễn đàn của công ty về những sai sót khác. Vào năm 2021, một khách hàng nhận được thông báo rằng mẹ của anh ấy đang bấm chuông cửa nhưng lại thấy mẹ vợ của anh ấy ở phía bên kia cánh cửa. Khi người dùng phàn nàn rằng hệ thống đang trộn lẫn các khuôn mặt mà họ đã đánh dấu là “quen thuộc”, một đại diện hỗ trợ khách hàng trong diễn đàn đã khuyên họ nên xóa tất cả các nhãn của mình và bắt đầu lại.
Ông Marconi, phát ngôn viên của Google, nói rằng “mục tiêu của chúng tôi là ngăn chặn những sai lầm kiểu này không bao giờ xảy ra.” Ông nói thêm rằng công ty đã cải thiện công nghệ của mình “bằng cách hợp tác với các chuyên gia và đa dạng hóa bộ dữ liệu hình ảnh của chúng tôi”.
Vào năm 2019, Google đã cố gắng cải thiện tính năng nhận dạng khuôn mặt cho điện thoại thông minh Android bằng cách tăng số lượng người có làn da sẫm màu trong bộ dữ liệu của mình. Nhưng các nhà thầu mà Google đã thuê để thu thập các bản quét khuôn mặt báo cáo đã sử dụng một chiến thuật rắc rối để bù đắp cho sự thiếu hụt dữ liệu đa dạng đó: Họ nhắm mục tiêu vào những người vô gia cư và sinh viên. Các giám đốc điều hành của Google gọi vụ việc là “rất đáng lo ngại” vào thời điểm đó.
Cách khắc phục?
Mặc dù Google đã làm việc đằng sau hậu trường để cải tiến công nghệ, nhưng Google không bao giờ cho phép người dùng đánh giá những nỗ lực đó.
Margaret Mitchell, một nhà nghiên cứu và đồng sáng lập nhóm Đạo đức AI của Google, đã gia nhập công ty sau sự cố khỉ đột và cộng tác với nhóm Ảnh. Cô ấy nói trong một cuộc phỏng vấn gần đây rằng cô ấy là người đề xuất quyết định của Google loại bỏ “nhãn khỉ đột, ít nhất là trong một thời gian.”
Tiến sĩ Mitchell nói: “Bạn phải suy nghĩ về tần suất một người cần dán nhãn là khỉ đột so với việc duy trì những định kiến có hại. “Những lợi ích không lớn hơn những tác hại tiềm tàng của việc làm sai.”
Tiến sĩ Ordóñez, giáo sư, đã suy đoán rằng Google và Apple giờ đây có thể phân biệt được loài linh trưởng với con người, nhưng họ không muốn kích hoạt tính năng này do rủi ro danh tiếng có thể xảy ra nếu nó hoạt động sai lần nữa.
Kể từ đó, Google đã phát hành một sản phẩm phân tích hình ảnh mạnh mẽ hơn, Google Lens, một công cụ để tìm kiếm trên web bằng ảnh thay vì văn bản. có dây đã phát hiện ra vào năm 2018 rằng công cụ này cũng không thể xác định được một con khỉ đột.
Tiến sĩ Mitchell, người không còn làm việc tại Google, cho biết những hệ thống này không bao giờ có thể đánh lừa được. Bởi vì hàng tỷ người sử dụng các dịch vụ của Google, ngay cả những trục trặc hiếm gặp chỉ xảy ra với một người trong số một tỷ người dùng cũng sẽ xuất hiện.
Cô ấy nói: “Chỉ cần mắc một sai lầm là có thể gây ra sự phân nhánh xã hội to lớn, đồng thời gọi đó là “con kim độc trong đống cỏ khô”.