Nhận diện khuôn mặt lỗi dẫn đến án oan

Mắt mặt nhận diện lỗi dẫn đến bị giam giữ sai

Vào ngày 26 tháng 3 năm 2022, một cuộc tấn công bạo lực xảy ra trên một chiếc xe buýt của Maryland Transit Administration ở ngoại ô Baltimore. Kẻ tấn công đấm mạnh tài xế xe buýt nữ nhiều lần sau một cuộc tranh cãi về quy tắc đeo khẩu trang COVID, sau đó bỏ chạy cùng với chiếc điện thoại di động của cô.

Theo một bài báo mới đây trên The New Yorker, các camera giám sát ghi lại hình ảnh của kẻ tấn công. Cảnh sát giao thông sử dụng những bức hình này để tạo ra thông báo Be on the Lookout phân phối đến các cơ quan thực thi pháp luật.

Một nhà phân tích tại văn phòng của luật sư tiểu bang Harford đã sử dụng phần mềm nhận diện khuôn mặt để so sánh một hình ảnh camera giám sát. Thuật toán đã dẫn dắt đến việc xác định Alonzo Cornelius Sawyer, một người đàn ông da đen khoảng 50 tuổi đến từ Abingdon, MD.

Sawyer đã bị bắt giữ vài ngày sau khi xuất hiện tại tòa án trong một vụ án không liên quan.

Cảnh sát đã thẩm vấn anh ta và cho anh ta xem các hình ảnh BOLO, mà anh ta cứ khăng khăng là không phải là anh ta – nhưng họ đã bác bỏ những yêu cầu của anh ta sau khi quản giáo của anh ta, Arron Daugherty, nhận diện Sawyer là kẻ tấn công sau khi xem lại các hình ảnh. Daugherty chỉ gặp Sawyer một cách ngắn gọn hai lần trước đây trong khi Sawyer đang đeo khẩu trang.

Vợ của Sawyer, Carronne Jones-Sawyer, đã phủ nhận mạnh mẽ rằng những bức ảnh không phải là chồng cô, dẫn chứng các khác biệt về tuổi tác, dáng người, quần áo và nhiều hơn nữa. Cô cung cấp những hằng chứng khẳng định, chỉ ra rằng Sawyer không có mặt tại hiện trường khi vụ tấn công xảy ra. Tuy nhiên, cảnh sát không tiến hành điều tra chứng minh thêm để xác nhận sự trùng khớp từ nhận diện khuôn mặt.

#nghiệp_vụ_nhận_diện_khuôn_mặt #vi_phạm_nhận_diện_khuôn_mặt #chống_dịch_tinh_tế #vụ_án_nhầm_lẫn #công_nghệ_nhận_diện_khuôn_mặt #đấu_luật #ai_nhận_diện_khuôn_mặt #lạm_dụng_tính_năng_nhận_diện_khuôn_mặt

Nguồn: https://readwrite.com/faulty-facial-recognition-leads-to-false-imprisonment/

On March 26, 2022, a violent assault occurred on a Maryland Transit Administration bus in suburban Baltimore. The attacker punched the female bus driver multiple times after an argument over COVID masking rules, then fled with her cell phone.

According to a recent New Yorker report, surveillance cameras captured images of the assailant. Transit police used these pictures to create a Be on the Lookout bulletin distributed to law enforcement agencies.

An analyst at the Harford County state’s attorney’s office ran one surveillance image through facial recognition software. The algorithm matched Alonzo Cornelius Sawyer, a black man in his 50s from Abingdon, MD.

Sawyer was arrested days later while appearing in court for an unrelated case.

Police interrogated him and showed him the BOLO images, which he insisted were not of him — but they dismissed his claims after his probation officer, Arron Daugherty, positively identified Sawyer as the attacker upon viewing the footage. Daugherty had only met Sawyer briefly twice before while Sawyer wore a mask.

Sawyer’s wife, Carronne Jones-Sawyer, also adamantly denied the images showed her husband, citing physical differences in age, build, clothing and more. She provided potential alibis, placing Sawyer away from the scene when the assault occurred. However, detectives conducted no further investigation to corroborate the facial recognition match.

AI racial bias

This case exemplifies the risks of overreliance on AI tools without sufficient standards.

Racial bias leads facial recognition systems to misidentify people of color at much higher rates. The algorithmic match outweighed contradictory eyewitness testimony in the police investigation.

After a month in jail, charges were dropped when Daugherty admitted doubts after meeting with Sawyer’s wife. The use of facial recognition was never disclosed to Sawyer. Neither he nor his wife were notified when another man was eventually arrested.

The story highlights concerns about inadequate training in facial recognition, lack of corroboration, failure to disclose the use of the technology and confirmation bias, leading police to dismiss contradictory evidence.

Critics argue that facial recognition usage should be banned or strictly limited, given its potential for abuse and entrenching injustice without oversight. Sawyer believes he would have falsely pleaded guilty without his wife’s intervention, showing how the practice can enable overzealous prosecution.

As rapid AI advancements spread, the public needs protection against unproven technologies. Sawyer’s experience underscores the urgent need for reform, transparency, and accountability to prevent more wrongful arrests.

Featured Image Credit: Cottonbro Studio; Pexels; Thank you!

Radek Zielinski

Radek Zielinski is an experienced technology and financial journalist with a passion for cybersecurity and futurology.


[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *