#Sựkiệnngàyhômnay: Các công ty công nghệ lớn đã bỏ bê niềm tin và an toàn. Giờ đây, các startup đang bán lại như một dịch vụ
Cùng với việc sử dụng hệ thống AI để giúp nhận diện nội dung có thể nguy hiểm hoặc lạm dụng, việc sử dụng dữ liệu khổng lồ để xây dựng các công cụ nội bộ nhằm tối ưu quá trình này đã trở thành một sự thật, theo Louis-Victor de Franssu, đồng sáng lập của nền tảng an toàn và đáng tin cậy Tremau. Tuy nhiên, nhiều công ty phải dựa vào các mô hình thương mại có sẵn để xây dựng hệ thống của mình – điều này có thể gây ra các vấn đề mới.
“Hiện có các công ty tuyên bố bán những công nghệ trí tuệ nhân tạo (AI), nhưng thực tế là họ kết hợp nhiều mô hình khác nhau”, Franssu nói. Điều này có nghĩa là một công ty có thể kết hợp nhiều mô hình học máy khác nhau – ví dụ như mô hình phát hiện tuổi tác của người dùng và mô hình phát hiện nội y để nhận dạng nội dung có thể là lạm dụng tình dục trẻ em – thành một dịch vụ mà họ cung cấp cho khách hàng.
Mặc dù điều này có thể làm giá dịch vụ rẻ hơn, nhưng cũng đồng nghĩa với việc bất kỳ vấn đề nào trong một mô hình mà công ty thuê làm việc sẽ được nhân bản trên toàn bộ các khách hàng của họ, theo Gabe Nicholas, một nhà nghiên cứu tại Trung tâm Công nghệ và Dân chủ. “Từ quan điểm tự do ngôn luận, điều này có nghĩa là nếu có lỗi trên một nền tảng, bạn không thể đưa lời nói của bạn đến nơi khác – nếu có lỗi, lỗi đó sẽ lan truyền khắp mọi nơi.” Vấn đề này còn nặng hơn nếu có nhiều công ty thuê cùng sử dụng các mô hình cơ sở giống nhau.
Bằng cách giao các chức năng quan trọng cho bên thứ ba, các nền tảng cũng có thể làm cho việc hiểu được quyết định kiểm duyệt nội dung trở nên khó khăn hơn đối với công chúng, và làm cho xã hội dân sự – những tổ chức nghiên cứu và phi lợi nhuận theo dõi cận kề các nền tảng lớn – không biết đặt trách nhiệm cho ai khi xảy ra sự cố.
“(Rất nhiều người theo dõi) nói như thể các nền tảng lớn là những người đưa ra quyết định. Đó là lý do tại sao nhiều người trong giới học thuật, xã hội dân sự và chính phủ chỉ ra các điểm yếu của họ”, Nicholas nói. “Ý tưởng rằng chúng ta có thể đang chỉ ra sai chỗ cũng là một ý tưởng kinh hoàng.”
Lịch sử cho thấy, các công ty lớn như Telus, Teleperformance và Accenture đã được thuê để quản lý một phần quan trọng trong công việc an toàn đáng tin cậy được giao cho bên thứ ba: kiểm duyệt nội dung. Điều này thường thể hiện qua các trung tâm gọi và có sự tham gia của nhiều nhân viên làm công việc thấp nhưng tiếp tục theo dõi cẩn thận các bài đăng để quyết định liệu chúng vi phạm chính sách của nền tảng về các vấn đề như lời nói kích động thù địch, rác và nội dung nude. Các startup đáng tin cậy và an toàn mới đang hướng tới sự tự động hóa và trí tuệ nhân tạo hơn, thường chuyên về một số loại nội dung hoặc lĩnh vực đặc biệt như khủng bố hoặc lạm dụng tình dục trẻ em, hoặc tập trung vào một phương tiện cụ thể, chẳng hạn như văn bản so với video. Những người khác đang xây dựng các công cụ cho phép khách hàng thực hiện các quy trình về an toàn và đáng tin cậy thông qua một giao diện duy nhất.
Nguồn: https://www.wired.com/story/trust-and-safety-startups-big-tech/
The same is true of the AI systems that companies use to help flag potentially dangerous or abusive content. Platforms often use huge troves of data to build internal tools that help them streamline that process, says Louis-Victor de Franssu, cofounder of trust and safety platform Tremau. But many of these companies have to rely on commercially available models to build their systems—which could introduce new problems.
“There are companies that say they sell AI, but in reality what they do is they bundle together different models,” says Franssu. This means a company might be combining a bunch of different machine learning models—say, one that detects the age of a user and another that detects nudity to flag potential child sexual abuse material—into a service they offer clients.
And while this can make services cheaper, it also means that any issue in a model an outsourcer uses will be replicated across its clients, says Gabe Nicholas, a research fellow at the Center for Democracy and Technology. “From a free speech perspective, that means if there’s an error on one platform, you can’t bring your speech somewhere else–if there’s an error, that error will proliferate everywhere.” This problem can be compounded if several outsourcers are using the same foundational models.
By outsourcing critical functions to third parties, platforms could also make it harder for people to understand where moderation decisions are being made, or for civil society—the think tanks and nonprofits that closely watch major platforms—to know where to place accountability for failures.
“(Many watching) talk as if these big platforms are the ones making the decisions. That’s where so many people in academia, civil society, and the government point their criticism to,” says Nicholas,. “The idea that we may be pointing this to the wrong place is a scary thought.”
Historically, large firms like Telus, Teleperformance, and Accenture would be contracted to manage a key part of outsourced trust and safety work: content moderation. This often looked like call centers, with large numbers of low-paid staffers manually parsing through posts to decide whether they violate a platform’s policies against things like hate speech, spam, and nudity. New trust and safety startups are leaning more toward automation and artificial intelligence, often specializing in certain types of content or topic areas—like terrorism or child sexual abuse—or focusing on a particular medium, like text versus video. Others are building tools that allow a client to run various trust and safety processes through a single interface.