Bluesky đề cập đến các vấn đề về niềm tin và an toàn liên quan đến lạm dụng, spam và nhiều vấn đề khác. Bluesky, một startup mạng xã hội đang xây dựng một lựa chọn phân tán cho X (trước đây là Twitter), đã cung cấp thông tin cập nhật vào ngày thứ Tư về cách mà họ tiếp cận các vấn đề niềm tin và an toàn trên nền tảng của mình. Công ty đang ở các giai đoạn khác nhau trong việc phát triển và thử nghiệm một loạt các sáng kiến tập trung vào xử lý các tài khoản xấu, quấy rối, spam, tài khoản giả mạo, an toàn video và nhiều hơn nữa.
Để đối phó với người dùng độc hại hoặc những người quấy rối người khác, Bluesky cho biết họ đang phát triển công cụ mới sẽ có thể phát hiện khi có nhiều tài khoản mới mà cùng một người quản lý. Điều này có thể giúp giảm quấy rối, nơi một người xấu tạo ra nhiều nhân cách khác nhau để nhắm vào nạn nhân của họ.
Một thử nghiệm mới khác sẽ giúp phát hiện các phản hồi “khó chịu” và hiển thị chúng cho các quản trị viên máy chủ. Tương tự như Mastodon, Bluesky sẽ hỗ trợ mạng lưới nơi các người tự tổ chức và các nhà phát triển khác có thể chạy máy chủ của riêng họ kết nối với máy chủ của Bluesky và các máy chủ khác trên mạng lưới. Khả năng liên kết này vẫn đang trong giai đoạn sớm. Tuy nhiên, ở tương lai, quản trị viên máy chủ sẽ có thể quyết định cách họ muốn hành động đối với những người đăng phản hồi “khó chịu”. Bluesky, trong khi đó, sẽ giảm sự nhìn thấy của các phản hồi này trong ứng dụng của mình. Các nhãn khó chịu lặp đi lặp lại trên nội dung cũng sẽ dẫn đến các nhãn và đình chỉ cấp tài khoản, họ nói.
Để giảm việc sử dụng danh sách để quấy rối người khác, Bluesky sẽ loại bỏ các người dùng cá nhân khỏi danh sách nếu họ chặn người tạo danh sách đó. Chức năng tương tự cũng được triển khai gần đây với Starter Packs, một loại danh sách có thể chia sẻ giúp người dùng mới tìm người để theo dõi trên nền tảng.
Bluesky cũng sẽ quét các danh sách có tên hoặc mô tả cô lập để giảm khả năng của người khác quấy rối người khác bằng cách thêm họ vào một danh sách công khai với tên hoặc mô tả độc hại. Những người vi phạm Hướng dẫn Cộng đồng của Bluesky sẽ bị ẩn trong ứng dụng cho đến khi chủ sở hữu danh sách thay đổi để tuân thủ các quy tắc của Bluesky. Người dùng tiếp tục tạo danh sách lạm dụng cũng sẽ đối mặt với hành động tiếp theo, mặc dù công ty không cung cấp chi tiết, họ thêm rằng danh sách vẫn là một lĩnh vực đang thảo luận và phát triển.
Trong những tháng tiếp theo, Bluesky cũng sẽ chuyển sang xử lý các báo cáo kiểm duyệt thông qua ứng dụng của mình bằng cách sử dụng thông báo, thay vì dựa vào báo cáo qua email.
Để chống lại thư rác và các tài khoản giả mạo khác, Bluesky đang triển khai một phiên bản thử nghiệm sẽ cố gắng tự động phát hiện khi một tài khoản là giả mạo, lừa đảo hoặc spam người dùng. Phối hợp với việc kiểm duyệt, mục tiêu là có thể hành động đối với tài khoản trong “giây lát sau khi nhận được một báo cáo,” công ty nói.
Một trong những phát triển đáng chú ý hơn liên quan đến cách Bluesky sẽ tuân thủ luật pháp địa phương trong khi vẫn cho phép tự do ngôn luận. Họ sẽ sử dụng các nhãn cụ thể về địa lý cho phép họ ẩn một nội dung cho người dùng ở một khu vực cụ thể để tuân thủ pháp luật.
“Nó cho phép dịch vụ kiểm duyệt của Bluesky duy trì tính linh hoạt trong việc tạo ra một không gian cho tự do ngôn luận, đồng thời đảm bảo tuân thủ pháp lý để Bluesky có thể tiếp tục hoạt động như một dịch vụ trong các khu vực đó,” công ty chia sẻ trong một bài đăng trên blog. “Tính năng này sẽ được giới thiệu theo từng quốc gia, và chúng tôi sẽ cố gắng thông báo cho người dùng về nguồn gốc của các yêu cầu pháp lý khi có khả năng pháp lý.”
Để đối phó với các vấn đề tiềm ẩn về sự tin cậy và an toàn với video, mà gần đây đã được thêm vào, nhóm đang thêm các tính năng như có thể tắt tự động chơi video, đảm bảo rằng video được gắn nhãn và đảm bảo rằng video có thể báo cáo. Họ vẫn đang đánh giá xem cần thêm gì, điều đó sẽ được ưu tiên dựa trên phản hồi từ người dùng.
Khi nói đến lạm dụng, công ty cho biết khung cảnh tổng thể của họ là “hỏi xem điều gì xảy ra thường xuyên so với mức hại của nó.” Công ty tập trung vào xử lý vấn đề gây hại cao và thường xuyên khi cũng “theo dõi các trường hợp biên cạnh có thể dẫn đến hại nặng cho một số người dùng.” Mặc dù số người ảnh hưởng chỉ ở mức nhỏ, nhưng gây đủ “tổn thương liên tục” để Bluesky sẽ hành động để ngăn chặn lạm dụng, họ tuyên bố.
Người dùng có thể nêu lên những lo ngại qua báo cáo, email và đề cập tới tài khoản @safety.bsky.app.
#Bluesky #EventVietnamese #TinTứcVietnamese
Social networking startup Bluesky, which is building a decentralized alternative to X (formerly Twitter), offered an update on Wednesday about how it’s approaching various trust and safety concerns on its platform. The company is in various stages of developing and piloting a range of initiatives focused on dealing with bad actors, harassment, spam, fake accounts, video safety, and more.
To address malicious users or those who harass others, Bluesky says it’s developing new tooling that will be able to detect when multiple new accounts are spun up and managed by the same person. This could help to cut down on harassment, where a bad actor creates several different personas to target their victims.
Another new experiment will help to detect “rude” replies and surface them to server moderators. Similar to Mastodon, Bluesky will support a network where self-hosters and other developers can run their own servers that connect with Bluesky’s server and others on the network. This federation capability is still in early access. However, further down the road, server moderators will be able to decide how they want to take action on those who post rude replies. Bluesky, meanwhile, will eventually reduce these replies’ visibility in its app. Repeated rude labels on content will also lead to account-level labels and suspensions, it says.
To cut down on the use of lists to harass others, Bluesky will remove individual users from a list if they block the list’s creator. Similar functionality was also recently rolled out to Starter Packs, which are a type of sharable list that can help new users find people to follow on the platform (check out the TechCrunch Starter Pack).
Bluesky will also scan for lists with abusive names or descriptions to cut down on people’s ability to harass others by adding them to a public list with a toxic or abusive name or description. Those who violate Bluesky’s Community Guidelines will be hidden in the app until the list owner makes changes to comply with Bluesky’s rules. Users who continue to create abusive lists will also have further action taken against them, though the company didn’t offer details, adding that lists are still an area of active discussion and development.
In the months ahead, Bluesky will also shift to handling moderation reports through its app using notifications, instead of relying on email reports.
To fight spam and other fake accounts, Bluesky is launching a pilot that will attempt to automatically detect when an account is fake, scamming, or spamming users. Paired with moderation, the goal is to be able to take action on accounts within “seconds of receiving a report,” the company said.
One of the more interesting developments involves how Bluesky will comply with local laws while still allowing for free speech. It will use geography-specific labels allowing it to hide a piece of content for users in a particular area to comply with the law.
“This allows Bluesky’s moderation service to maintain flexibility in creating a space for free expression, while also ensuring legal compliance so that Bluesky may continue to operate as a service in those geographies,” the company shared in a blog post. “This feature will be introduced on a country-by-country basis, and we will aim to inform users about the source of legal requests whenever legally possible.”
To address potential trust and safety issues with video, which was recently added, the team is adding features like being able to turn off autoplay for videos, making sure video is labeled, and ensuring that videos can be reported. It’s still evaluating what else may need to be added, something that will be prioritized based on user feedback.
When it comes to abuse, the company says that its overall framework is “asking how often something happens vs how harmful it is.” The company focuses on addressing high-harm and high-frequency issues while also “tracking edge cases that could result in serious harm to a few users.” The latter, though only affecting a small number of people, causes enough “continual harm” that Bluesky will take action to prevent the abuse, it claims.
User concerns can be raised via reports, emails, and mentions to the @safety.bsky.app account.
[ad_2]