Họ bị bắt vì đăng bài trên mạng xã hội trong cuộc biểu tình – liệu điều này sẽ thay đổi gì không?

Hai người đã bị bắt vì đăng bài trên mạng xã hội trong cuộc biểu tình – liệu điều đó có thay đổi được gì không? #Cuộc_biểu_tình #mạng_xã_hội #cấm #bạo_lực #ân_ngữ

Đối với Tyler Kay và Jordan Parlour, công lý cho những gì họ đăng trên mạng xã hội đã đến nhanh chóng và nặng nề.

Kay, 26 tuổi, và Parlour, 28 tuổi, đã bị kết án 38 tháng và 20 tháng tù lệnh lần lượt vì kích động sự căm ghét chủng tộc trực tuyến trong những cuộc biểu tình mùa hè.

Các cáo buộc sau cơn hỗn loạn dường như là một khoảnh khắc quan trọng, khi mọi người phải đối mặt với hậu quả thực tế vì những gì họ nói và làm trên mạng.

Có sự công nhận rộng rãi rằng những tuyên bố sai lệch và sự căm hận trực tuyến đã góp phần vào bạo lực và phân biệt chủng tộc trên các con phố Anh vào tháng Tám. Trong bước sau đó, Thủ tướng Keir Starmer nói rằng mạng xã hội “đã có trách nhiệm” trong việc giải quyết thông tin sai lệch.

Hơn 30 người đã bị bắt vì đăng bài trên mạng xã hội. Theo những gì tôi tìm thấy, ít nhất 17 người trong số họ đã bị buộc tội.

Cảnh sát đã cho rằng một số trong số những người được điều tra không đáp ứng được ranh giới tội phạm. Và trong nhiều trường hợp, hệ thống pháp luật có thể không phải là cách xử lý đúng đắn với những bài đăng trên mạng xã hội.

Nhưng một số bài đăng không vượt qua ranh giới tội phạm vẫn có thể gây hậu quả trong đời thực. Vì vậy, đối với những người đã đăng, không có ngày kết thúc.

Và cũng không phải cho các công ty công nghệ mạng xã hội lớn nhưng các thuật toán của họ, lần sau này, thường bị cáo buộc ưa thích tương tác hơn là an toàn, thúc đẩy nội dung bất kể phản ứng mà nó có thể gây ra.

Đồng chủ sở hữu X Elon Musk đã chỉ trích các cơ quan Anh về phản ứng của họ đối với cuộc biểu tình.

Vào thời điểm của cuộc biểu tình, tôi đã tự hỏi liệu điều này có thể là lúc cuối cùng thay đổi cảnh quan trực tuyến.

Tuy nhiên, bây giờ, tôi không chắc chắn.

Để hiểu rõ hơn về vai trò của các công ty công nghệ mạng xã hội trong tất cả điều này, hãy nhìn vào các trường hợp của một ông bố ở Pakistan và một phụ nữ kinh doanh từ Chester.

Tren X (trước đây là Twitter) một trang web giả mạo tin tức gọi là Channel3Now đăng tên giả của tên 17 tuổi bị buộc tội về các vụ giết người trong Southport. Tên giả này sau đó được trích dẫn rộng rãi bởi người khác.

Một người khác đã chia sẻ tên giả trên X là Bernadette Spofforth, một phụ nữ 55 tuổi từ Chester với hơn 50.000 người theo dõi. Trước đó, cô đã chia sẻ các bài đăng gây ra nghi ngờ về phong toả và các biện pháp về biến đổi khí hậu net-zero.

Các bài đăn từ Channel3Now và bà Spofforth cũng sai lầm khi cho rằng tên 17 tuổi là một người xin tị nạn đã đến Anh bằng tàu.

Tất cả điều này, kết hợp với những tuyên bố sai lệch hơn từ các nguồn khác rằng kẻ tấn công là người Hồi giáo, đã được đổ lỗi rộng rãi vì đảo chính vào cuộc biểu tình – một số trong đó đã nhắm vào các ngôi đền và người xin tị nạn.

Tôi tìm thấy rằng Channel3Now có liên quan đến một người có tên Farhan Asif ở Pakistan, cũng như một vận động viên khúc côn cầu ở Nova Scotia và một người tự cho là tên Kevin. Trang web dường như là một hoạt động thương mại nhằm tăng lượt xem và bán quảng cáo.

Vào thời điểm đó, một người tự xưng là quản lý của Channel3Now nói với tôi rằng việc xuất bản tên giả “là một lỗi, không có ý định” và phủ nhận việc là nguồn gốc của tên đó.

Và bà Spofforth nói rằng cô đã xóa bài đăng sai lầm của mình về nghi phạm ngay khi cô nhận ra nó là sai lầm. Cô cũng mạnh mẽ phủ nhận rằng cô đã bịa chuyện tên đó.

Vậy, điều gì xảy ra tiếp theo?

Farhan Asif và Bernadette Spofforth đều đã bị bắt vì những bài đăng này không lâu sau khi tôi nói chuyện với họ.

Tuy nhiên, các cáo buộc đã bị rút lại. Cơ quan chức năng ở Pakistan nói rằng họ không thể tìm thấy bằng chứng cho thấy ông Asif là người đưa ra tên giả. Cảnh sát Cheshire cũng quyết định không buộc tội bà Spofforth do “thiếu chứng cứ”.

Ông Farhan dường như đã biến mất. Trang web Channel3Now và một số trang mạng xã hội liên quan đã bị loại bỏ.

Tuy nhiên, Bernadette Spofforth bây giờ đang trở lại đăng bài đều đặn trên X. Chỉ trong tuần này, cô đã có hơn một triệu lượt xem trên các bài đăng của mình.

Cô nói rằng cô trở thành một người ủng hộ cho tự do ngôn luận kể từ sau khi bị bắt. Cô nói: “Như đã được thể hiện, ý nghĩa một tweet đơn lẻ có thể là nguyên nhân dẫn đến cuộc biểu tình sau những tội ác tại Southport đơn giản là không đúng.”

Tập trung vào những trường hợp cá nhân này có thể cung cấp cái nhìn quý báu về ai chia sẻ nội dung này và tại sao.

Nhưng để đạt được điểm nổi bật của vấn đề, cần phải bước thêm một bước về phía sau.

Trong khi mọi người chịu trách nhiệm về những bài đăng của mình, tôi đã tìm thấy rằng đây thực sự là về cách hoạt động của các trang web mạng xã hội khác nhau.

Những quyết định được đưa ra dưới thời kỳ của Elon Musk, chủ sở hữu của X, cũng là một phần của câu chuyện. Những quyết định này bao gồm khả năng mua dấu tích xanh, tạo ra sự nổi bật cho các bài đăng của bạn, và một cách tiếp cận mới trong việc kiểm duyệt ưu tiên sự tự do ngôn luận hơn mọi thứ.

Trưởng đại diện cảnh sát chống khủng bố của Anh, Phó Sở trưởng Matt Jukes, nói với tôi cho Chương trình Newscast của BBC rằng “X đã là người đẩy lớn” các bài đăng góp phần vào hỗn loạn trong mùa hè.

Nhóm mà ông quản lý, có tên là Đội Internet Referral Unit, đã nhận thấy “sự ảnh hưởng không cân xứng của một số nền tảng”, ông nói.

Ông nói có khoảng 1.200 bài viết được chuyển tiếp – các bài đăng được cộng đồng đưa lên phản ứng tới cảnh sát – chỉ trong liên quan đến cuộc biểu tình. Đối với ông, đó chỉ là “một phần nhỏ của tảng hòa bình.” Đơn vị thấy 13 lần số lượng tham chiếu hơn đối với X so với TikTok.

Hành động đối với nội dung là bất hợp pháp và vi phạm luật khủng bố, theo một nghĩa, là phần dễ dàng. Khó khăn hơn là xử lý những bài viết rơi vào những gì ông Jukes gọi là “hợp pháp nhưng gớm.”

Đơn vị đề xuất nội dung như vậy lên các trang web nơi nó được đăng khi nghĩ rằng nó vi phạm các điều khoản và điều kiện của họ.

Nhưng ông Jukes thấy Telegram, nơi tổ chức nhiều nhóm lớn trong đó sự hỗn loạn được tổ chức và phân biệt và thông tin sai lệch được chia sẻ, khó để xử lý.

Theo quan điểm của ông Jukes, Telegram có một “quyết tâm vững chắc không muốn tham gia” với các cơ quan chức năng.

Elon Musk đã buộc tội cơ quan thực thi pháp luật ở Anh vì cố gắng kiểm soát ý kiến về các vấn đề như nhập cư và đã có các cáo buộc rằng hành động chống lại các cá nhân đã đăng bài đã là không cân xứng.

Ông Jukes đáp lại: “Tôi sẽ nói điều này với Elon Musk nếu ông ở đây, chúng tôi không bắt người vì có ý kiến về nhập cư. (Cảnh sát) đã bắt người vì đe doạ hoặc kích động người khác đốt cháy điều đó, hoặc châm ngòi để người khác đốt cháy đền thờ hoặc khách sạn.”

Nhưng trong khi trách nhiệm đã được cảm nhận ở “kết cực cực kỳ cạnh tranh” bởi những người tham gia vào hỗn loạn và đăng nội dung gây căm ghét trực tuyến, ông Jukes nói rằng “những người kiếm tỷ đô la từ việc cung cấp cơ hội đó” đến để đăng nội dung có hại trên mạng xã hội “chưa thực sự trả giá gì cả.”

Ông muốn Đạo luật An toàn Trực tuyến đến vào hiệu lực vào đầu năm 2025 được tăng cường để có thể xử lý tốt hơn với nội dung “hợp pháp nhưng gớm.”

Telegram nói với BBC “không có chỗ cho các lời kêu gọi bạo lực” trên nền tảng của họ và nói rằng “các quản trị viên đã loại bỏ các kênh ở Anh kêu gọi biểu tình khi phát hiện ra” trong cuộc biểu tình.

“Trong khi các quản trị viên của Telegram loại bỏ hàng triệu mẩu nội dung có hại mỗi ngày, sự tăng lên một tỷ người dùng gây ra những mối đau tăng dần về lớp quản lý nội dung, mà chúng tôi đang giải quyết hiện tại,” một người phát ngôn nói.

Tôi cũng liên hệ X, nhưng họ không trả lời những điểm mà BBC đã đưa ra.

X tiếp tục chia sẻ trong các hướng dẫn công khai của mình rằng ưu tiên của họ là bảo vệ và
bảo vệ giọng nói của người dùng.

Hầu như mọi điều tra mà tôi thực hiện bây giờ quay lại việc thiết kế của các trang web mạng xã hội và cách các thuật toán đẩy nội dung gây ra phản ứng, thường không phải dựa trên tác động mà nó có thể tạo ra.

Trong suốt cuộc biểu tình, các thuật toán đã tăng cường thông tin sai lệch và căm ghét tới hàng triệu người, thu hút người mới và khuyến khích mọi người chia sẻ nội dung gây tranh cãi để có lượt xem và thích.

Tại sao điều đó không thay đổi? Những gì tôi đã tìm thấy, các công ty sẽ phải bị buộc phải thay đổi mô hình kinh doanh của họ. Và đối với các chính trị gia và các cơ quan quản lý, điều đó có thể là một thách thức rất lớn.

Nguồn: https://www.bbc.com/news/articles/cr548zdmz3jo

BBC Montage: An iPhone displaying code alongside the 'X' logo, two rioters standing near a burning car, all set against the backdrop of prison bars.BBC

For Tyler Kay and Jordan Parlour, justice for what they posted on social media has come fast and heavy.

Kay, 26, and Parlour, 28, have been sentenced to 38 months and 20 months in prison respectively for stirring up racial hatred online during the summer riots.

Charges in the aftermath of the disorder felt like a significant moment, in which people had to face real-life consequences for what they said and did online.

There was widespread recognition that false claims and online hate contributed to the violence and racism on British streets in August. In their wake, Prime Minister Keir Starmer said social media “carries responsibility” for tackling misinformation.

More than 30 people found themselves arrested over social media posts. From what I’ve found, at least 17 of those have been charged.

The police will have deemed that some of those investigated did not meet the threshold for criminality. And in plenty of cases, the legal system could be the wrong way to deal with social media posts.

But some posts that did not cross the line into criminality may still have had real-life consequences. So for those who made them, no day of reckoning.

And nor, it seems, for the social media giants whose algorithms, time and time again, are accused of prioritising engagement over safety, pushing content regardless of the reaction it can provoke.

Getty Images Businessman and investor, Elon MuskGetty Images

X’s owner Elon Musk criticised UK authorities for their response to the riots

At the time of the riots, I had wondered whether this could be the moment that finally changed the online landscape.

Now, though, I’m not so sure.

To make sense of the role of the social media giants in all this, it’s useful to start by looking at the cases of a dad in Pakistan and a businesswoman from Chester.

On X (formerly known as Twitter) a pseudo-news website called Channel3Now posted a false name of the 17-year-old charged over the murders of three girls in Southport. This false name was then widely quoted by others.

Another poster who shared the false name on X was Bernadette Spofforth, a 55-year-old from Chester with more than 50,000 followers. She had previously shared posts raising questions about lockdown and net-zero climate change measures.

The posts from Channel3Now and Ms Spofforth also wrongly suggested the 17-year-old was an asylum seeker who had arrived in the UK by boat.

All this, combined with further untrue claims from other sources that the attacker was a Muslim, was widely blamed for contributing to the riots – some of which targeted mosques and asylum seekers.

I found that Channel3Now was connected to a man named Farhan Asif in Pakistan, as well as a hockey player in Nova Scotia and someone who claimed to be called Kevin. The site appeared to be a commercial operation looking to increase views and sell adverts.

At the time, a person claiming to be from Channel3Now’s management told me that the publication of the false name “was an error, not intentional” and denied being the origin of that name.

And Ms Spofforth told me she deleted her untrue post about the suspect as soon as she realised it was false. She also strongly denied she had made the name up.

So, what happened next?

Farhan Asif and Bernadette Spofforth were both arrested over these posts not long after I spoke to them.

Charges, however, were dropped. Authorities in Pakistan said they could not find evidence that Mr Asif was the originator of the fake name. Cheshire police also decided not to charge Ms Spofforth due to “insufficient evidence”.

Mr Farhan seems to have gone to ground. The Channel3Now site and several connected social media pages have been removed.

Bernadette Spofforth, however, is now back posting regularly on X. This week alone she’s had more than one million views across her posts.

She says she has become an advocate for freedom of expression since her arrest. She says: “As has now been shown, the idea that one single tweet could be the catalyst for the riots which followed the atrocities in Southport is simply not true.”

Focusing on these individual cases can offer a valuable insight into who shares this kind of content and why.

But to get to the heart of the problem, it’s necessary to take a further step back.

While people are responsible for their own posts, I’ve found time and time again this is fundamentally about how different social media sites work.

Decisions made under the tenure of Elon Musk, the owner of X, are also part of the story. These decisions include the ability to purchase blue ticks, which afford your posts greater prominence, and a new approach to moderation that favours freedom of expression above all else.

The UK’s head of counter-terror policing, Assistant Commissioner Matt Jukes, told me for the BBC’s Newscast that “X was an enormous driver” of posts that contributed to the summer’s disorder.

Getty Images Assistant Commissioner for Specialist Operations, Matt Jukes Getty Images

Matt Jukes has accused X of playing a significant role in fuelling the riots

A team he oversees called the Internet Referral Unit noticed “the disproportionate effect of certain platforms”, he said.

He says there were about 1,200 referrals – posts flagged to police by members of the public – alone in relation to the riots. For him that was “just the tip of the iceberg”. The unit saw 13 times more referrals in relation to X than TikTok.

Acting on content that is illegal and in breach of terror laws is, in one sense, the easy bit. Harder to tackle are those posts that fall into what Mr Jukes calls the “lawful but awful” category.

The unit flags such material to sites it was posted on when it thinks it breaches their terms and conditions.

But Mr Jukes found Telegram, host of several large groups in which disorder was organised and hate and disinformation were shared, hard to deal with.

In Mr Jukes’s view, Telegram has a “cast-iron determination to not engage” with the authorities.

Elon Musk has accused law enforcement in the UK of trying to police opinions about issues such as immigration and there have been accusations that action taken against individuals posters has been disproportionate.

Mr Jukes responds: “I would say this to Elon Musk if he was here, we were not arresting people for having opinions on immigration. (Police) went and arrested people for threatening to, or inciting others to, burn down mosques or hotels.”

But while accountability has been felt at “the very sharp end” by those who participated in the disorder and posted hateful content online, Mr Jukes said “the people who make billions from providing those opportunities” to post harmful content on social media “have not really paid any price at all”.

He wants the Online Safety Act that comes into effect at the start of 2025 bolstered so it can better deal with content that is “lawful but awful”.

Telegram told the BBC “there is no place for calls to violence” on its platform and said “moderators removed UK channels calling for disorder when they were discovered” during the riots.

“While Telegram’s moderators remove millions of pieces of harmful content each day, user numbers to almost a billion causes certain growing pains in content moderation, which we are currently addressing,” a spokesperson said.

I also contacted X, which did not respond to the points the BBC raised.

X continues to share in its publicly available guidelines that its priority is protecting and defending the user’s voice.

Almost every investigation I do now comes back to the design of the social media sites and how algorithms push content that triggers a reaction, usually regardless of the impact it can have.

During the disorder algorithms amplified disinformation and hate to millions, drawing in new recruits and incentivising people to share controversial content for views and likes.

Why doesn’t that change? Well, from what I have found, the companies would have to be compelled to alter their business models. And for politicians and regulators, that could prove to be a very big challenge indeed.

BBC InDepth is the new home on the website and app for the best analysis and expertise from our top journalists. Under a distinctive new brand, we’ll bring you fresh perspectives that challenge assumptions, and deep reporting on the biggest issues to help you make sense of a complex world. And we’ll be showcasing thought-provoking content from across BBC Sounds and iPlayer too. We’re starting small but thinking big, and we want to know what you think – you can send us your feedback by clicking on the button below.


[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *