#Sựkiệnngàyhômnhânước#Từviết AccountsPayable#Cáchly#COVID19#Phongtỏaquốcgiatobànviệc#Quốcgiaphòngchốngdịchbệnh#Việtnamchốngdịch#Stayhome
Tiến sĩ Cory Doctorow, một nhà báo lão làng và nhà bảo vệ quyền riêng tư có kinh nghiệm, đã miêu tả về “sự cải thiện tệ hại của internet” bắt đầu từ nhiều thập kỷ trước khi TikTok trở nên phổ biến. Những người thuộc thế hệ millennial đã từng nhớ đến thời kỳ huy hoàng của Napster – tiếp đó là thời kỳ tệ hại hơn khi Napster bị kiện tường tận cùng cùng với Grokster và hệ sinh thái chia sẻ P2P còn lại, cho đến khi chúng ta chỉ còn lại một số ít các nền tảng phát trực tuyến đã được các hãng thu âm phê duyệt, đã đồng ý sử dụng các bài hát sterilized trong danh mục như Pandora và Spotify. Ba lời cảm ơn dành cho các cuộc kiện tụng bản quyền của các công ty đại chúng.
Trong cuốn sách mới của ông mang tên The Internet Con: How to Seize the Means of Computation, Doctorow nghiên cứu về cảnh quan truyền thông xã hội hiện đại, liệt kê và minh họa các bất cập và quyết định kinh doanh hạn hẹp của các công ty công nghệ lớn đang vận hành các dịch vụ đã hứa hẹn cho chúng ta tương lai nhưng chỉ dẫn đến sự gia tăng của những kẻ phản động. Ông cho rằng, chúng ta có trách nhiệm và nhiệm vụ phá hủy những hệ thống này và có phương pháp để làm điều đó thông qua khả năng tương tác lớn hơn. Trong đoạn trích từ cuốn sách, Doctorow điều tra hậu quả của các kiện tụng đối với các dịch vụ chia sẻ P2P, cũng như vai trò của hệ thống báo cáo “notice-and-takedown” theo Đạo luật Bản quyền Thiên niên kỷ Kỹ thuật số và hệ thống “ContentID” của YouTube trên các trang web phát trực tuyến hiện đại.
Vấn đề từ hệ thống notice-and-takedown không ảnh hưởng trực tiếp đến các công ty giải trí lớn. Nhưng vào năm 2007, ngành công nghiệp giải trí đã sáng chế ra một hệ thống notice-and-staydown mới mạnh mẽ hơn, gây tổn thương trực tiếp cho Big Content, đồng thời gia tăng tổn thương cho chúng ta. Hệ thống mới đó là “notice-and-staydown”, kế thừa từ notice-and-takedown, theo dõi mọi người dùng tải lên hoặc nhập liệu vào và kiểm tra xem chúng có tương tự với một tác phẩm có bản quyền được đánh dấu. Đây đã lâu đã là mục tiêu pháp lý của ngành công nghiệp giải trí, và vào năm 2019, nó đã trở thành một phần của pháp luật EU, nhưng vào năm 2007, notice-and-staydown xuất hiện lần đầu tiên dưới dạng một sửa đổi tự nguyện cho YouTube, được gọi là “Content ID”.
Để hiểu vấn đề này, trước hết chúng ta cần nghĩ về hệ thống lọc như là một biện pháp bảo mật – tức là, như một biện pháp mà một nhóm người (nền tảng và nhóm sở hữu quyền) muốn ngăn chặn một nhóm khác người (người tải lên) làm điều mà họ muốn làm (tải lên nội dung vi phạm bản quyền). Việc xây dựng một hệ thống lọc chặt chẽ không phải là điều khó khăn: các công ty sản xuất âm nhạc có thể tải lên các bản gốc số hoàn hảo của cuốn danh sách sản phẩm của họ, và bất kỳ người dùng nào tải lên một bài hát mà số học hoặc cảm nhận âm thanh của nó giống với bản gốc sẽ bị chặn. Nhưng người tải lên có thể dễ dàng vượt qua các hệ thống như vậy: họ chỉ cần giảm chất lượng âm thanh một chút, dưới ngưỡng nhận thức của con người, bản ghi mới này sẽ không còn khớp nữa. Hoặc họ có thể cắt bớt một phần của bài hát, hoặc bỏ qua một khúc từ cầu, trường hợp hay bất kỳ sự chỉnh sửa nào khác mà người nghe không thể nhận thấy hoặc bức xúc về. Bộ lọc không hoạt động theo nguyên tắc khớp chính xác: thay vào đó, chúng sử dụng “khớp nhòe”. Chúng không chỉ chặn những thứ mà chủ sở hữu quyền của chúng đã nói họ chặn – chúng chặn những thứ tương tự những thứ mà chủ sở hữu quyền đã tuyên bố. Sự nhòe này có thể được điều chỉnh: hệ thống có thể làm cho quyết định khớp nghiêm ngặt hơn hoặc lỏng lẻo hơn đối với những gì nó xem là sự khớp.
Quyền sở hữu quyền muốn quá trình khớp là lỏng lẻo như có thể, vì ở bất cứ đâu đó, có thể có ai đó sẽ mong muốn một phiên bản cắt giảm nhạc của một bài hát rất mờ, và họ muốn ngăn người đó nhận được bài hát miễn phí. Càng nhòe hơn khớp, càng nhiều kết quả đúng. Điều này đặc biệt gây khó khăn cho những nhạc sĩ cổ điển: diễn xuất của họ từ các tác phẩm của Bach, Beethoven và Mozart vấn không thể phân biệt rõ ràng khỏi những bản thu âm mà Sony Music (hãng thu âm nhạc cổ điển lớn nhất thế giới) đã quyền lợi trong Content ID. Kết quả là, trở nên gần như không thể kiếm sống từ việc biểu diễn nhạc cổ điển trực tuyến: video của bạn bị chặn hoặc doanh thu quảng cáo mà chúng tạo ra được chuyển cho Sony. Ngay cả việc giảng dạy biểu diễn âm nhạc cổ điển cũng trở thành một bước đường minh, khi các bài học trực tuyến miễn phí được sản xuất cẩn thận lại bị chặn bởi Content ID hoặc, nếu hãng thu âm hào phóng, những bài học đó vẫn được truyền trực tuyến nhưng doanh thu quảng cáo mà chúng thu được được chuyển cho một công ty khổng lồ, ăn cắp tiền công sáng tạo của một giáo viên âm nhạc.
Luật báo cáo giám sát-khởi tạo không mang lại cho chủ sở hữu quyền đạt được internet mà họ mong muốn. Internet đó như thế nào?
The internet’s “enshittification,” as veteran journalist and privacy advocate Cory Doctorow describes it, began decades before TikTok made the scene. Elder millennials remember the good old days of Napster — followed by the much worse old days of Napster being sued into oblivion along with Grokster and the rest of the P2P sharing ecosystem, until we were left with a handful of label-approved, catalog-sterilized streaming platforms like Pandora and Spotify. Three cheers for corporate copyright litigation.
In his new book The Internet Con: How to Seize the Means of Computation, Doctorow examines the modern social media landscape, cataloging and illustrating the myriad failings and short-sighted business decisions of the Big Tech companies operating the services that promised us the future but just gave us more Nazis. We have both an obligation and responsibility to dismantle these systems, Doctorow argues, and a means to do so with greater interoperability. In this week’s Hitting the Books excerpt, Doctorow examines the aftermath of the lawsuits against P2P sharing services, as well as the role that the Digital Millennium Copyright Act’s “notice-and-takedown” reporting system and YouTube’s “ContentID” scheme play on modern streaming sites.
Excerpted from by The Internet Con: How to Seize the Means of Computation by Cory Doctorow. Published by Verso. Copyright © 2023 by Cory Doctorow. All rights reserved.
Seize the Means of Computation
The harms from notice-and-takedown itself don’t directly affect the big entertainment companies. But in 2007, the entertainment industry itself engineered a new, more potent form of notice-and-takedown that manages to inflict direct harm on Big Content, while amplifying the harms to the rest of us.
That new system is “notice-and-stay-down,” a successor to notice-and-takedown that monitors everything every user uploads or types and checks to see whether it is similar to something that has been flagged as a copyrighted work. This has long been a legal goal of the entertainment industry, and in 2019 it became a feature of EU law, but back in 2007, notice-and-staydown made its debut as a voluntary modification to YouTube, called “Content ID.”
Some background: in 2007, Viacom (part of CBS) filed a billion-dollar copyright suit against YouTube, alleging that the company had encouraged its users to infringe on its programs by uploading them to YouTube. Google — which acquired YouTube in 2006 — defended itself by invoking the principles behind Betamax and notice-and-takedown, arguing that it had lived up to its legal obligations and that Betamax established that “inducement” to copyright infringement didn’t create liability for tech companies (recall that Sony had advertised the VCR as a means of violating copyright law by recording Hollywood movies and watching them at your friends’ houses, and the Supreme Court decided it didn’t matter).
But with Grokster hanging over Google’s head, there was reason to believe that this defense might not fly. There was a real possibility that Viacom could sue YouTube out of existence — indeed, profanity-laced internal communications from Viacom — which Google extracted through the legal discovery process — showed that Viacom execs had been hotly debating which one of them would add YouTube to their private empire when Google was forced to sell YouTube to the company.
Google squeaked out a victory, but was determined not to end up in a mess like the Viacom suit again. It created Content ID, an “audio fingerprinting” tool that was pitched as a way for rights holders to block, or monetize, the use of their copyrighted works by third parties. YouTube allowed large (at first) rightsholders to upload their catalogs to a blocklist, and then scanned all user uploads to check whether any of their audio matched a “claimed” clip.
Once Content ID determined that a user was attempting to post a copyrighted work without permission from its rightsholder, it consulted a database to determine the rights holder’s preference. Some rights holders blocked any uploads containing audio that matched theirs; others opted to take the ad revenue generated by that video.
There are lots of problems with this. Notably, there’s the inability of Content ID to determine whether a third party’s use of someone else’s copyright constitutes “fair use.” As discussed, fair use is the suite of uses that are permitted even if the rightsholder objects, such as taking excerpts for critical or transformational purposes. Fair use is a “fact intensive” doctrine—that is, the answer to “Is this fair use?” is almost always “It depends, let’s ask a judge.”
Computers can’t sort fair use from infringement. There is no way they ever can. That means that filters block all kinds of legitimate creative work and other expressive speech — especially work that makes use of samples or quotations.
But it’s not just creative borrowing, remixing and transformation that filters struggle with. A lot of creative work is similar to other creative work. For example, a six-note phrase from Katy Perry’s 2013 song “Dark Horse” is effectively identical to a six-note phrase in “Joyful Noise,” a 2008 song by a much less well-known Christian rapper called Flame. Flame and Perry went several rounds in the courts, with Flame accusing Perry of violating his copyright. Perry eventually prevailed, which is good news for her.
But YouTube’s filters struggle to distinguish Perry’s six-note phrase from Flame’s (as do the executives at Warner Chappell, Perry’s publisher, who have periodically accused people who post snippets of Flame’s “Joyful Noise” of infringing on Perry’s “Dark Horse”). Even when the similarity isn’t as pronounced as in Dark, Joyful, Noisy Horse, filters routinely hallucinate copyright infringements where none exist — and this is by design.
To understand why, first we have to think about filters as a security measure — that is, as a measure taken by one group of people (platforms and rightsholder groups) who want to stop another group of people (uploaders) from doing something they want to do (upload infringing material).
It’s pretty trivial to write a filter that blocks exact matches: the labels could upload losslessly encoded pristine digital masters of everything in their catalog, and any user who uploaded a track that was digitally or acoustically identical to that master would be blocked.
But it would be easy for an uploader to get around a filter like this: they could just compress the audio ever-so-slightly, below the threshold of human perception, and this new file would no longer match. Or they could cut a hundredth of a second off the beginning or end of the track, or omit a single bar from the bridge, or any of a million other modifications that listeners are unlikely to notice or complain about.
Filters don’t operate on exact matches: instead, they employ “fuzzy” matching. They don’t just block the things that rights holders have told them to block — they block stuff that’s similar to those things that rights holders have claimed. This fuzziness can be adjusted: the system can be made more or less strict about what it considers to be a match.
Rightsholder groups want the matches to be as loose as possible, because somewhere out there, there might be someone who’d be happy with a very fuzzy, truncated version of a song, and they want to stop that person from getting the song for free. The looser the matching, the more false positives. This is an especial problem for classical musicians: their performances of Bach, Beethoven and Mozart inevitably sound an awful lot like the recordings that Sony Music (the world’s largest classical music label) has claimed in Content ID. As a result, it has become nearly impossible to earn a living off of online classical performance: your videos are either blocked, or the ad revenue they generate is shunted to Sony. Even teaching classical music performance has become a minefield, as painstakingly produced, free online lessons are blocked by Content ID or, if the label is feeling generous, the lessons are left online but the ad revenue they earn is shunted to a giant corporation, stealing the creative wages of a music teacher.
Notice-and-takedown law didn’t give rights holders the internet they wanted. What kind of internet was that? Well, though entertainment giants said all they wanted was an internet free from copyright infringement, their actions — and the candid memos released in the Viacom case — make it clear that blocking infringement is a pretext for an internet where the entertainment companies get to decide who can make a new technology and how it will function.