Công ty Russian Spyware sử dụng ChatGPT để giám sát
Chào mừng bạn đến với AI Tuần này, bản tin hàng tuần của Gizmodo, nơi chúng tôi sẽ đi sâu vào những gì đang diễn ra trong trí tuệ nhân tạo.
Tại sao mọi người lại kiện các công ty AI? | Công nghệ tương lai
Tuần này, Forbes đưa tin rằng một công ty spyware Nga mang tên Social Links đã bắt đầu sử dụng ChatGPT để thực hiện phân tích cảm xúc. Lĩnh vực đáng sợ mà cảnh sát và Điệp viên thu thập và phân tích dữ liệu truy cập xã hội để hiểu cảm xúc của người dùng web về các vấn đề, phân tích cảm xúc là một trong những trường hợp sử dụng kỳ quái cho chatbot nhỏ nhất mà đã xuất hiện.
Social Links, trước đây đã bị đuổi khỏi các nền tảng của Meta vì tình báo người dùng, đã cho thấy cách sử dụng phi truyền thống của ChatGPT tại một hội nghị an ninh tại Paris tuần này. Công ty đã có thể vũ khí hóa khả năng tóm tắt và phân tích văn bản của chatbot để lục lọi thông tin lớn, tiêu thụ nhanh chóng nó. Trong một buổi trình diễn, công ty đã cung cấp dữ liệu được thu thập bởi công cụ độc quyền của họ vào ChatGPT; dữ liệu, liên quan đến các bài đăng trực tuyến về một tranh cãi gần đây ở Tây Ban Nha, sau đó được phân tích bởi chatbot, đánh giá chúng là “tích cực, tiêu cực hoặc trung lập, hiển thị kết quả trong biểu đồ tương tác” (theo Forbes).
Rõ ràng, người bảo vệ quyền riêng tư đã thấy điều này hơn một chút đáng lo ngại—không chỉ vì trường hợp cụ thể này, mà vì điều nói về cách mà trí tuệ nhân tạo có thể mở rộng sức mạnh của ngành công nghiệp giám sát nói chung.
Rory Mir, giám đốc cộng đồng tổ chức của Electronic Frontier Foundation, cho biết rằng trí tuệ nhân tạo có thể giúp cảnh sát mở rộng nỗ lực giám sát của họ, cho phép các nhóm nhỏ cảnh sát giám sát các nhóm lớn một cách dễ dàng hơn. Hiện nay, cơ quan cảnh sát thường xuyên sử dụng các hồ sơ giả để nhúng mình trong cộng đồng trực tuyến; loại giám sát này có ảnh hưởng tiêu cực đối với diễn đạt trực tuyến, Mir cho biết. Ông bổ sung: “Điều đáng sợ về việc như ChatGPT là chúng có thể mở rộng hoạt động loại đó.” Trí tuệ nhân tạo có thể “làm cho cảnh sát chạy phân tích nhanh hơn” trên dữ liệu họ thu thập trong những hoạt động giấu mặt này, có nghĩa là “công cụ trí tuệ nhân tạo đang (thực tế) cho phép” giám sát trực tuyến, ông bổ sung. Mir cũng chỉ ra vấn đề nghiêm trọng của việc sử dụng AI: chatbot có một kỷ lục khá tồi tệ về việc phá vỡ và đưa ra kết quả không tốt. “Trí tuệ nhân tạo là một điều đáng lo ngại đối với các tình huống cần được quan tâm như thế này”, Mir nói. “Nó là một điều khi bạn có thể để ChatGPT đọc bản nháp của bài viết của bạn để bạn có thể hỏi nó ‘Điều này có chấp nhận được không?’ Nhưng khi nó di chuyển vào lãnh thổ, ví dụ, xác định liệu ai đó có có được một công việc, hoặc có được chỗ ở, hoặc, trong trường hợp này, xác định xem ai đó có được sự chú ý không xứng đáng từ cảnh sát hay không, đó là khi những định kiến đó trở thành, không phải chỉ là một thứ cần phải được tính đến, mà là lý do không sử dụng nó trong cách đó (tất cả)”. Mir nói thêm rằng “hộp đen” của dữ liệu đào tạo AI có nghĩa là rất khó để chắc chắn liệu phản ứng của thuật toán có đáng tin cậy hay không. “Tôi có nghĩ rằng đây là nguyên liệu được đào tạo từ dữ liệu Reddit và 4chan”, ông nheo mắt cười. “Vì vậy, những định kiến mà đến từ dữ liệu cơ sở thấp này sẽ tái xuất hiện trong sự đa dạng của sản phẩm cuối cùng của nó”.
Câu hỏi của ngày hôm nay: WTF Sam Altman đã làm gì?
Trong những gì có thể phải là một trong những bất ngờ sống động nhất trong lịch sử công nghệ gần đây, Sam Altman đã bị loại khỏi vị trí CEO của OpenAI. Vào thứ Sáu, một tuyên bô của công ty thông báo về một sự chuyển giao lãnh đạo đột ngột. “Rời khỏi công ty là kết quả của một quá trình xem xét cân nhắc của hội đồng quản trị, kết luận rằng ông không thể liên tục thành thực trong việc giao tiếp với hội đồng quản trị, gây trở ngại cho khả năng thực hiện trách nhiệm của nó. Hội đồng quản trị không còn tin tưởng vào khả năng của ông tiếp tục dẫn dắt OpenAI.” Trong khoảng trống quyền lực ngay lập tức mở ra bởi sự kiện bất ngờ này, hội đồng quản trị đã chọn Mira Murati, giám đốc công nghệ của công ty, để làm giám đốc điều hành tạm thời, thông cáo báo chí cho biết. Cho tới nay, không rõ ràng Sam có thể đã làm gì để bắt buột một sự suy sụp nghiệp nghiệp cực kỳ thảm hại như thế. Bạn phải thực sự làm hỏng để từ đứa con trai của Silicon Valley trở thành kẻ bị tẩy chay trong quá trình một ngày. Tôi đang chờ đợi với tăm tia để nghe xem chuyện gì đã xảy ra ở đây.
Các tiêu đề khác từ tuần này
Chăm sóc sức khỏe tự động hình như là một cơn ác mộng chứng minh. Một cáo buộc mới cho biết công ty bảo hiểm UnitedHealthcare đang sử dụng một thuật toán trí tuệ nhân tạo sâu rất loạn toạ để “bộ phận” quyết định của bác sĩ khi đến với bệnh nhân, cho phép hãng bảo hiểm từ chối bảo hiểm cho bệnh nhân già yếu. Quá trình kiện đã đưa ra cáo buộc rằng NaviHealth, một công ty con của UnitedHealth, sử dụng một thuật toán trí tuệ nhân tạo đóng để, nH Predict, ngoài việc được sử dụng để từ chối bảo hiểm cho bệnh nhân, cũng có kỷ lục của nó là sai rất nhiều lần. Ars Technica có toàn bộ câu chuyện.
Microsoft dường như đã bị “phấn khích” bởi cuộc ra đi đột ngột của Sam Altman tại OpenAI. Một báo cáo mới từ Axios cho biết rằng Microsoft, đối tác kinh doanh của OpenAI quan trọng (và đối tài), đã bị “phấn khích” bởi sự thực rằng người lãnh đạo cấp cao của hãng bây giờ đang bị loại bỏ một cách mạnh mẽ. Báo cáo không nói nhiều hơn về vấn đề đó và chỉ trích “một người quen với tình huống”. Đủ hiểu để nói rằng mọi người vẫn rất bối rối về điều này.
Vương quốc Anh có thể không quy định trí tuệ nhân tạo sau tất cả. Có vẻ như chiến dịch charme của Big Tech bên sông đã thành công. Trong vài tuần gần đây, một số nhân vật nổi bật nhất trong ngành trí tuệ nhân tạo—bao gồm cả Elon Musk —đã đến Vương quốc Anh để tham dự một hội nghị trí tuệ nhân tạo. Tinh thần chung của các nhà quản lý đến tham dự là: Trí tuệ nhân tạo có thể phá hủy thế giới nhưng xin hãy không làm gì cả về vấn đề đó ở lúc này. Tuần này, Bộ trưởng AI và Sở hữu trí tuệ của đất nước này, Jonathan Camrose, nói với báo chí rằng, “trong thời gian ngắn,” đất nước không muốn triển khai “quy định không đúng lúc” và muốn tránh xa “dập tắt sáng tạo.”
Nguồn: https://gizmodo.com/chatgpt-can-be-used-for-surveillance-spyware-1851029685
Welcome to AI This Week, Gizmodo’s weekly roundup where we do a deep dive on what’s been happening in artificial intelligence.
This week, Forbes reported that a Russian spyware company called Social Links had begun using ChatGPT to conduct sentiment analysis. The creepy field by which cops and spies collect and analyze social media data to understand how web users feel about stuff, sentiment analysis is one of the sketchier use-cases for the little chatbot to yet emerge.
Social Links, which was previously kicked off Meta’s platforms for alleged surveillance of users, showed off its unconventional use of ChatGPT at a security conference in Paris this week. The company was able to weaponize the chatbot’s ability for text summarization and analysis to troll through large chunks of data, digesting it quickly. In a demonstration, the company fed data collected by its own proprietary tool into ChatGPT; the data, which related to online posts about a recent controversy in Spain, was then analyzed by the chatbot, which rated them “as positive, negative or neutral, displaying the results in an interactive graph,” Forbes writes.
Obviously, privacy advocates have found this more than a little disturbing—not merely because of this specific case, but for what it says about how AI could escalate the powers of the surveillance industry in general.
Rory Mir, associate director of community organizing with the Electronic Frontier Foundation, said that AI could help law enforcement broaden their surveillance efforts, allowing smaller teams of cops to surveil larger groups with ease. Already, police agencies frequently use fake profiles to embed themselves in online communities; this kind of surveillance has a chilling effect on online speech, Mir said. He added: “The scary thing about stuff like ChatGPT is that they can scale up that kind of operation.” AI can make it “easier for cops to run analysis quicker” on the data they collect during these undercover operations, meaning that “AI tools are (effectively) enabling” online surveillance, he added.
Mir also noted a glaring problem with this kind of use of AI: chatbots have a pretty bad track record of messing up and delivering bad results. “AI is really concerning in high-stakes scenarios like this,” Mir said. “It’s one thing to have ChatGPT read a draft of your article so that you can ask it ‘How acceptable is this?’ But when it moves into the territory of, say, determining if somebody gets a job, or gets housing, or, in this case, determines whether someone gets undue attention from police or not, that is when those biases become, not just a thing to account for, but a reason not to use it in that way (at all).”
Mir added that the “black box” of AI training data means that it’s hard to be sure whether the algorithm’s response will be trustworthy or not. “I mean, this stuff is trained on Reddit and 4chan data,” he chuckles. “So the biases that come from that underlying data are going to reappear in the mosaic of its outputs.”
Question of the day: WTF did Sam Altman do?
In what has to be one of the most shocking upsets in recent tech history, Sam Altman has been ousted from his position as CEO of OpenAI. On Friday, a statement was released by the company announcing an abrupt leadership transition. “Mr. Altman’s departure follows a deliberative review process by the board, which concluded that he was not consistently candid in his communications with the board, hindering its ability to exercise its responsibilities. The board no longer has confidence in his ability to continue leading OpenAl.” In the immediate power vacuum opened up by this shocking turn of events, the board has apparently selected Mira Murati, the company’s chief technology officer, to serve as interim CEO, the press release states. So far, it’s entirely unclear what Sam might have done to allow such a catastrophic career nose-dive to take place. You have to seriously screw up to go from being Silicon Valley’s prince of the city to pariah in the course of the day. I am waiting on pins and needles to hear what exactly happened here.
More headlines from this week
- Automated healthcare sounds like a certifiable nightmare. A new lawsuit claims that UnitedHealthcare is using a deeply flawed AI algorithm to “override” doctors judgements when it comes to patients, thus allowing the insurance giant to deny old and ailing patients coverage. The lawsuit, which was filed in US District Court in Minnesota, claims that NaviHealth, a UnitedHealth subsidiary, uses a closed-source AI algorithm, nH Predict, which, in addition to being used to deny patients coverage, has a track record of being wrong a lot of the time. Ars Technica has the full story.
- Microsoft seems to have been “blindsided” by the abrupt Sam Altman exit at OpenAI. A new report from Axios claims that Microsoft, OpenAI’s pivotal business partner (and funder) was “blindsided” by the fact that its head exec is now being ejected with extreme prejudice. The report doesn’t say much more than that and only cites a “person familiar with the situation.” Suffice it to say everybody is still pretty confused about this.
- The UK might not be regulating AI after all. It appears that Big Tech’s charm offensive across the pond has worked. In recent weeks, some of the biggest figures in the AI industry—including Elon Musk—traveled to the United Kingdom to attend an AI summit. The general tenor of the executives who attended was: AI could destroy the world but please, let’s not do anything about it for now. This week, the nation’s minister for AI and intellectual property, Jonathan Camrose, told the press that, “in the short term,” the nation did not want to implement “premature regulation” and wanted to steer clear of “stifling innovation.”
[ad_2]