#SựKiệnNgàyHômNay #TríTuệNhânTạo #ChốngGiảMạo #Deepfake #PhátHiệnAI
Trong khi nhiều công ty đang cạnh tranh để phát triển công nghệ trí tuệ nhân tạo, thì Andrey Doronichev đã nhận ra mối đe dọa đến từ sự phát triển của nó. AI đang trở nên ngày càng sáng tạo và có khả năng đánh lừa các thiết bị phân tích và người sử dụng thông qua các video, hình ảnh, âm thanh và chữ.
Việc phát hiện những thứ do AI tạo ra đã trở thành một đề tài nóng trong tình hình hiện tại khi xã hội đang bị ảnh hưởng bởi thông tin sai lệch, mất việc làm, phân biệt và sự xâm phạm vào quyền riêng tư. Do đó, nhiều công ty đã bắt đầu cung cấp các công cụ để phát hiện đạo văn, deepfake và các nội dung tổng hợp khác.
Ngoài ra, các doanh nghiệp cũng đang thấy cơ hội để khai thác kinh doanh trong lĩnh vực này. Những công cụ phân tích trí tuệ nhân tạo đã ra đời như Sensity AI, Fictitious.AI và Originality.AI để xác định xem đối tượng nào được tạo ra bởi AI hay bởi con người.
Các chuyên gia đề nghị phát triển các chiến thuật pháp y kỹ thuật số để phân biệt hàng thật và hàng giả sẽ yêu cầu tìm kiếm hình ảnh ngược và theo dõi địa chỉ IP. Tuy nhiên, các chương trình phát hiện vẫn đang cố gắng bắt kịp tốc độ phát triển của AI.
Thị trường AI dự kiến sẽ tăng trưởng trung bình 35,6% mỗi năm cho đến năm 2030, theo công ty nghiên cứu thị trường Grand View Research. Chúng ta đang chứng kiến một cuộc chạy đua vũ trang trong đó AI sinh ra AI và cuộc đua này dường như chưa có điểm dừng.
Nguồn: https://www.nytimes.com/2023/05/18/technology/ai-chat-gpt-detection-tools.html
Andrey Doronichev đã hoảng hốt vào năm ngoái khi xem một video trên mạng xã hội cho thấy tổng thống Ukraine đầu hàng Nga.
Video đã nhanh chóng được gỡ lỗi như một deepfake được tạo tổng hợp, nhưng đối với ông Doronichev, đó là một điềm báo đáng lo ngại. Năm nay, nỗi sợ hãi của anh ấy đã đến gần hơn với thực tế, khi các công ty bắt đầu cạnh tranh ĐẾN nâng cao và phát hành công nghệ trí tuệ nhân tạo bất chấp sự tàn phá nó có thể gây ra.
AI sáng tạo hiện có sẵn cho bất kỳ ai và nó ngày càng có khả năng đánh lừa mọi người bằng chữ, âm thanh, hình ảnh Và video mà dường như được hình thành và nắm bắt bởi con người. Nguy cơ cả tin của xã hội bùng phát mối quan tâm Về thông tin sai lệch, mất việc làm, phân biệt, sự riêng tư Và loạn thị rộng.
Đối với những doanh nhân như ông Doronichev, nó cũng trở thành một cơ hội kinh doanh. Hơn một chục công ty hiện cung cấp các công cụ để xác định xem thứ gì đó có được tạo ra bằng trí tuệ nhân tạo hay không, với những cái tên như Sensity AI (phát hiện deepfake), Fictitious.AI (phát hiện đạo văn) và Originality.AI (cũng là đạo văn).
Ông Doronichev, một người gốc Ngađã thành lập một công ty ở San Francisco, Optic, để giúp xác định vật liệu tổng hợp hoặc giả mạo — theo cách nói của ông, là “máy X-quang sân bay dành cho nội dung kỹ thuật số”.
Vào tháng 3, nó đã ra mắt một trang web nơi người dùng có thể kiểm tra hình ảnh để xem liệu chúng được tạo bởi ảnh thực tế hay trí tuệ nhân tạo. Nó đang làm việc trên các dịch vụ khác để xác minh video và âm thanh.
Ông Doronichev, nhà đầu tư cho một ứng dụng hoán đổi khuôn mặt có tên Reface, cho biết: “Tính xác thực của nội dung sẽ trở thành một vấn đề lớn đối với toàn xã hội. “Chúng ta đang bước vào thời đại của hàng giả giá rẻ.” Ông nói, vì việc sản xuất nội dung giả mạo không tốn nhiều chi phí nên nó có thể được thực hiện trên quy mô lớn.
Theo công ty nghiên cứu thị trường Grand View Research, thị trường AI tổng thể dự kiến sẽ vượt quá 109 tỷ USD vào năm 2030, tăng trưởng trung bình 35,6% mỗi năm cho đến thời điểm đó. Các doanh nghiệp tập trung vào việc phát hiện công nghệ là một phần đang phát triển của ngành.
Nhiều tháng sau khi được tạo ra bởi một sinh viên Đại học Princeton, GPTZero tuyên bố rằng hơn một triệu người đã sử dụng chương trình của nó để viết ra văn bản do máy tính tạo ra. Người bảo vệ thực tế là một trong những 414 công ty được chọn từ 17.000 đơn đăng ký để được tài trợ bởi chương trình tăng tốc khởi nghiệp Y Combinator vào mùa đông này.
CopyLeaks đã huy động được 7,75 triệu đô la vào năm ngoái một phần để mở rộng dịch vụ chống đạo văn cho các trường học và trường đại học nhằm phát hiện trí tuệ nhân tạo trong bài làm của sinh viên. lính gáccó những người sáng lập chuyên về an ninh mạng và chiến tranh thông tin cho Hải quân Hoàng gia Anh và Tổ chức Hiệp ước Bắc Đại Tây Dương, đã đóng vòng hạt giống trị giá 1,5 triệu đô la vào năm 2020, được hỗ trợ một phần bởi một trong những kỹ sư sáng lập của Skype để giúp bảo vệ các nền dân chủ chống lại deepfakes và các nội dung tổng hợp độc hại khác phương tiện truyền thông.
Các công ty công nghệ lớn cũng tham gia: Intel’s FakeCatcher tuyên bố có thể xác định các video deepfake với độ chính xác 96%, một phần bằng cách phân tích pixel để tìm các dấu hiệu tinh tế của dòng máu chảy trên mặt người.
Trong Chính phủ liên bangCơ quan Dự án Nghiên cứu Tiên tiến Quốc phòng có kế hoạch chi tiêu gần 30 triệu USD năm nay để chạy Semantic Forensics, một chương trình phát triển các thuật toán để tự động phát hiện deepfakes và xác định xem chúng có độc hại hay không.
Thậm chí mởAI, đã thúc đẩy sự bùng nổ AI khi phát hành công cụ ChatGPT vào cuối năm ngoái, đang làm việc trên các dịch vụ phát hiện. Công ty, có trụ sở tại San Francisco, đã ra mắt một công cụ miễn phí vào tháng 1 để giúp phân biệt giữa văn bản do con người soạn thảo và văn bản do trí tuệ nhân tạo viết.
OpenAI nhấn mạnh rằng mặc dù công cụ này là một cải tiến so với các lần lặp lại trước đây, nhưng nó vẫn “không hoàn toàn đáng tin cậy”. Công cụ này đã xác định chính xác 26% văn bản được tạo giả tạo nhưng đánh dấu sai 9% văn bản do con người tạo ra do máy tính tạo ra.
Công cụ OpenAI có nhiều lỗi phổ biến trong các chương trình phát hiện: Nó gặp khó khăn với các văn bản ngắn và văn bản không phải bằng tiếng Anh. Trong môi trường giáo dục, các công cụ phát hiện đạo văn như TurnItIn đã bị cáo buộc là không chính xác phân loại các bài tiểu luận được viết bởi các sinh viên như được tạo ra bởi chatbot.
Các công cụ phát hiện vốn đã tụt hậu so với công nghệ chung mà chúng đang cố gắng phát hiện. Vào thời điểm hệ thống phòng thủ có thể nhận ra công việc của một chatbot hoặc trình tạo hình ảnh mới, chẳng hạn như Google Bard hoặc giữa hành trình, các nhà phát triển đã đưa ra một phiên bản mới có thể tránh được sự phòng thủ đó. Tình huống này được mô tả là một cuộc chạy đua vũ trang hoặc mối quan hệ chống vi-rút, trong đó người này sinh ra người kia, hết lần này đến lần khác.
Hany Farid, giáo sư khoa học máy tính tại Đại học cho biết: “Khi Midjourney phát hành Midjourney 5, súng khởi động của tôi nổ và tôi bắt đầu làm việc để bắt kịp — và trong khi tôi đang làm việc đó, họ đang làm việc trên Midjourney 6. ở California, Berkeley, người chuyên về pháp y kỹ thuật số và cũng tham gia vào ngành công nghiệp phát hiện AI. “Đó vốn là một trò chơi đối đầu khi tôi làm việc trên máy dò, ai đó đang chế tạo một cái bẫy chuột tốt hơn, một bộ tổng hợp tốt hơn.”
Joshua Tucker, giáo sư chính trị tại Đại học New York và là đồng giám đốc của Trung tâm Truyền thông Xã hội và Chính trị, cho biết, bất chấp sự bắt kịp liên tục, nhiều công ty đã nhận thấy nhu cầu phát hiện AI từ các trường học và nhà giáo dục. Ông đặt câu hỏi liệu một thị trường tương tự có xuất hiện trước cuộc bầu cử năm 2024 hay không.
Ông nói: “Liệu chúng ta có thấy một loại cánh song song của các công ty này đang phát triển để giúp bảo vệ các ứng cử viên chính trị để họ có thể biết khi nào họ đang là mục tiêu của những thứ này hay không”.
Các chuyên gia cho rằng video được tạo tổng hợp vẫn còn khá lộn xộn và dễ xác định, nhưng việc sao chép âm thanh và tạo hình ảnh đều rất tiên tiến. Việc phân biệt hàng thật và hàng giả sẽ yêu cầu các chiến thuật pháp y kỹ thuật số như tìm kiếm hình ảnh ngược và theo dõi địa chỉ IP.
Các chương trình phát hiện có sẵn đang được thử nghiệm với các ví dụ “rất khác so với việc đi vào thế giới hoang dã, nơi các hình ảnh đang được thực hiện và đã được sửa đổi, cắt xén, thu nhỏ kích thước, chuyển mã và chú thích và có Chúa mới biết điều gì khác đã xảy ra với chúng”. Ông Farid nói.
Ông nói thêm: “Việc rửa nội dung khiến đây trở thành một nhiệm vụ khó khăn.
Content Authenticity Initiative, một tập đoàn gồm 1.000 công ty và tổ chức, là một nhóm đang cố gắng làm cho công nghệ tổng quát trở nên rõ ràng ngay từ đầu. (Do Adobe dẫn đầu, với các thành viên như The New York Times và những người chơi trí tuệ nhân tạo như Stability AI) Thay vì ghép lại nguồn gốc của hình ảnh hoặc video sau này trong vòng đời của nó, nhóm đang cố gắng thiết lập các tiêu chuẩn sẽ áp dụng thông tin đăng nhập có thể theo dõi đối với tác phẩm kỹ thuật số khi tạo.
Adobe cho biết tuần trước rằng công nghệ tạo ra Firefly của họ sẽ là tích hợp vào Google Bardnơi nó sẽ đính kèm “nhãn dinh dưỡng” vào nội dung mà nó tạo ra, bao gồm cả ngày hình ảnh được tạo và các công cụ kỹ thuật số được sử dụng để tạo ra hình ảnh đó.
Jeff Sakasegawa, kiến trúc sư về độ tin cậy và an toàn tại Persona, một công ty giúp xác minh danh tính người tiêu dùng, cho biết những thách thức do trí tuệ nhân tạo đặt ra mới chỉ bắt đầu.
Ông nói: “Làn sóng đang hình thành động lực. “Nó đang tiến về phía bờ biển. Tôi không nghĩ nó đã bị rơi.”