Queen Mobile Blog

“Trưởng nhóm an toàn cũ của Google Arjun Narayan đưa ra ý kiến về tin tức được tạo ra bởi Trí tuệ Nhân tạo”

#SựKiệnNgàyHômNay: Trưởng nhóm an toàn cũ của Google Arjun Narayan thảo luận về tin tức do AI viết

Một số tháng gần đây, ý tưởng về tin tức được viết hoàn toàn bằng máy tính đã trở thành hiện thực. Tuy nhiên, điều này đã gây nhầm lẫn cho một số độc giả. Hiện nay, các nhà văn, biên tập viên và các nhà hoạch định chính sách đang cố gắng phát triển các tiêu chuẩn để duy trì lòng tin trong một thế giới nơi văn bản do AI tạo ra sẽ ngày càng xuất hiện trên các nguồn tin tức.

Các ấn phẩm công nghệ lớn đã phải đính chính các bài báo được viết bởi các chatbot kiểu ChatGPT, vốn dễ mắc lỗi thực tế. Trong khi đó, các tổ chức chính thống khác đang khám phá việc sử dụng AI trong các bài báo với sự kiềm chế đáng chú ý hơn. Tuy nhiên, chất lượng thấp các trang trại nội dung đã sử dụng chatbot để tạo ra các câu chuyện tin tức, một số trong đó chứa thông tin sai sự thật.

Các vấn đề xung quanh tính minh bạch và trách nhiệm giải trình của AI là một trong những thách thức khó khăn nhất. Arjun Narayan, Trưởng bộ phận Tin cậy và An toàn cho SmartNews, đã thảo luận về sự phức tạp của thời điểm hiện tại và cách các tổ chức tin tức nên tiếp cận nội dung AI theo cách có thể xây dựng và nuôi dưỡng lòng tin của độc giả, cũng như điều gì sẽ xảy ra trong tương lai gần không chắc chắn của AI thế hệ mới.

Theo Narayan, nỗi lo lớn nhất từ góc độ tin cậy và an toàn của AI là đảm bảo rằng các hệ thống AI được đào tạo chính xác và được đào tạo với cơ sở thực tế phù hợp. Ngoài ra, khi AI đưa ra quyết định, chúng ta phải nhận ra rằng AI có thể nghĩ ra mọi thứ và tạo ra những thứ không thật hoặc thậm chí không tồn tại. Vì vậy, phân biệt được nội dung được tạo ra bởi AI và nội dung được viết bởi con người là vấn đề cần được giải quyết.

Narayan cũng đã đề cập đến đạo đức báo chí và việc phát hiện và giám sát các tiêu chuẩn và giá trị biên tập của nội dung AI. Theo ông, các tổ chức tin tức nên có một nhóm biên tập hoặc một nhóm tiêu chuẩn để kiểm tra và giám tuyển các tiêu chuẩn và giá trị biên tập của bất kỳ thứ gì được tạo ra từ hệ thống AI.

Với sự phát triển của AI, chúng ta cần phải có các nguyên tắc và tiêu chuẩn để duy trì lòng tin của độc giả và đảm bảo tính minh bạch trong việc sử dụng nội dung AI trong các tin tức.

Nguồn: https://gizmodo.com/google-smartnews-ai-news-tiktok-bytedance-trust-safety-1850439273

Trong một vài tháng ngắn ngủi, ý tưởng về những bài báo đầy sức thuyết phục được viết hoàn toàn bằng máy tính đã phát triển từ sự vô lý được cho là thành hiện thực. đã gây nhầm lẫn cho một số độc giả. Bây giờ, các nhà văn, biên tập viên, và các nhà hoạch định chính sách đang cố gắng phát triển các tiêu chuẩn để duy trì lòng tin trong một thế giới nơi văn bản do AI tạo ra sẽ ngày càng xuất hiện rải rác trên các nguồn cấp tin tức.

Tạo Video Qua Văn bản? | công nghệ tương lai

Các ấn phẩm công nghệ lớn như CNET đã được bị bắt bằng tay trong lọ bánh quy AI sáng tạo và đã phải đính chính các bài báo được viết bởi các chatbot kiểu ChatGPT, vốn dễ mắc lỗi thực tế. Các tổ chức chính thống khác, như Người trong cuộc, đang khám phá việc sử dụng AI trong các bài báo với sự kiềm chế đáng chú ý hơn, ít nhất là bây giờ. Ở cuối quang phổ đen tối hơn, chất lượng thấp các trang trại nội dung đã sử dụng chatbot để tạo ra các câu chuyện tin tức, một số trong đó chứa thông tin sai sự thật nguy hiểm tiềm tàng. Những nỗ lực này, phải thừa nhận là thô thiển, nhưng điều đó có thể nhanh chóng thay đổi khi công nghệ trưởng thành.

Các vấn đề xung quanh tính minh bạch và trách nhiệm giải trình của AI là một trong những thách thức khó khăn nhất chiếm lấy tâm trí của Arjun Narayan, Trưởng bộ phận Tin cậy và An toàn cho SmartNews, một ứng dụng khám phá tin tức có sẵn ở hơn 150 quốc gia sử dụng thuật toán đề xuất phù hợp với một mục tiêu đã nêu về việc “cung cấp thông tin chất lượng của thế giới cho những người cần nó.” Trước SmartNews, Narayan đã làm việc với tư cách là Trưởng nhóm tin cậy và an toàn tại ByteDance và Google. Theo một cách nào đó, những thách thức dường như bất ngờ do những người tạo tin tức AI đặt ra ngày nay là kết quả của việc tích lũy dần dần các thuật toán đề xuất và các sản phẩm AI khác mà Narayan đã giúp giám sát trong hơn 20 năm. Narayan đã nói chuyện với Gizmodo về sự phức tạp của thời điểm hiện tại, cách các tổ chức tin tức nên tiếp cận nội dung AI theo cách có thể xây dựng và nuôi dưỡng lòng tin của độc giả cũng như điều gì sẽ xảy ra trong tương lai gần không chắc chắn của AI thế hệ mới.

Cuộc phỏng vấn này đã được chỉnh sửa cho độ dài và rõ ràng.

Bạn thấy một số thách thức lớn nhất không lường trước được do AI tổng quát đặt ra từ góc độ tin cậy và an toàn là gì?

Có một vài rủi ro. Đầu tiên là xung quanh việc đảm bảo rằng các hệ thống AI được đào tạo chính xác và được đào tạo với cơ sở thực tế phù hợp. Thật khó để chúng ta làm ngược lại và cố gắng hiểu tại sao một số quyết định lại đưa ra theo cách mà chúng đã làm. Điều cực kỳ quan trọng là phải hiệu chỉnh và quản lý cẩn thận bất kỳ điểm dữ liệu nào sẽ được đưa vào để đào tạo hệ thống AI.

Khi một AI đưa ra quyết định, bạn có thể gán một số logic cho nó nhưng trong hầu hết các trường hợp, đó là một chút hộp đen. Điều quan trọng là phải nhận ra rằng AI có thể nghĩ ra mọi thứ và tạo ra những thứ không có thật hoặc thậm chí không tồn tại. Thuật ngữ công nghiệp là ảo giác. Điều đúng đắn cần làm là nói, “này, tôi không có đủ dữ liệu, tôi không biết.”

Sau đó là những hệ lụy cho xã hội. Khi AI tổng quát được triển khai trong nhiều lĩnh vực công nghiệp hơn, sẽ có sự gián đoạn. Chúng ta phải tự hỏi liệu chúng ta có trật tự kinh tế và xã hội phù hợp để đáp ứng loại gián đoạn công nghệ đó hay không. Điều gì xảy ra với những người bị di dời và không có việc làm? Có thể là 30 hoặc 40 năm nữa trước khi mọi thứ trở thành xu hướng hiện nay là 5 năm hoặc 10 năm. Vì vậy, chính phủ hoặc cơ quan quản lý không có nhiều thời gian để chuẩn bị cho việc này. Hoặc để các nhà hoạch định chính sách có lan can tại chỗ. Đây là những điều mà các chính phủ và xã hội dân sự đều cần phải suy nghĩ thấu đáo.

Một số mối nguy hiểm hoặc thách thức mà bạn thấy với những nỗ lực gần đây của các tổ chức tin tức để tạo nội dung bằng AI là gì?

Điều quan trọng là phải hiểu rằng khó có thể phát hiện câu chuyện nào được viết đầy đủ bởi AI và câu chuyện nào không. Sự khác biệt đó đang mờ dần. Nếu tôi đào tạo một mô hình AI để học cách Mack viết bài xã luận của mình, có thể bài xã luận tiếp theo mà AI tạo ra sẽ rất giống phong cách của Mack. Tôi không nghĩ rằng chúng tôi đã ở đó nhưng nó rất có thể là tương lai. Vì vậy, sau đó là một câu hỏi về đạo đức báo chí. Như vậy có công bằng không? Ai có bản quyền đó, ai sở hữu IP đó?

Chúng ta cần phải có một số loại nguyên tắc đầu tiên. Cá nhân tôi tin rằng không có gì sai khi AI tạo ra một bài báo nhưng điều quan trọng là phải minh bạch với người dùng rằng nội dung này do AI tạo ra. Điều quan trọng đối với chúng tôi là phải chỉ ra trong phần nội dung hoặc trong phần tiết lộ rằng nội dung do AI tạo ra một phần hoặc toàn bộ. Miễn là nó đáp ứng tiêu chuẩn chất lượng hoặc tiêu chuẩn biên tập của bạn, tại sao không?

Một nguyên tắc đầu tiên khác: có nhiều lúc AI bị ảo giác hoặc khi nội dung sắp ra mắt có thể không chính xác trên thực tế. Tôi nghĩ điều quan trọng đối với các phương tiện truyền thông và ấn phẩm hoặc thậm chí là những người tổng hợp tin tức phải hiểu rằng bạn cần một nhóm biên tập hoặc một nhóm tiêu chuẩn hoặc bất cứ điều gì bạn muốn gọi là những người đang hiệu đính bất cứ thứ gì được tạo ra từ hệ thống AI đó. Kiểm tra xem nó có chính xác không, kiểm tra xem nó có khuynh hướng chính trị không. Nó vẫn cần sự giám sát của con người. Nó cần kiểm tra và giám tuyển các tiêu chuẩn và giá trị biên tập. Miễn là những nguyên tắc đầu tiên này được đáp ứng, tôi nghĩ chúng ta có một con đường phía trước.

Bạn sẽ làm gì khi AI tạo ra một câu chuyện và đưa ra một số ý kiến ​​hoặc phân tích? Làm cách nào để người đọc nhận ra ý kiến ​​đó đến từ đâu nếu bạn không thể truy ngược lại thông tin từ tập dữ liệu?

Thông thường, nếu bạn là tác giả con người và AI đang viết câu chuyện, con người vẫn được coi là tác giả. Hãy nghĩ về nó giống như một dây chuyền lắp ráp. Vì vậy, có một dây chuyền lắp ráp Toyota, nơi các robot đang lắp ráp một chiếc ô tô. Nếu sản phẩm cuối cùng có túi khí bị lỗi hoặc vô lăng bị lỗi, Toyota vẫn sở hữu sản phẩm đó bất kể người máy đã tạo ra túi khí đó. Khi nói đến đầu ra cuối cùng, chính ấn phẩm tin tức chịu trách nhiệm. Bạn đang đặt tên của bạn trên đó. Vì vậy, khi nói đến quyền tác giả hoặc khuynh hướng chính trị, bất kể ý kiến ​​​​nào mà mô hình AI đưa ra cho bạn, bạn vẫn đang dập khuôn nó.

Chúng tôi vẫn còn sớm ở đây nhưng đã có báo cáo về trang trại nội dung sử dụng mô hình AI, thường rất lười biếng, tạo ra nội dung chất lượng thấp hoặc thậm chí gây hiểu lầm để tạo doanh thu quảng cáo. Ngay cả khi một số ấn phẩm đồng ý minh bạch, liệu có rủi ro là những hành động như thế này chắc chắn có thể làm giảm niềm tin vào tin tức nói chung không?

Khi AI tiến bộ, có một số cách nhất định mà chúng ta có thể có thể phát hiện xem thứ gì đó có phải do AI viết hay không nhưng nó vẫn còn rất non trẻ. Nó không chính xác cao và nó không hiệu quả lắm. Đây là lúc ngành công nghiệp tin cậy và an toàn cần bắt kịp cách chúng tôi phát hiện phương tiện tổng hợp so với phương tiện không tổng hợp. Đối với video, có một số cách để phát hiện deepfakes nhưng mức độ chính xác khác nhau. Tôi nghĩ rằng công nghệ phát hiện có thể sẽ bắt kịp khi AI tiến bộ nhưng đây là lĩnh vực cần đầu tư nhiều hơn và khám phá nhiều hơn.

Bạn có nghĩ rằng sự tăng tốc của AI có thể khuyến khích các công ty truyền thông xã hội dựa nhiều hơn vào AI để kiểm duyệt nội dung không? Sẽ luôn có một vai trò cho người điều hành nội dung của con người trong tương lai?

Đối với mỗi vấn đề, chẳng hạn như ngôn từ kích động thù địch, thông tin sai lệch hoặc quấy rối, chúng tôi thường có các mô hình phối hợp chặt chẽ với người điều hành là con người. Có mức độ chính xác cao đối với một số lĩnh vực vấn đề trưởng thành hơn; chẳng hạn như lời nói căm thù trong văn bản. Ở một mức độ công bằng, AI có thể nắm bắt được điều đó khi nó được xuất bản hoặc khi ai đó đang gõ nó.

Tuy nhiên, mức độ chính xác đó không giống nhau đối với tất cả các lĩnh vực vấn đề. Vì vậy, chúng tôi có thể có một mô hình khá hoàn thiện cho ngôn từ kích động thù địch vì nó đã tồn tại được 100 năm nhưng có thể đối với thông tin sai lệch về sức khỏe hoặc thông tin sai lệch về Covid, có thể cần phải đào tạo thêm về AI. Hiện tại, tôi có thể yên tâm nói rằng chúng ta vẫn sẽ cần rất nhiều bối cảnh của con người. Các mô hình vẫn chưa có. Nó vẫn sẽ là con người trong vòng lặp và nó vẫn sẽ là một quá trình học tập liên tục giữa con người và máy móc trong không gian tin cậy và an toàn. Công nghệ luôn bắt kịp các tác nhân đe dọa.

Bạn nghĩ gì về các công ty công nghệ lớn đã sa thải một phần đáng kể các nhóm an toàn và tin cậy của họ trong những tháng gần đây với lý do rằng họ không cần thiết?

Nó liên quan đến tôi. Không chỉ là niềm tin và sự an toàn mà còn là các nhóm đạo đức AI. Tôi cảm thấy như các công ty công nghệ là những vòng tròn đồng tâm. Kỹ thuật là vòng tròn trong cùng trong khi tuyển dụng nhân sự, đạo đức AI, niềm tin và sự an toàn, tất cả đều là vòng tròn bên ngoài và hãy bỏ qua. Khi chúng tôi thoái vốn, chúng tôi có đang chờ đợi điều tồi tệ xảy ra với người hâm mộ không? Khi đó liệu có quá muộn để tái đầu tư hoặc điều chỉnh đúng hướng không?

Tôi rất vui khi được chứng minh là sai nhưng tôi thường lo lắng. Chúng tôi cần nhiều người hơn đang suy nghĩ về các bước này và cung cấp cho nó không gian chuyên dụng để giảm thiểu rủi ro. Nếu không, xã hội như chúng ta biết, thế giới tự do như chúng ta biết, sẽ gặp rủi ro đáng kể. Tôi nghĩ cần phải đầu tư nhiều hơn vào niềm tin và sự an toàn một cách trung thực.

Geoffrey Hinton, người mà một số người đã gọi là Bố già của AI, kể từ đó đã xuất hiện và công khai nói rằng anh ấy hối hận về công việc của mình trên AI và sợ rằng chúng ta có thể nhanh chóng tiến đến thời kỳ mà thật khó để phân biệt điều gì là đúng trên internet. Bạn nghĩ gì về nhận xét của anh ấy?

Anh ấy (Hinton) là một huyền thoại trong không gian này. Nếu bất cứ ai, anh ta sẽ biết những gì anh ta nói. Nhưng những gì anh ấy nói đúng.

Một số trường hợp sử dụng hứa hẹn nhất cho công nghệ mà bạn hào hứng là gì?

Gần đây tôi đã mất bố vì bệnh Parkinson. Ông đã chiến đấu với nó trong 13 năm. Khi tôi xem xét bệnh Parkinson và Alzheimer, rất nhiều bệnh trong số này không phải là mới, nhưng không có đủ nghiên cứu và đầu tư cho những bệnh này. Hãy tưởng tượng nếu bạn có AI thực hiện nghiên cứu đó thay cho nhà nghiên cứu con người hoặc liệu AI có thể giúp nâng cao một số suy nghĩ của chúng ta hay không. Đó sẽ không phải là tuyệt vời? Tôi cảm thấy đó là nơi công nghệ có thể tạo ra sự khác biệt lớn trong việc nâng cao cuộc sống của chúng ta.

Một vài năm trước, đã có một tuyên bố chung rằng chúng tôi sẽ không nhân bản các bộ phận cơ thể người mặc dù công nghệ đã có. Có một lý do cho điều đó. Nếu công nghệ đó xuất hiện, nó sẽ làm dấy lên đủ loại lo ngại về đạo đức. Bạn sẽ có các quốc gia thuộc thế giới thứ ba bị mổ cướp nội tạng người. Vì vậy, tôi nghĩ rằng điều cực kỳ quan trọng đối với các nhà hoạch định chính sách là phải suy nghĩ về cách sử dụng công nghệ này, lĩnh vực nào nên triển khai nó và lĩnh vực nào nên ngoài tầm với. Nó không dành cho các công ty tư nhân để quyết định. Đây là nơi các chính phủ nên suy nghĩ.

Trên cán cân lạc quan hay bi quan, bạn cảm thấy thế nào về bối cảnh AI hiện tại?

Tôi là một người nửa đầy ly. Tôi đang cảm thấy lạc quan nhưng hãy để tôi nói với bạn điều này. Tôi có một cô con gái bảy tuổi và tôi thường tự hỏi con bé sẽ làm công việc gì. Trong 20 năm nữa, công việc, như chúng ta biết ngày nay, sẽ thay đổi căn bản. Chúng ta đang bước vào một lãnh thổ không xác định. Tôi cũng hào hứng và lạc quan một cách thận trọng.

Bạn muốn biết thêm về AI, chatbot và tương lai của máy học? Kiểm tra bảo hiểm đầy đủ của chúng tôi về trí tuệ nhân tạohoặc duyệt hướng dẫn của chúng tôi để Trình tạo nghệ thuật AI miễn phí tốt nhấtMọi thứ chúng tôi biết về ChatGPT của OpenAI.


Exit mobile version