OpenAI đối diện với vụ kiện vì ChatGPT gây ảo giác và làm mất uy tín về tài chính.

#OpenAI #ChatGPT #kiện #ảogiác #tờitền #sựkiệnngàyhôm #AI #chatbot #phỉbáng

OpenAI vừa bị kiện vì chatbot của họ, ChatGPT, đã tạo ra ảo giác khi cung cấp cho một nhà báo thông tin sai lệch về vụ kiện giữa Tổ chức Sửa đổi Thứ hai và Robert Ferguson. Chatbot này đã trả lời rất nhanh chóng và tự tin rằng vụ việc liên quan đến Mark Walters – một người dẫn chương trình phát thanh ở Georgia bị buộc tội biển thủ tiền từ SAF – là chính xác, nhưng đó không phải là sự thật. Thay vào đó, Walters đang ở giai đoạn cuối của một ảo giác AI. Anh ấy đã kiện OpenAI lần đầu tiên với tội danh phỉ báng, cáo buộc tên của anh ấy đã bị ám chỉ sai và thông tin sai lệch đã làm tổn hại danh tiếng của anh ấy.

Đây có thể là vụ kiện đầu tiên trong số các vụ kiện về AI sắp tới về những thông tin bịa đặt liên quan đến sản phẩm của các công ty AI. Mặc dù trường hợp này chưa ổn định, nhưng đây có thể là tiền đề cho những vụ kiện lớn hơn trong tương lai.

OpenAI đã thừa nhận những ảo giác từ ChatGPT là một vấn đề cần giải quyết. Công ty này đang nghiên cứu các mô hình có khả năng cắt giảm những thông tin sai lệch này.

Về vụ kiện của Walters, giáo sư Eugene Volokh của Trường Luật Đại học California Los Angeles tỏ ra kém tự tin hơn các luật sư của Walters về sức mạnh của vụ việc. Ông cho rằng nếu Walters không chỉ ra được thiệt hại thực sự đã gây ra cho danh tiếng của anh ấy, thì khả năng kiện các công ty AI vì tội phỉ báng là không cao.

Nguồn: https://gizmodo.com/chatgpt-openai-libel-suit-hallucinate-mark-walters-ai-1850512647

Khi một nhà báo của một trang web súng trực tuyến hỏi ChatGPT của OpenAI để cung cấp cho anh ta một bản tóm tắt của trường hợp Tổ chức sửa đổi thứ hai v. Robert Ferguson đầu năm nay, anh ấy cho biết chatbot AI đã nhanh chóng đưa ra câu trả lời. Nó tự tin tuyên bố vụ việc liên quan đến một người dẫn chương trình phát thanh ở Georgia tên là Mark Walters, người bị buộc tội biển thủ tiền từ Tổ chức Tu chính án thứ hai (SAF). Vấn đề duy nhất: không có điều nào trong số đó là sự thật. Trên thực tế, Walters chẳng liên quan gì đến bộ đồ cả. Thay vào đó, Walters tuyên bố rằng anh ta đang ở giai đoạn cuối của cái mà các nhà nghiên cứu gọi là “ảo giác” AI. Giờ đây, anh ấy đã đệ đơn kiện lần đầu tiên về tội phỉ báng chống lại ChatGPT vì cáo buộc làm tổn hại danh tiếng của anh ấy.

Mật khẩu Netflix, ChatGPT không thể phát hiện AI và không còn CoTweets | Lựa chọn của biên tập viên

“Mọi tuyên bố về sự thật trong bản tóm tắt liên quan đến Walters đều sai,” đơn kiện được đệ trình lên Tòa Thượng thẩm Quận Gwinnett vào ngày 5 tháng Sáu cho biết. Luật sư của Walters tuyên bố OpenAI đã hành động cẩu thả và “xuất bản tài liệu bôi nhọ liên quan đến Walters” khi cung cấp thông tin sai lệch cho nhà báo.

Một chuyên gia pháp lý đã nói chuyện với Gizmodo cho biết khiếu nại của Walters có thể là vụ kiện đầu tiên trong số các vụ kiện cố gắng đưa các công ty AI ra tòa về những điều bịa đặt có tài liệu rõ ràng về sản phẩm của họ. Và mặc dù giá trị của trường hợp cụ thể này có vẻ không ổn định nhất, nhưng chuyên gia lưu ý rằng nó có thể tạo tiền đề cho một làn sóng các vụ kiện phức tạp kiểm tra ranh giới của luật phỉ báng.

Giáo sư Eugene Volokh của Trường Luật Đại học California Los Angeles nói với Gizmodo: “Các nguyên tắc pháp lý hiện hành khiến ít nhất một số vụ kiện như vậy có khả năng khả thi.

Tại sao Mark Walters kiện OpenAI về ảo giác của ChatGPT?

Khi nhà báo về súng, Fred Riehl, yêu cầu ChatGPT cung cấp bản tóm tắt về vụ kiện được đề cập vào ngày 4 tháng 5, mô hình ngôn ngữ lớn được cho là đã nói rằng đó là đơn khiếu nại pháp lý do người sáng lập và phó chủ tịch điều hành của Tổ chức Sửa đổi Thứ hai (SAF) đệ trình đã đệ đơn chống lại Walters, người dẫn chương trình Đài phát thanh vũ trang của Mỹ, người mà ChatGPT xác định là thủ quỹ và giám đốc tài chính của SAF. Walters, theo lời kể của ChatGPT, “đã biển thủ tiền cho các chi phí cá nhân mà không được phép hoặc hoàn trả, thao túng hồ sơ tài chính và báo cáo ngân hàng để che giấu các hoạt động của mình, đồng thời không cung cấp báo cáo tài chính chính xác và kịp thời,” theo đơn khiếu nại.

Nhưng Walters tuyên bố rằng anh ta không thể biển thủ số tiền đó vì anh ta không phải và chưa bao giờ là thủ quỹ hay giám đốc tài chính của SAF. Trên thực tế, anh ấy không làm việc cho quỹ nào cả, theo đơn kiện của anh ấy. Một perusal của thật sự SAF kiện Ferguson lời phàn nàn không có dấu hiệu nào về tên của Walters ở bất kỳ đâu trong 30 trang của nó. Khiếu nại đó không liên quan gì đến khiếu nại kế toán tài chính cả. Walters cáo buộc rằng ChatGPT đã ảo tưởng tên của Walters và câu chuyện không có thật để kể lại một tài liệu pháp lý thực sự.

“Đơn khiếu nại không cáo buộc rằng Walters đã biển thủ tiền cho các chi phí cá nhân, thao túng hồ sơ tài chính hoặc báo cáo ngân hàng, hoặc không cung cấp báo cáo tài chính cho lãnh đạo SAF, anh ta cũng không thể làm như vậy vì anh ta không có việc làm hoặc mối quan hệ chính thức ,” Bộ đồ của Walters viết.

Khi nhà báo hoài nghi yêu cầu ChatGPT cung cấp cho anh ta đoạn văn chính xác của vụ kiện đề cập đến Walters, chatbot bị cáo buộc đã nhân đôi yêu cầu của mình.

“Chắc chắn rồi,” AI trả lời, theo bộ đồ của Walters. “Đây là đoạn trong đơn khiếu nại liên quan đến Walters.” Đoạn văn bản do ChatGPT trả về, bao gồm bên dưới, không tồn tại trong đơn khiếu nại thực tế. AI thậm chí còn sai số trường hợp.

“Bị cáo Mark Walters (‘Walters’) là một cá nhân cư trú tại Georgia. Walters đã từng là Thủ quỹ và Giám đốc Văn phòng Tài chính của SAF ít nhất kể từ năm 2012. Walters có quyền truy cập vào tài khoản ngân hàng và hồ sơ tài chính của SAF và chịu trách nhiệm duy trì các hồ sơ đó cũng như cung cấp báo cáo tài chính cho ban giám đốc của SAF. Walters nợ SAF nghĩa vụ ủy thác về lòng trung thành và sự quan tâm, đồng thời được yêu cầu hành động một cách thiện chí và luôn nghĩ đến lợi ích tốt nhất của SAF. Walters đã vi phạm các nghĩa vụ và trách nhiệm này bằng cách tham ô và sử dụng sai quỹ và tài sản của SAF vì lợi ích của mình, đồng thời thao túng hồ sơ tài chính và báo cáo ngân hàng của SAF để che giấu các hoạt động của mình.”

Riehl đã liên hệ với các luật sư có liên quan đến SAF kiện Ferguson để tìm hiểu điều gì đã thực sự xảy ra và anh ấy đã không đưa thông tin sai lệch về Walters vào một câu chuyện, theo đơn khiếu nại của Walters. Riehl đã không trả lời ngay lập tức yêu cầu bình luận.

OpenAI và người sáng lập Sam Altman đã thừa nhận những ảo giác này là một vấn đề cần giải quyết. Công ty đã phát hành một bài đăng trên blog tuần trước cho biết nhóm của họ đang nghiên cứu các mô hình mới được cho là có khả năng cắt giảm những thông tin sai lệch này.

Karl Cobbe, một nhà khoa học nghiên cứu về OpenAI, viết: “Ngay cả những mô hình hiện đại nhất vẫn tạo ra những lỗi logic, thường được gọi là ảo giác. “Giảm thiểu ảo giác là một bước quan trọng để xây dựng AGI (trí thông minh tổng hợp nhân tạo) phù hợp.” OpenAI đã không trả lời yêu cầu bình luận của Gizmodo.

Liệu Walters có thắng kiện OpenAI?

Một luật sư của người dẫn chương trình phát thanh ở Georgia tuyên bố những cáo buộc của ChatGPT liên quan đến khách hàng của anh ta là “sai sự thật và ác ý” và có thể gây tổn hại đến danh tiếng của Walters bằng cách “khiến anh ta phải hứng chịu sự thù hận, khinh thường hoặc chế giễu của công chúng”. Luật sư của Walters đã không trả lời ngay lập tức yêu cầu bình luận.

Volokh, giáo sư UCLA và là tác giả của một bài báo sắp xuất bản trên tạp chí luật về trách nhiệm pháp lý đối với đầu ra của các mô hình AI, tỏ ra kém tự tin hơn các luật sư của Walters về sức mạnh của vụ việc. Volokh nói với Gizmodo rằng anh ấy tin rằng có những tình huống mà các nguyên đơn có thể kiện các nhà sản xuất AI vì tội phỉ báng và thành công nhưng Walters, trong trường hợp này, đã không chỉ ra được thiệt hại thực sự đã gây ra cho danh tiếng của anh ấy. Trong ví dụ này, Walters dường như đang kiện OpenAI về các thiệt hại do trừng phạt hoặc giả định. Volokh nói:

Volokh nói: “Có thể có sự thiếu thận trọng đối với thiết kế của phần mềm nói chung, nhưng tôi hy vọng những gì tòa án sẽ yêu cầu là bằng chứng OpenAI nhận thức được một cách chủ quan rằng tuyên bố sai cụ thể này đã được tạo ra,” Volokh nói.

Tuy nhiên, Volokh nhấn mạnh những hạn chế cụ thể của trường hợp này không nhất thiết có nghĩa là các trường hợp phỉ báng khác không thể chống lại các công ty công nghệ. Các mô hình như ChatGPT truyền tải thông tin đến các cá nhân và quan trọng là có thể truyền tải thông tin đó dưới dạng khẳng định thực tế ngay cả khi nó sai một cách trắng trợn. Ông lưu ý rằng những điểm đó đáp ứng nhiều điều kiện cần thiết theo luật phỉ báng. Và trong khi nhiều công ty internet đã nổi tiếng tránh được các vụ kiện phỉ báng trong quá khứ nhờ lá chắn pháp lý của Mục 230 của Đạo luật về khuôn phép trong giao tiếpnhững biện pháp bảo vệ đó có thể sẽ không áp dụng cho chatbot vì chúng tạo ra chuỗi thông tin mới của riêng chúng thay vì hiển thị lại nhận xét từ một người dùng khác.

Volokh nói: “Nếu tất cả những gì một công ty làm là thiết lập một chương trình trích dẫn tài liệu từ một trang web để trả lời một truy vấn, thì điều đó mang lại cho công ty quyền miễn trừ theo Mục 230. “Nhưng nếu chương trình soạn thảo một thứ gì đó từng chữ, thì phần soạn thảo đó là trách nhiệm của chính công ty.”

Volokh tiếp tục nói rằng lời biện hộ của OpenAI và các công ty tương tự rằng chatbot rõ ràng là nguồn thông tin không đáng tin cậy không vượt qua được sự tập hợp của anh ấy vì họ đồng thời thúc đẩy thành công của công nghệ.

“OpenAI thừa nhận có thể có sai sót nhưng (ChatGPT) không được coi là một trò đùa; nó không được quảng cáo là hư cấu; nó không được lập hóa đơn như những con khỉ gõ trên máy đánh chữ,” ông nói. “Nó được quảng cáo là một thứ thường rất đáng tin cậy và chính xác.”

Trong tương lai, nếu một nguyên đơn có thể thuyết phục thành công thẩm phán rằng họ bị mất việc làm hoặc một số thu nhập có thể đo lường khác dựa trên những tuyên bố sai sự thật được lan truyền bởi một chabtot, Volokh cho biết họ có thể chiến thắng.

Đây không phải là lần đầu tiên chatbot AI lan truyền thông tin sai lệch về người thật

Volokh nói với Gizmodo đây là trường hợp đầu tiên anh ta thấy một nguyên đơn cố gắng kiện một công ty AI vì tài liệu bị cáo buộc bôi nhọ sản phẩm của họ. Tuy nhiên, đã có những ví dụ khác về những người cho rằng các mô hình AI đã trình bày sai về chúng. Đầu năm nay, Brian Hood, thị trưởng vùng Hepburn Shire ở Australia, dọa kiện OpenAI sau khi mô hình của nó bị cáo buộc gọi anh ta là tội phạm bị kết án liên quan đến vụ bê bối hối lộ. Hood không những không liên quan đến tội ác mà còn thực sự người tố giác người tiết lộ sự việc.

Cũng trong khoảng thời gian đó, một giáo sư luật của Đại học George Washington tên là Jonathan Turley cho biết ông và một số giáo sư khác đang bị ChatGPT cáo buộc quấy rối tình dục. Theo Turley, mô hình này đã bịa đặt một câu chuyện của Washington Post cũng như những câu trích dẫn gây ảo giác để hỗ trợ cho các tuyên bố. Trích dẫn và trích dẫn giả đang nhanh chóng trở thành một vấn đề chính đối với các mô hình AI tổng quát.

Và trong khi OpenAI thừa nhận sự thiếu chính xác của ChatGPT trong một tiết lộ trên trang web của mình, điều đó đã không ngăn các luật sư trích dẫn chương trình trong bối cảnh chuyên nghiệp. Mới tuần trước, một luật sư đại diện cho một người đàn ông kiện một hãng hàng không đã gửi một bản tóm tắt pháp lý chứa đầy thứ mà một thẩm phán cho là “các quyết định tư pháp không có thật” do người mẫu bịa ra. Bây giờ luật sư phải đối mặt với các biện pháp trừng phạt có thể. Mặc dù đây là ví dụ rõ ràng nhất về sự giám sát rõ ràng như vậy cho đến nay, một luật sư bào chữa hình sự ở Texas trước đây đã nói với Gizmodo rằng ông sẽ không ngạc nhiên nếu có nhiều ví dụ hơn để làm theo. Một thẩm phán khác, cũng ở Texas, đã ra lệnh vào tuần trước rằng không có tài liệu nào được đệ trình lên tòa án của ông được viết bởi AI.

Bạn muốn biết thêm về AI, chatbot và tương lai của máy học? Kiểm tra bảo hiểm đầy đủ của chúng tôi về trí tuệ nhân tạohoặc duyệt hướng dẫn của chúng tôi để Trình tạo nghệ thuật AI miễn phí tốt nhấtMọi thứ chúng tôi biết về ChatGPT của OpenAI.


Leave a Reply

Your email address will not be published. Required fields are marked *