Tại sao Trí Tuệ Nhân Tạo biết tất cả nhưng không biết gì cả

Làm thế nào AI là một bậc thầy biết tất cả nhưng không biết gì cả. Tham gia vào bản tin hàng ngày và hàng tuần của chúng tôi để cập nhật tin tức mới nhất và nội dung độc quyền về việc áp dụng công nghệ AI hàng đầu. Nắm bắt hơn 500 triệu người mỗi tháng tin tưởng Gemini và ChatGPT để giữ họ biết về mọi thứ từ mì ống, tới tình dục hoặc bài tập về nhà. Nhưng nếu AI bảo bạn nấu mì trong xăng, bạn có lẽ không nên nghe lời khuyên của nó về việc sử dụng biện pháp tránh thai hoặc đại số. Tại Diễn đàn Kinh tế Thế giới vào tháng 1, Giám đốc điều hành OpenAI Sam Altman nhấn mạnh: “Tôi không thể nhìn vào não của bạn để hiểu tại sao bạn suy nghĩ như vậy. Nhưng tôi có thể yêu cầu bạn giải thích lý do và quyết định xem điều đó có vẻ hợp lý đối với tôi hay không. … Tôi nghĩ rằng các hệ thống AI của chúng tôi cũng sẽ có khả năng làm điều đó. Chúng sẽ có khả năng giải thích cho chúng ta các bước từ A đến B, và chúng ta có thể quyết định xem chúng là những bước tốt hay không.” Kiến thức yêu cầu sự giải thích không ngớt. Không có gì ngạc nhiên khi Altman muốn chúng ta tin rằng các mô hình ngôn ngữ lớn (LLM) như ChatGPT có thể tạo ra giải thích minh bạch cho tất cả những gì họ nói: Không có một sự giải thích tốt, gì mà con người tin tưởng hoặc nghi ngờ là đúng bao giờ cũng không đầy đủ kiến thức. Vậy tại sao không? Như vậy, hãy nghĩ về khi bạn cảm thấy thoải mái nói rằng bạn biết chắc chắn điều gì. Có lẽ, đó là khi bạn cảm thấy hoàn toàn tự tin vào niềm tin của mình vì nó được hỗ trợ tốt – bằng bằng chứng, lập luận hoặc lời chứng thực của các nhà chuyên môn đáng tin cậy. LLM được ước định là các nhà chuyên môn đáng tin cậy; những người cung cấp thông tin đáng tin cậy. Nhưng trừ khi họ có thể giải thích lý do, chúng ta không thể biết liệu tuyên bố của họ có đáp ứng được tiêu chuẩn chúng ta đặt ra về sự chứng thực. Ví dụ, giả sử bạn nói với tôi sương mù Tennessee hôm nay là do cháy rừng ở phía tây Canada. Tôi có thể tin bạn nói lời. Nhưng giả sử hôm qua bạn tuyên thệ với tôi một cách nghiêm túc rằng cuộc chiến giữa rắn là một phần bình thường của một bảo vệ luận án. Sau đó, tôi biết rằng bạn không hoàn toàn đáng tin cậy. Vì vậy, tôi có thể hỏi tại sao bạn nghĩ sương mù là do cháy rừng ở Canada. Đối với niềm tin của tôi được chứng minh, quan trọng là tôi biết báo cáo của bạn có đáng tin cậy hay không. Vấn đề là hệ thống AI hiện nay không thể giành được sự tin tưởng của chúng tôi bằng cách chia sẻ lý do đứng sau những gì họ nói, vì không có cái lý do đó. LLM thậm chí không được thiết kế để suy luận một cách xa xưa. Thay vào đó, các mô hình được huấn luyện trên lượng lớn văn bản của con người để phát hiện, sau đó dự đoán hoặc mở rộng, các mẫu phức tạp trong ngôn ngữ. Khi người dùng nhập một yêu cầu văn bản, phản ứng chỉ là sự chiếu bóng của thuật toán về cách mà mẫu sẽ tiếp tục phổ biến nhất. Những sản phẩm này (ngày càng) thuyết phục mô phỏng những gì một con người hiểu biết có thể nói. Nhưng quá trình cơ bản hoàn toàn không liên quan đến việc xem xét xem sản phẩm có được chứng thực, để không nói về sự đúng sai. Như Hicks, Humphries và Slater nói trong “ChatGPT là lừa bịp,” LLM “được thiết kế để tạo ra văn bản trông chân thực mà không quan tâm đến sự chân thật thực sự.” Do đó, nếu nội dung được tạo ra bởi AI không phải là sự tương đương nhân tạo của kiến thức con người, thì nó là gì? Hicks, Humphries và Slater đúng khi gọi nó là lừa bịp. Tuy nhiên, rất nhiều những gì LLM đưa ra là đúng. Khi những máy “lừa bịp” này tạo ra những sản phẩm chính xác về sự thật, họ tạo ra những trường hợp Gettier mà các triết học gọi là Gettier (theo triết gia Edmund Gettier). Những trường hợp này thú vị vì cách kỳ lạ mà họ kết hợp niềm tin chính xác với sự không biết để chứng thực niềm tin đó. Đầu ra AI có thể giống như một ảo ảnh. Hãy xem xét ví dụ này, từ các văn bản của triết gia Phật Giáo Ấn Độ thế kỷ thứ 8 Dharmottara: Hãy tưởng tượng rằng chúng ta đang tìm kiếm nước vào một ngày nóng. Chúng ta đột nhiên thấy nước, hoặc như chúng tôi nghĩ. Trong thực tế, chúng ta không thấy nước mà là một ảo ảnh, nhưng khi chúng ta đến đó, chúng ta may mắn và tìm thấy nước ngay dưới một hòn đá. Liệu chúng ta có thể nói rằng chúng ta đã có kiến thức thật sự về nước? Mọi người đều đồng ý rằng bất kỳ kiến thức nào là, những người đi trong ví dụ này không có. Thay vào đó, họ may mắn tìm thấy nước chính xác tại nơi họ không có lý do tốt để tin rằng họ sẽ tìm thấy nó. Vấn đề là, bất cứ khi nào chúng ta nghĩ rằng mình biết một điều gì đó từ một LLM, chúng ta đặt bản thân mình vào tình thế giống như những người theo Dharmottara. Nếu LLM được huấn luyện trên tập dữ liệu chất lượng, thì khá có thể, những tuyên bố của nó sẽ đúng. Những tuyên bố đó có thể được so sánh với ảo ảnh. Và bằng chứng và lập luận có thể chứng minh lý do cho các tuyên bố của nó cũng có thể tồn tại ở nơi nào đó trong tập dữ liệu của nó – giống như nước nổi dưới đá thực sự là có thật. Nhưng bằng chứng và lập luận chứng minh có thể tồn tại không hề đóng vai trò trong đầu ra của LLM – giống như sự tồn tại của nước không có vai trò trong việc tạo ra ảo ảnh mà hỗ trợ niềm tin của những người đi rằng họ sẽ tìm thấy nó ở đó. Những lời mần ẹo của Altman, do đó, là vô cùng gây hiểu nhầm. Nếu bạn yêu cầu một LLM giải thích đầu ra của nó, nó sẽ làm gì? Nó sẽ không cung cấp cho bạn một lý do thực sự. Nó sẽ cung cấp cho bạn một lý do Gettier: Một mô hình ngôn ngữ tự nhiên mà thuyết phục mô phỏng một lý do chứng thực. Một loại lý do ảo. Như Hicks và các thành viên khác, gọi nó là lý do lừa bịp. Đó là, như chúng ta đều biết, không phải lý do gì cả. Hiện nay, các hệ thống AI thường xuyên phạm lỗi hoặc “mơ mộng” một cách không đúng đắn khiến cho mặt nạ trở nên rơi rồi. Nhưng khi ảo ảnh của lý do trở nên thuyết phục hơn, một trong hai điều sẽ xảy ra. Với những người hiểu rằng nội dung AI thật sự là một trường hợp Gettier lớn, việc khẳng định giả dối của LLM mô tả lý do của chúng sẽ làm suy yếu tính uy tín của chúng. Chúng ta sẽ biết rằng AI được thiết kế và được huấn luyện một cách chủ định để làm một cách hệ thống lừa dối. Và những người chúng ta không nhận ra rằng AI nổ ra các tuyên bố Gettier – lý do giả mạo? Như vậy, chúng ta sẽ bị lừa dối. Đến mức chúng ta phụ thuộc vào LLM, chúng ta sẽ sống trong một loại không gian ma trận, không thể phân biệt sự thật từ sự hư cấu và không nhận ra chúng ta nên quan tâm tới sự khác biệt. Mỗi đầu ra phải được chứng thực Khi cân nhắc về tầm quan trọng của tình cảnh này, đó là quan trọng để nhớ rằng không có gì sai trong việc LLM hoạt động theo cách họ làm. Chúng là các công cụ đáng kinh ngạc, mạnh mẽ. Và nhưng người hiểu rằng hệ thống AI nổ ra các trường hợp Gettier thay vì kiến thức (nhân tạo) đã sử dụng LLM theo một cách mà đưa điều đó vào tính toán. Nhà lập trình sử dụng LLM để viết code, sau đó sử dụng kiến thức về việc viết code của chính họ để sửa đổi nó theo chuẩn và mục đích của họ. Giáo sư sử dụng LLM để viết đề cương bài luận và sau đó sửa đổi theo mục tiêu giáo dục của họ. Một người viết bài khéo léo suốt chu kỳ bầu cử này sẽ kiểm tra chính xác mọi bản nháp AI soạn thảo trước khi họ để ứng cử viên của mình bước lên sân khấu với nó. Và còn nữa. Nhưng hầu hết mọi người sẽ dựa vào AI đúng là chỗ mà chúng ta thiếu chuyên môn. Hãy nghĩ về những thiếu niên nghiên cứu đại số … hoặc biện pháp tránh thai. Hoặc người cao niên tìm kiếm lời khuyên dinh dưỡng – hoặc đầu tư. Nếu LLM sẽ điều tiết quyền truy cập của công chúng vào những loại thông tin quan trọng đó, thì ít nhất chúng ta cần biết xem liệu và khi nào chúng ta có thể tin cậy vào chúng hay không. Và sự tin cậy sẽ yêu cầu biết điều mà chính LLM không thể nói với chúng ta: liệu và cách nào mỗi đầu ra được chứng thực hay không. May mắn thay, bạn có lẽ biết rằng dầu ô-liu hoạt động tốt hơn xăng cho việc làm mì. Nhưng công thức nguy hiểm cho thực tế mà bạn đã nuốt trọn vẫn chưa từng được nếm lấy lý do? Hunter Kallay là một sinh viên nghiên cứu tiến sĩ triết học tại Đại học Tennessee. Kristina Gehrman, tiến sĩ, là giáo sư bộ môn triết học tại Đại học Tennessee. DataDecisionMakers Chào mừng đến cộng đồng VentureBeat! DataDecisionMakers là nơi các chuyên gia, bao gồm những người kỹ thuật thực hiện công việc dữ liệu, có thể chia sẻ thông tin liên quan đến dữ liệu và sáng tạo. Nếu bạn muốn đọc về các ý tưởng tiên tiến và thông tin mới nhất, các phương pháp tốt nhất và tương lai của dữ liệu và công nghệ dữ liệu, hãy tham gia cùng chúng tôi tại DataDecisionMakers. Bạn có thể thậm chí xem xét việc đóng góp một bài viết của riêng bạn! Đọc Thêm Từ DataDecisionMakers #AI #DataDecisionMakers #L Nguồn: https://venturebeat.com/ai/why-ai-is-a-know-it-all-know-nothing/

Join our daily and weekly newsletters for the latest updates and exclusive content on industry-leading AI coverage. Learn More


More than 500 million people every month trust Gemini and ChatGPT to keep them in the know about everything from pasta, to sex or homework. But if AI tells you to cook your pasta in petrol, you probably shouldn’t take its advice on birth control or algebra, either.

At the World Economic Forum in January, OpenAI CEO Sam Altman was pointedly reassuring: “I can’t look in your brain to understand why you’re thinking what you’re thinking. But I can ask you to explain your reasoning and decide if that sounds reasonable to me or not. … I think our AI systems will also be able to do the same thing. They’ll be able to explain to us the steps from A to B, and we can decide whether we think those are good steps.”

Knowledge requires justification

It’s no surprise that Altman wants us to believe that large language models (LLMs) like ChatGPT can produce transparent explanations for everything they say: Without a good justification, nothing humans believe or suspect to be true ever amounts to knowledge. Why not? Well, think about when you feel comfortable saying you positively know something. Most likely, it’s when you feel absolutely confident in your belief because it is well supported — by evidence, arguments or the testimony of trusted authorities.

LLMs are meant to be trusted authorities; reliable purveyors of information. But unless they can explain their reasoning, we can’t know whether their assertions meet our standards for justification. For example, suppose you tell me today’s Tennessee haze is caused by wildfires in western Canada. I might take you at your word. But suppose yesterday you swore to me in all seriousness that snake fights are a routine part of a dissertation defense. Then I know you’re not entirely reliable. So I may ask why you think the smog is due to Canadian wildfires. For my belief to be justified, it’s important that I know your report is reliable.

The trouble is that today’s AI systems can’t earn our trust by sharing the reasoning behind what they say, because there is no such reasoning. LLMs aren’t even remotely designed to reason. Instead, models are trained on vast amounts of human writing to detect, then predict or extend, complex patterns in language. When a user inputs a text prompt, the response is simply the algorithm’s projection of how the pattern will most likely continue. These outputs (increasingly) convincingly mimic what a knowledgeable human might say. But the underlying process has nothing whatsoever to do with whether the output is justified, let alone true. As Hicks, Humphries and Slater put it in “ChatGPT is Bullshit,” LLMs “are designed to produce text that looks truth-apt without any actual concern for truth.”

So, if AI-generated content isn’t the artificial equivalent of human knowledge, what is it? Hicks, Humphries and Slater are right to call it bullshit. Still, a lot of what LLMs spit out is true. When these “bullshitting” machines produce factually accurate outputs, they produce what philosophers call Gettier cases (after philosopher Edmund Gettier). These cases are interesting because of the strange way they combine true beliefs with ignorance about those beliefs’ justification.

AI outputs can be like a mirage

Consider this example, from the writings of 8th century Indian Buddhist philosopher Dharmottara: Imagine that we are seeking water on a hot day. We suddenly see water, or so we think. In fact, we are not seeing water but a mirage, but when we reach the spot, we are lucky and find water right there under a rock. Can we say that we had genuine knowledge of water?

People widely agree that whatever knowledge is, the travelers in this example don’t have it. Instead, they lucked into finding water precisely where they had no good reason to believe they would find it.

The thing is, whenever we think we know something we learned from an LLM, we put ourselves in the same position as Dharmottara’s travelers. If the LLM was trained on a quality data set, then quite likely, its assertions will be true. Those assertions can be likened to the mirage. And evidence and arguments that could justify its assertions also probably exist somewhere in its data set — just as the water welling up under the rock turned out to be real. But the justificatory evidence and arguments that probably exist played no role in the LLM’s output — just as the existence of the water played no role in creating the illusion that supported the travelers’ belief they’d find it there.

Altman’s reassurances are, therefore, deeply misleading. If you ask an LLM to justify its outputs, what will it do? It’s not going to give you a real justification. It’s going to give you a Gettier justification: A natural language pattern that convincingly mimics a justification. A chimera of a justification. As Hicks et al, would put it, a bullshit justification. Which is, as we all know, no justification at all.

Right now AI systems regularly mess up, or “hallucinate” in ways that keep the mask slipping. But as the illusion of justification becomes more convincing, one of two things will happen. 

For those who understand that true AI content is one big Gettier case, an LLM’s patently false claim to be explaining its own reasoning will undermine its credibility. We’ll know that AI is being deliberately designed and trained to be systematically deceptive.

And those of us who are not aware that AI spits out Gettier justifications — fake justifications? Well, we’ll just be deceived. To the extent we rely on LLMs we’ll be living in a sort of quasi-matrix, unable to sort fact from fiction and unaware we should be concerned there might be a difference.

Each output must be justified

When weighing the significance of this predicament, it’s important to keep in mind that there’s nothing wrong with LLMs working the way they do. They’re incredible, powerful tools. And people who understand that AI systems spit out Gettier cases instead of (artificial) knowledge already use LLMs in a way that takes that into account. Programmers use LLMs to draft code, then use their own coding expertise to modify it according to their own standards and purposes. Professors use LLMs to draft paper prompts and then revise them according to their own pedagogical aims. Any speechwriter worthy of the name during this election cycle is going to fact check the heck out of any draft AI composes before they let their candidate walk onstage with it. And so on.

But most people turn to AI precisely where we lack expertise. Think of teens researching algebra… or prophylactics. Or seniors seeking dietary — or investment — advice. If LLMs are going to mediate the public’s access to those kinds of crucial information, then at the very least we need to know whether and when we can trust them. And trust would require knowing the very thing LLMs can’t tell us: If and how each output is justified. 

Fortunately, you probably know that olive oil works much better than gasoline for cooking spaghetti. But what dangerous recipes for reality have you swallowed whole, without ever tasting the justification?

Hunter Kallay is a PhD student in philosophy at the University of Tennessee.

Kristina Gehrman, PhD, is an associate professor of philosophy at University of Tennessee.

DataDecisionMakers

Welcome to the VentureBeat community!

DataDecisionMakers is where experts, including the technical people doing data work, can share data-related insights and innovation.

If you want to read about cutting-edge ideas and up-to-date information, best practices, and the future of data and data tech, join us at DataDecisionMakers.

You might even consider contributing an article of your own!

Read More From DataDecisionMakers

[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *