#AIConsciousness #ScienceofConsciousness #MeasuringConsciousness #AISystems #PhilosophyofConsciousness #Neuroscience
Cách xác định xem Trí tuệ Nhân tạo của bạn có ý thức hay không
Bạn đã bao giờ trò chuyện với ai đó “quan tâm đến ý thức”? Cuộc trò chuyện đó diễn ra như thế nào? Họ có vùng tay vuốt ve mơ hồ không? Họ có nhắc đến Đạo Đời hoặc Jean-Paul Sartre không? Họ nói rằng, trên thực tế, không có điều gì các nhà khoa học có thể chắc chắn, và thực tế chỉ tồn tại theo cách chúng ta làm nó trở nên tồn tại?
Đặc tính mờ mịt, sự không chính xác của ý thức đã làm cho nghiên cứu về nó trở thành một điều “cấm kỵ” trong các ngành khoa học tự nhiên. Ít nhất cho đến gần đây, dự án này chủ yếu được để cho các nhà triết học làm, những người thường chỉ tốt hơn một chút so với người khác trong việc làm sáng tỏ đối tượng nghiên cứu của họ. Hod Lipson, một nhà nghiên cứu robot tại Đại học Columbia, nói rằng một số người trong lĩnh vực của ông gọi ý thức là “từ khóa C”.
Tuy nhiên, cách đây vài tuần, một nhóm triết gia, nhà thần kinh học và nhà khoa học máy tính, trong đó có Tiến sĩ Lindsay, đã đề xuất một quy tắc để xác định liệu một hệ thống Trí tuệ Nhân tạo như ChatGPT có thể coi là ý thức hay không. Báo cáo này, mà điều tra những gì Tiến sĩ Lindsay gọi là “khoa học hoàn toàn mới” về ý thức, tổng hợp các yếu tố từ một nửa chục lý thuyết thực nghiệm mới nổi và đề xuất một danh sách các phẩm chất có thể đo lường có thể chỉ ra sự hiện diện của một cái gì đó trong máy móc.
Ví dụ, lý thuyết xử lý tái diễn tập trung vào sự khác biệt giữa nhận thức ý thức (ví dụ: nghiên cứu một quả táo đang đặt trước mặt bạn) và nhận thức vô thức (như cảm giác của bạn khi một quả táo bay về phía khuôn mặt của bạn). Các nhà thần kinh học đã lập luận rằng chúng ta nhận thức vô thức khi tín hiệu điện được truyền từ dây thần kinh trong mắt chúng ta đến vỏ não thị giác chính và sau đó đến các phần sâu hơn của não, giống như việc truyền cây gậy từ một cụm dây thần kinh sang một cụm khác. Những nhận thức này dường như trở nên ý thức khi cây gậy được truyền lại, từ các phần sâu hơn của não đến vỏ não thị giác chính, tạo nên một vòng lặp hoạt động.
Một lý thuyết khác miêu tả các phần chuyên biệt của não được sử dụng cho các nhiệm vụ cụ thể – phần của não của bạn có thể cân bằng cơ thể không đều trọng lực trên cây nhảy tưng tưng khác với phần của não mà có thể nhìn vào một khung cảnh rộng lớn. Chúng ta có thể kết hợp tất cả thông tin này (bạn có thể nhảy tưng tưng trên một cây nhảy tưng tưng trong khi đánh giá một khung cảnh đẹp), nhưng chỉ được trong một mức độ nhất định (việc làm điều đó là khó khăn). Vì vậy, các nhà thần kinh học đã đưa ra giả thuyết về sự tồn tại của một “thực đơn toàn cầu” cho phép kiểm soát và phối hợp những gì chúng ta chú ý đến, những gì chúng ta nhớ, thậm chí những gì chúng ta nhận thấy. Ý thức của chúng ta có thể sinh ra từ không gian làm việc tích hợp và thay đổi này.
Tuy nhiên, nó cũng có thể sinh ra từ khả năng nhận thức về ý thức của riêng bạn, tạo ra mô hình ảo của thế giới, dự đoán những trải nghiệm tương lai và xác định vị trí cơ thể của bạn trong không gian. Báo cáo này cho rằng bất kỳ một trong những đặc điểm này có thể, trong tương lai, là một phần cần thiết của ý thức. Và nếu chúng ta có thể nhận ra những đặc điểm này trong một máy móc, chúng ta có thể xem xét máy móc đó có ý thức hay không.
Một trong những khó khăn của cách tiếp cận này là hệ thống Trí tuệ Nhân tạo tiên tiến nhất hiện nay là mạng thần kinh sâu “học” cách thực hiện các nhiệm vụ mà con người không luôn có thể giải thích. Chúng ta có thể lấy ra một số thông tin từ cấu trúc nội bộ của chúng, nhưng chỉ trong một phạm vi hạn chế, ít nhất là trong thời điểm hiện tại. Đây là vấn đề hộp đen của Trí tuệ Nhân tạo. Vì vậy, ngay cả khi chúng ta có một quy tắc ý thức đầy đủ và chính xác, nó sẽ khó áp dụng cho các máy móc chúng ta sử dụng hàng ngày.
Và những tác giả của báo cáo gần đây nhanh chóng lưu ý rằng đây không phải là một danh sách xác định những gì tạo nên ý thức. Họ dựa vào một tài khoản “chức năng tính toán” theo đó ý thức được giảm xuống thành các mảnh thông tin được chuyển đi và đến trong một hệ thống, tương tự như trong một trò chơi bóng bi-a. Theo nguyên tắc, theo quan điểm này, một trò chơi bóng bi-a có thể ý thức, nếu nó phức tạp hơn nhiều. (Điều đó có nghĩa là nó không còn là trò chơi bóng bi-a nữa; hãy vượt qua cây cầu đó nếu chúng ta gặp nó.) Nhưng người khác đã đề xuất các lý thuyết mà họ xem những đặc điểm sinh học hay vật lý, ngữ cảnh xã hội hay văn hóa của chúng ta là các phần cần thiết của ý thức. Khó có thể thấy được làm cách nào những thứ này có thể được mã hóa vào một máy móc.
Và ngay cả với các nhà nghiên cứu đã phần lớn tán thành với chức năng tính toán, không có lý thuyết hiện tại nào mà có vẻ đủ cho ý thức.
“Để bất kỳ kết luận nào từ báo cáo trở nên có ý nghĩa, các lý thuyết phải chính xác”, Tiến sĩ Lindsay nói. “Nhưng chúng không phải là vậy.” Đó có thể chỉ là điều tốt nhất chúng ta có thể làm hiện tại, cô thêm.
Sau tất cả, liệu có vẻ như bất kỳ một trong những đặc điểm này, hoặc tất cả chúng kết hợp, tạo nên cái mà William James mô tả là “sự ấm áp” của trải nghiệm ý thức? Hoặc, như lời Thomas Nagel, “điều mà nó giống như” một cái gì đó? Có một khoảng cách giữa cách chúng ta có thể đo lường trải nghiệm chủ quan bằng khoa học và trải nghiệm chủ quan chính nó. Đây là những gì David Chalmers đã gọi là v
Nguồn: https://www.nytimes.com/2023/09/18/science/ai-computers-consciousness.html
Have you ever talked to someone who is “into consciousness?” How did that conversation go? Did they make a vague gesture in the air with both hands? Did they reference the Tao Te Ching or Jean-Paul Sartre? Did they say that, actually, there’s nothing scientists can be sure about, and that reality is only as real as we make it out to be?
The fuzziness of consciousness, its imprecision, has made its study anathema in the natural sciences. At least until recently, the project was largely left to philosophers, who often were only marginally better than others at clarifying their object of study. Hod Lipson, a roboticist at Columbia University, said that some people in his field referred to consciousness as “the C-word.” Grace Lindsay, a neuroscientist at New York University, said, “There was this idea that you can’t study consciousness until you have tenure.”
Nonetheless, a few weeks ago, a group of philosophers, neuroscientists and computer scientists, Dr. Lindsay among them, proposed a rubric with which to determine whether an A.I. system like ChatGPT could be considered conscious. The report, which surveys what Dr. Lindsay calls the “brand-new” science of consciousness, pulls together elements from a half-dozen nascent empirical theories and proposes a list of measurable qualities that might suggest the presence of some presence in a machine.
For instance, recurrent processing theory focuses on the differences between conscious perception (for example, actively studying an apple in front of you) and unconscious perception (such as your sense of an apple flying toward your face). Neuroscientists have argued that we unconsciously perceive things when electrical signals are passed from the nerves in our eyes to the primary visual cortex and then to deeper parts of the brain, like a baton being handed off from one cluster of nerves to another. These perceptions seem to become conscious when the baton is passed back, from the deeper parts of the brain to the primary visual cortex, creating a loop of activity.
Another theory describes specialized sections of the brain that are used for particular tasks — the part of your brain that can balance your top-heavy body on a pogo stick is different from the part of your brain that can take in an expansive landscape. We’re able to put all this information together (you can bounce on a pogo stick while appreciating a nice view), but only to a certain extent (doing so is difficult). So neuroscientists have postulated the existence of a “global workspace” that allows for control and coordination over what we pay attention to, what we remember, even what we perceive. Our consciousness may arise from this integrated, shifting workspace.
But it could also arise from the ability to be aware of your own awareness, to create virtual models of the world, to predict future experiences and to locate your body in space. The report argues that any one of these features could, potentially, be an essential part of what it means to be conscious. And, if we’re able to discern these traits in a machine, then we might be able to consider the machine conscious.
One of the difficulties of this approach is that the most advanced A.I. systems are deep neural networks that “learn” how to do things on their own, in ways that aren’t always interpretable by humans. We can glean some kinds of information from their internal structure, but only in limited ways, at least for the moment. This is the black box problem of A.I. So even if we had a full and exact rubric of consciousness, it would be difficult to apply it to the machines we use every day.
And the authors of the recent report are quick to note that theirs is not a definitive list of what makes one conscious. They rely on an account of “computational functionalism,” according to which consciousness is reduced to pieces of information passed back and forth within a system, like in a pinball machine. In principle, according to this view, a pinball machine could be conscious, if it were made much more complex. (That might mean it’s not a pinball machine anymore; let’s cross that bridge if we come to it.) But others have proposed theories that take our biological or physical features, social or cultural contexts, as essential pieces of consciousness. It’s hard to see how these things could be coded into a machine.
And even to researchers who are largely on board with computational functionalism, no existing theory seems sufficient for consciousness.
“For any of the conclusions of the report to be meaningful, the theories have to be correct,” said Dr. Lindsay. “Which they’re not.” This might just be the best we can do for now, she added.
After all, does it seem like any one of these features, or all of them combined, comprise what William James described as the “warmth” of conscious experience? Or, in Thomas Nagel’s words, “what it is like” to be you? There is a gap between the ways we can measure subjective experience with science and subjective experience itself. This is what David Chalmers has labeled the “hard problem” of consciousness. Even if an A.I. system has recurrent processing, a global workspace, and a sense of its physical location — what if it still lacks the thing that makes it feel like something?
When I brought up this emptiness to Robert Long, a philosopher at the Center for A.I. Safety who led work on the report, he said, “That feeling is kind of a thing that happens whenever you try to scientifically explain, or reduce to physical processes, some high-level concept.”
The stakes are high, he added; advances in A.I. and machine learning are coming faster than our ability to explain what’s going on. In 2022, Blake Lemoine, an engineer at Google, argued that the company’s LaMDA chatbot was conscious (although most experts disagreed); the further integration of generative A.I. into our lives means the topic may become more contentious. Dr. Long argues that we have to start making some claims about what might be conscious and bemoans the “vague and sensationalist” way we’ve gone about it, often conflating subjective experience with general intelligence or rationality. “This is an issue we face right now, and over the next few years,” he said.
As Megan Peters, a neuroscientist at the University of California, Irvine, and an author of the report, put it, “Whether there’s somebody in there or not makes a big difference on how we treat it.”
We do this kind of research already with animals, requiring careful study to make the most basic claim that other species have experiences similar to our own, or even understandable to us. This can resemble a fun house activity, like shooting empirical arrows from moving platforms toward shape-shifting targets, with bows that occasionally turn out to be spaghetti. But sometimes we get a hit. As Peter Godfrey-Smith wrote in his book “Metazoa,” cephalopods probably have a robust but categorically different kind of subjective experience from humans. Octopuses have something like 40 million neurons in each arm. What’s that like?
We rely on a series of observations, inferences and experiments — both organized and not — to solve this problem of other minds. We talk, touch, play, hypothesize, prod, control, X-ray and dissect, but, ultimately, we still don’t know what makes us conscious. We just know that we are.