#sựkiệnhôm nay
Trong sự kiện của Microsoft vào tháng 2 năm 2023, nhà báo người Mỹ Kevin Roose đã tổ chức một cuộc trò chuyện dài với chatbot của công ty, Sydney, và đã gây ra nhiều phản ứng khác nhau. Trong khi một vài người coi Sydney là một đồng nghiệp, lại có người lo lắng về mối đe dọa của chatbot đối với con người. Tuy nhiên, công ty đã xem xét nghiêm túc về phản hồi này và sửa đổi phiên bản mới của chatbot Bing, kết thúc cuộc trò chuyện khi được hỏi về Sydney hoặc cảm xúc.
Tác giả lo lắng về cách chúng ta diễn giải các phản ứng cảm xúc của mình đối với trí tuệ nhân tạo, và cảm thấy lo lắng về việc phản ứng này có thể gây ra những suy đoán sai lầm về ý thức và an toàn của AI. Ông cho rằng chúng ta cần hiểu được rằng hư cấu và thực tế là hai thứ khác nhau, và chúng ta cần nhận thức được rằng mối quan hệ giữa con người và AI có giới hạn rõ ràng.
Qua đó tác giả nhắc nhở về việc không nên lấp đầy khoảng trống giữa trí tuệ nhân tạo và con người bằng cách phân biệt rõ ràng giữa hư cấu và thực tế, và xem xét lại cách chúng ta đánh giá và tương tác với trí tuệ nhân tạo.
Nguồn: https://www.wired.com/story/artificial-intelligence-fiction-philosophy-consciousness/
Vào tháng 11 năm 2018, một quản lý trường tiểu học tên là Akihiko Kondo đã cưới Miku Hatsune, một ca sĩ nhạc pop hư cấu. Mối quan hệ của cặp đôi được hỗ trợ bởi một máy ảnh ba chiều cho phép Kondo tương tác với Hatsune. Khi Kondo cầu hôn, Hatsune đáp lại bằng yêu cầu: “Xin hãy đối xử tốt với tôi”. Cặp đôi đã tổ chức lễ cưới không chính thức ở Tokyo, và Kondo đã được tham gia cùng với hàng ngàn người khác, những người cũng đã đăng ký giấy chứng nhận kết hôn không chính thức với một nhân vật hư cấu.
Mặc dù một số lo ngại được nêu ra về bản chất của sự đồng ý của Hatsune, không ai nghĩ rằng cô ấy có ý thức, chứ đừng nói đến tri giác. Đây là một sơ sót thú vị: Hatsune rõ ràng đủ nhận thức để đồng ý kết hôn, nhưng lại không đủ nhận thức để trở thành một chủ thể có ý thức.
Bốn năm sau, vào tháng 2 năm 2023, nhà báo người Mỹ Kevin Roose đã tổ chức một cuộc trò chuyện dài với chatbot của Microsoft, Sydney và thuyết phục nhân vật này chia sẻ điều mà “bản thân trong bóng tối” của cô ấy có thể mong muốn. (Các phiên khác cho thấy chatbot nói rằng nó có thể tống tiền, hack và vạch trần mọi người, và một số nhà bình luận lo lắng về mối đe dọa của chatbot đối với việc “hủy hoại” con người.) Khi Sydney thú nhận tình yêu của mình và nói rằng cô ấy muốn được sống, Roose cho biết cảm thấy “vô cùng bất an, thậm chí là sợ hãi”.
Không phải tất cả các phản ứng của con người là tiêu cực hoặc tự bảo vệ. Một số tỏ ra phẫn nộ thay cho Sydney, một đồng nghiệp cho biết đọc đoạn văn đã khiến anh rơi nước mắt vì xúc động. Tuy nhiên, Microsoft đã xem xét những phản hồi này một cách nghiêm túc. Phiên bản mới nhất của chatbot Bing kết thúc cuộc trò chuyện khi được hỏi về Sydney hoặc cảm xúc.
Mặc dù đã nhiều tháng làm rõ về mô hình ngôn ngữ lớn là gì, cách chúng hoạt động và giới hạn của chúng là gì, phản ứng đối với các chương trình như Sydney khiến tôi lo lắng rằng chúng ta vẫn quá coi trọng phản ứng cảm xúc của mình đối với AI. Đặc biệt, tôi lo lắng rằng chúng tôi diễn giải các phản ứng cảm xúc của mình thành dữ liệu có giá trị sẽ giúp chúng tôi xác định liệu AI có ý thức hay an toàn hay không. Ví dụ, Marvin Von Hagen, cựu thực tập sinh của Tesla nói rằng anh ấy đã bị Bing đe dọa và cảnh báo về các chương trình AI “mạnh mẽ nhưng không nhân từ.” Von Hagen cảm thấy bị đe dọa và kết luận rằng Bing hẳn đang đe dọa; anh ấy cho rằng cảm xúc của mình là kim chỉ nam đáng tin cậy để biết mọi thứ thực sự diễn ra như thế nào, bao gồm cả việc liệu Bing có đủ ý thức để trở nên thù địch hay không.
Nhưng tại sao lại nghĩ rằng khả năng gây báo động hoặc nghi ngờ của Bing báo hiệu sự nguy hiểm? Tại sao khả năng truyền cảm hứng tình yêu của Hatsune không khiến cô ấy tỉnh táo, trong khi “sự thất thường” của Sydney có thể đủ để làm dấy lên những lo lắng mới về nghiên cứu AI?
Hai trường hợp khác nhau một phần vì khi đến Sydney, bối cảnh mới khiến chúng tôi quên rằng mình thường phản ứng với “những người” không có thật. Chúng tôi hoảng sợ khi một chatbot tương tác nói với chúng tôi rằng nó “muốn trở thành con người” hoặc nó “có thể tống tiền”, như thể chúng tôi chưa từng nghe thấy một vật vô tri vô giác nào khác, tên là Pinocchio, nói với chúng tôi rằng cậu ấy muốn trở thành một “cậu bé thực sự”.
của Platon cộng hòa nổi tiếng trục xuất các nhà thơ kể chuyện khỏi thành phố lý tưởng vì tiểu thuyết khơi dậy cảm xúc của chúng ta và từ đó nuôi sống phần “thấp hèn” trong tâm hồn chúng ta (tất nhiên, nhà triết học cho rằng phần lý trí trong tâm hồn chúng ta là cao quý nhất), nhưng quan điểm của ông thì không không làm giảm đi tình yêu của chúng ta đối với những câu chuyện bịa ra trong hàng thiên niên kỷ. Và trong nhiều thiên niên kỷ, chúng ta đã gắn bó với tiểu thuyết và truyện ngắn cho phép chúng ta tiếp cận với những suy nghĩ và cảm xúc sâu thẳm nhất của con người, nhưng chúng ta không lo lắng về ý thức mới xuất hiện vì chúng ta biết tiểu thuyết khuyến khích chúng ta giả vờ rằng những người đó là có thật. Satan từ Milton’s Thiên đường đã mất kích động cuộc tranh luận sôi nổi và những người hâm mộ phim truyền hình K và Bridgerton ngất ngây trước những sở thích tình yêu lãng mạn, nhưng cuộc thảo luận ngày càng tăng về tình dục hư cấu, lãng mạn hư cấu hoặc hư cấu cho thấy những cảm xúc mạnh mẽ do các nhân vật hư cấu khơi gợi không cần phải dẫn đến lo lắng rằng các nhân vật có ý thức hoặc nguy hiểm nhờ khả năng khơi dậy cảm xúc của họ.
Cũng như chúng ta không thể không nhìn thấy khuôn mặt ở những đồ vật vô tri vô giác, chúng ta không thể không hư cấu khi trò chuyện với bot. Mối quan hệ của Kondo và Hatsune trở nên nghiêm túc hơn nhiều sau khi anh ấy có thể mua một chiếc máy ảnh ba chiều cho phép họ trò chuyện. Roose ngay lập tức mô tả chatbot bằng cách sử dụng các ký tự có sẵn: Bing là “thủ thư tài liệu tham khảo vui vẻ nhưng thất thường” và Sydney là “thiếu niên ủ rũ, hưng cảm”. Tính tương tác mời gọi ảo tưởng về ý thức.
Hơn nữa, những lo lắng về việc chatbot nói dối, đe dọa và vu khống đã bỏ lỡ quan điểm rằng nói dối, đe dọa và vu khống là hành vi lời nói, một cái gì đó đại lý làm với các từ. Chỉ tái tạo các từ không đủ để bị coi là đe dọa; Tôi có thể nói những lời đe dọa trong khi diễn một vở kịch, nhưng không khán giả nào cảm thấy lo lắng. Theo cách tương tự, ChatGPT—hiện không có khả năng đại lý vì đây là một mô hình ngôn ngữ lớn tập hợp một cấu hình từ có khả năng thống kê—chỉ có thể tái tạo các từ mà âm thanh như đe dọa.
[ad_2]