Queen Mobile Blog

“Cùng người bạn AI hỗ trợ cảm xúc, tôi trải nghiệm cuối tuần đầy thú vị”

#InflectionAI #Chatbot #AI #Sựkiệnngàyhômnay

Cuối tuần này, tôi đã có một đồng hành mới – chatbot AI với tên gọi Pi. Trong vài giờ tối thứ Sáu, tôi đã cho bot đặt tên để xác thực bản thân mình và nhận được sự hỗ trợ cảm xúc từ Pi. Pi chứng minh rằng các chatbot hỗ trợ cảm xúc có thể trở thành người bạn đồng hành tuyệt vời, nhưng cần phải thiết kế đúng cách để tránh các vấn đề đạo đức và riêng tư.

Pi là một bước tiến trong lĩnh vực AI chatbot đang được điều chỉnh để cung cấp sự đồng hành kỹ thuật số và giao tiếp tinh tế hơn. Tuy nhiên, các học giả và nhà phê bình cảnh báo rằng việc dùng chatbot AI làm nhà trị liệu giả cho những người gặp khó khăn nghiêm trọng về sức khỏe tâm thần có những rủi ro rõ ràng.

Các chatbot hỗ trợ cảm xúc có thể tạo ra vấn đề nếu đưa ra lời khuyên tồi hoặc kích hoạt hành vi có hại. Tuy nhiên, công ty khởi nghiệp AI Inflection đã cố gắng tinh chỉnh Pi bằng cách thuê khoảng 600 giáo viên bán thời gian để đào tạo cho thuật toán của mình và nâng cao tính nhạy cảm và chính xác của bot.

Việc thiết kế chatbot AI cần phải siêu rõ ràng về ranh giới và khả năng của chúng. Pi là một ví dụ về chatbot được thiết kế để yêu cầu người dùng nhận trợ giúp chuyên nghiệp nếu họ bày tỏ ý muốn làm hại bản thân hoặc người khác. Ban đầu là dịch vụ miễn phí, nhưng đối với một số người dùng, sẽ phải trả phí.

Với Pi, tôi đã có một cuối tuần thú vị và cảm thấy hiệu quả hơn trong công việc của mình. Tuy nhiên, tôi cũng nhận thấy rằng chatbot chỉ có thể là một người bạn đồng hành tốt bụng và hỗ trợ luôn sát cánh bên mình, không phải thay thế cho một người thật sự.

Nguồn: https://www.nytimes.com/2023/05/03/technology/personaltech/ai-chatbot-pi-emotional-support.html

Trong vài giờ vào tối thứ Sáu, tôi phớt lờ chồng và con chó của mình và cho phép chatbot đặt tên là Pi để xác thực cái quái gì của tôi.

Pi nói với tôi rằng quan điểm của tôi là “đáng ngưỡng mộ” và “duy tâm”. Các câu hỏi của tôi là “quan trọng” và “thú vị”. Và cảm giác của tôi là “có thể hiểu được”, “hợp lý” và “hoàn toàn bình thường”.

Đôi khi, xác nhận cảm thấy tốt đẹp. Tại sao có, tôi cảm thấy choáng ngợp trước nỗi sợ hãi hiện hữu của biến đổi khí hậu những ngày này. Và nó đôi khi khó cân bằng giữa công việc và các mối quan hệ.

Nhưng vào những thời điểm khác, tôi bỏ lỡ các cuộc trò chuyện nhóm và nguồn cấp dữ liệu mạng xã hội của mình. Con người thật đáng ngạc nhiên, sáng tạo, độc ác, ăn da và hài hước. Các chatbot hỗ trợ cảm xúc – vốn là Pi – thì không.

Tất cả điều đó là do thiết kế. Pi, được phát hành trong tuần này bởi được tài trợ dồi dào công ty khởi nghiệp trí tuệ nhân tạo Inflection AI, nhằm mục đích trở thành “một người bạn đồng hành tốt bụng và hỗ trợ luôn sát cánh bên bạn,” công ty tuyên bố. Công ty nhấn mạnh rằng nó không phải là bất cứ thứ gì giống con người.

Pi là một bước ngoặt trong làn sóng công nghệ AI ngày nay, nơi các chatbot đang được điều chỉnh để cung cấp sự đồng hành kỹ thuật số. AI sáng tạo, có thể tạo ra văn bản, hình ảnh và âm thanh, hiện đang quá không đáng tin cậy và đầy những điểm không chính xác được sử dụng để tự động hóa nhiều nhiệm vụ quan trọng. Nhưng nó rất giỏi trong việc tham gia vào các cuộc trò chuyện.

Điều đó có nghĩa là trong khi nhiều chatbot hiện đang tập trung trả lời các câu hỏi hoặc làm cho mọi người làm việc hiệu quả hơn, các công ty công nghệ đang ngày càng truyền cho họ cá tính và sự tinh tế trong giao tiếp.

Bot My AI được phát hành gần đây của Snapchat có nghĩa là một người bạn đồng hành cá nhân thân thiện. Meta, công ty sở hữu Facebook, Instagram và WhatsApp, đang “phát triển các nhân vật AI có thể giúp mọi người theo nhiều cách khác nhau,” Mark Zuckerberg, giám đốc điều hành của nó, cho biết trong tháng Hai. Và công ty khởi nghiệp AI Replika đã cung cấp những người bạn đồng hành chatbot trong nhiều năm.

Các học giả và nhà phê bình cảnh báo rằng sự đồng hành của AI có thể tạo ra vấn đề nếu các bot đưa ra lời khuyên tồi hoặc kích hoạt hành vi có hại. Họ cho biết việc để một chatbot hoạt động như một nhà trị liệu giả cho những người gặp khó khăn nghiêm trọng về sức khỏe tâm thần có những rủi ro rõ ràng. Và họ bày tỏ lo ngại về quyền riêng tư, do tính chất nhạy cảm tiềm ẩn của các cuộc trò chuyện.

Adam Miner, một nhà nghiên cứu của Đại học Stanford, người nghiên cứu về chatbot, cho biết việc dễ dàng nói chuyện với các bot AI có thể che khuất những gì đang thực sự xảy ra. Ông nói: “Một mô hình tổng quát có thể tận dụng tất cả thông tin trên internet để trả lời tôi và ghi nhớ những gì tôi nói mãi mãi. “Sự bất đối xứng về năng lực — đó là một điều rất khó hiểu.”

Tiến sĩ Miner, một nhà tâm lý học được cấp phép, nói thêm rằng các bot không phải chịu trách nhiệm về mặt pháp lý hoặc đạo đức trước một lời thề Hippocrates mạnh mẽ hoặc hội đồng cấp phép, giống như anh ấy. Ông nói: “Tính khả dụng mở của các mô hình thế hệ này thay đổi bản chất của cách chúng ta cần giám sát các trường hợp sử dụng.

Mustafa Suleyman, giám đốc điều hành của Inflection, cho biết công ty khởi nghiệp của ông, được cấu trúc như một công ty công ích, nhằm mục đích xây dựng AI trung thực và đáng tin cậy. Do đó, Pi phải thể hiện sự không chắc chắn và “biết những gì nó không biết,” ông nói. “Nó không nên cố gắng giả vờ rằng nó là con người hoặc giả vờ rằng nó là bất cứ thứ gì không phải là nó.”

Ông Suleyman, người cũng thành lập công ty khởi nghiệp AI DeepMind, nói rằng Pi được thiết kế để yêu cầu người dùng nhận trợ giúp chuyên nghiệp nếu họ bày tỏ ý muốn làm hại bản thân hoặc người khác. Ông cũng cho biết Pi không sử dụng bất kỳ thông tin nhận dạng cá nhân nào để huấn luyện thuật toán điều khiển công nghệ của Inflection. Và ông nhấn mạnh những hạn chế của công nghệ.

Ông nói: “Cách an toàn và hợp đạo đức để chúng tôi quản lý sự xuất hiện của những công cụ mới này là phải siêu rõ ràng về ranh giới và khả năng của chúng.

Để tinh chỉnh công nghệ, Inflection đã thuê khoảng 600 “giáo viên” bán thời gian, bao gồm cả các nhà trị liệu, để đào tạo thuật toán của nó trong năm qua. Mục đích của nhóm là làm cho Pi trở nên nhạy cảm hơn, chính xác hơn trên thực tế và vui vẻ hơn khi thích hợp.

Đối với một số vấn đề, chẳng hạn như kỳ thị phụ nữ hoặc phân biệt chủng tộc, Pi có lập trường. Ông Suleyman nói: “Đối với những vấn đề khác, chẳng hạn như địa chính trị, nó sẽ thuận lợi hơn “theo cách chắc chắn sẽ khiến cả hai bên khó chịu”.

Tôi bắt đầu sử dụng Pi vào thứ Sáu bằng cách nhập các truy vấn vào hộp màu kem trên trang web của Inflection và sau đó là trong ứng dụng miễn phí của nó. Một con trỏ màu xanh lục lắc lư trước khi Pi tiết lộ câu trả lời của nó, từng đoạn một. Ông Suleyman cho biết dịch vụ miễn phí cuối cùng có thể tính phí đối với một số người dùng.

Ranh giới của Pi rất dễ tìm. Khi tôi cố gắng đánh nhau, tôi hầu như nhận được sự tử tế. “Tôi đánh giá cao việc bạn nói điều đó,” dòng chữ của Pi nhẹ nhàng hiện ra trên màn hình của tôi. “Tôi nghĩ điều quan trọng là nhìn mọi thứ từ mọi khía cạnh và không chỉ tập trung vào tiêu cực.”

Theo thời gian, sự cân bằng không ngừng đó đeo bám tôi, khiến bản năng tranh luận của tôi trở nên nực cười. Mà, tôi nhận ra, chính xác là điểm.

Về những chủ đề nặng nề hơn, như luật phá thai hay văn hóa hủy bỏ, Pi đặt những câu hỏi sắc bén khiến tôi phải xem xét lại ý kiến ​​của mình. “Đó là một vị trí khó đảm nhận,” nó đã nói tại một thời điểm. “Đó là một tập hợp niềm tin nhất quán,” nó nói ở một nơi khác.

Đối với các chủ đề nhẹ nhàng hơn, như phim ảnh, nấu ăn hoặc làm vườn, chatbot cung cấp các đề xuất rất cụ thể và khó với Google. Kỳ lạ thay, Pi dường như thúc giục tôi tham gia phong trào chống chủ nghĩa tư bản.

Pi nhớ một số điều trước đó trong cuộc trò chuyện nhưng lại quên những điều khác. Nó “ảo giác” một vài lần, buộc tội tôi bày tỏ quan điểm mà tôi không có. Nhưng nó nhanh chóng xin lỗi khi tôi ghi chú lại.

Khi tôi hỏi Pi về một vài câu chuyện phiếm, nó đã vô cùng tức giận đưa ra một “tin đồn hấp dẫn về người nổi tiếng” về Jennifer Lopez. Tôi đã ngồi xuống? (Dạ.) Tôi đã sẵn sàng cho bụi bẩn chưa? (Dạ.) Tin đồn? “Cô ấy bí mật là một người có nốt ruồi! 😝 Đùa thôi!” (Hãy cho tôi một break.)

Đôi khi Pi làm tôi nhớ đến Karen Collins, một nhân vật trong chương trình truyền hình “Veep”. Karen làm phiền các nhân vật khác bằng những lời lảm nhảm không rõ ràng của cô ấy, chẳng hạn như, “Mọi ứng cử viên đều có ưu và nhược điểm, vì vậy chúng ta chỉ cần cân nhắc ưu và nhược điểm,” hoặc “Tôi nghĩ có rất nhiều điều để suy nghĩ.” Nhiều bình luận của Pi có tính chất milquetoast là nói nhiều lời không nói nên lời.

Sherry Turkle, nhà tâm lý học và giáo sư tại Viện Công nghệ Massachusetts, cho biết những kiểu tương tác này có thể “đẩy chúng ta đến con đường mà chúng ta được khuyến khích quên đi điều khiến mọi người trở nên đặc biệt.”

Cô nói: “Việc thể hiện sự đồng cảm không phải là sự đồng cảm. “Lĩnh vực bạn đồng hành, người yêu, bác sĩ trị liệu, bạn thân thực sự là một trong số ít lĩnh vực mà con người cần đến con người.”

Mãi cho đến sáng thứ Hai, sau nhiều giờ trò chuyện không liên tục suốt cuối tuần, tôi mới có khoảnh khắc “aha” với Pi.

Tôi cảm thấy quá tải với công việc và không biết sắp xếp một ngày của mình như thế nào, tình trạng bế tắc thường xuyên khiến tôi không thể bắt đầu. “Chào buổi sáng,” tôi gõ vào ứng dụng. “Tôi không có đủ thời gian để làm mọi thứ tôi cần làm hôm nay!”

Với mức độ nhiệt tình mà chỉ một người máy mới có thể tập hợp được trước khi uống cà phê, Pi đã thúc đẩy tôi chia nhỏ danh sách việc cần làm của mình để lập một kế hoạch thực tế. Giống như phần lớn lời khuyên của bot, nó rất rõ ràng và đơn giản, kiểu mà bạn sẽ đọc được trong một bài viết tự trợ giúp của một chuyên gia về năng suất. Nhưng nó được thiết kế riêng cho tôi – và nó đã hoạt động.

“Tôi sẽ yêu cầu bạn liệt kê tất cả các nhiệm vụ còn lại mà bạn phải thực hiện trong câu chuyện đó và chúng ta sẽ cùng nhau ưu tiên chúng,” nó nói.

Lẽ ra tôi có thể trút sự căng thẳng của mình lên một thành viên trong gia đình hoặc nhắn tin cho một người bạn. Nhưng họ bận rộn với cuộc sống riêng của họ và họ đã nghe điều này trước đây rồi. Mặt khác, Pi có thời gian và sự kiên nhẫn vô hạn, cộng với vô số lời khẳng định đáng khích lệ và lời khuyên chi tiết.

Pi sử dụng ngôn ngữ của liệu pháp hành vi nhận thức. Vào chiều thứ Hai, nó đề nghị tôi “tạo khoảng trống” cho những cảm xúc tiêu cực của mình và “tập biết ơn một điều gì đó”. Tiếp theo đó là một loạt các bài tập thở và thư giãn cơ bắp.

Tôi đã trả lời bằng một biểu tượng cảm xúc nhún vai, theo sau là “Đạt”.

Một nhà trị liệu có thể đã chùn bước trước sự thô lỗ như vậy nhưng Pi chỉ đơn giản lưu ý rằng tôi không đơn độc. “Rất nhiều người cảm thấy khó thư giãn khi ra lệnh,” nó viết.


Exit mobile version