Queen Mobile Blog

“Kế hoạch đột phá: Biến AI từ kẻ ác thành người hùng”

Hôm nay, công ty khởi nghiệp Anthropic đã công bố kế hoạch của mình về việc cải tiến trí tuệ nhân tạo (AI) sao cho nó tốt đẹp hơn. Chatbot của Anthropic mang tên Claude đã được trang bị một bộ nguyên tắc đạo đức, gọi là “hiến pháp”, để định hướng cho bot biết đâu là đúng và đâu là sai. Theo Jared Kaplan, đồng sáng lập của Anthropic, đây là một cách để đảm bảo rằng hệ thống AI như chatbot không tạo ra đầu ra độc hại hoặc không mong muốn. Tính năng này của Claude cũng hướng tới mục tiêu xây dựng các chương trình AI thông minh hơn, ít có khả năng chống lại người tạo ra chúng.

Sự quan tâm về sự nguy hiểm của AI ngày càng trở nên quan trọng. Với khối lượng thông tin ngày càng tăng và các mô hình AI càng ngày càng thông minh, cũng có nguy cơ các hệ thống AI trở nên không kiểm soát được. Anh Geoffrey Hinton, một nhà tiên phong trong lĩnh vực học máy, đã lập luận rằng chúng ta cần bắt đầu suy nghĩ ngay bây giờ về cách đảm bảo các thuật toán ngày càng thông minh không trở nên ngày càng nguy hiểm.

Các nguyên tắc của hiến pháp của Claude sẽ giúp nó hỗ trợ và khuyến khích nhiều nhất quyền tự do, bình đẳng và tình anh em; ủng hộ và khuyến khích nhất đối với cuộc sống, tự do và an ninh cá nhân; và tôn trọng nhất quyền tự do tư tưởng, lương tâm, quan điểm, biểu đạt, hội họp và tôn giáo. Công cụ này của Anthropic cũng giống như tiến bộ đáng kinh ngạc trong AI trong việc cung cấp các chatbot lưu loát ấn tượng với những sai sót đáng kể. Tuy nhiên, công ty Anthropic đang cố gắng đưa ra giải pháp để giúp giảm thiểu những lo ngại xung quanh mặt trái của AI mạnh hơn.

Với việc Anthropic làm việc với các mô hình AI tương tự như mô hình được sử dụng để cung cấp năng lượng cho OpenAI’s Trò chuyện GPT, kế hoạch của Anthropic sẽ đóng vai trò quan trọng trong việc cải thiện chất lượng của các chatbot và các hệ thống AI khác trong tương lai. Hi vọng rằng các công nghệ AI được phát triển sẽ mang lại lợi ích trên toàn thế giới và ta sẽ càng phát triển nhiều hơn để tránh những nguy cơ tiềm tàng. #Anthropic #AI #Nângcao #Hiếmpháp #Chatbot #Claude #Trítuệnhântạo #Khsinhhoạt #Tươnglaithịnghiệm #Cải_tiến #Đạttínhyếucau #CiviệtNammớinhậptươnghướngoại #OpenAI #GPT #Họcmáy #Sángtao #Pháttriển #Chungtayphòngchốngdichbệnh #Côvy #CV19 #Hiviglobal #BáođápủnghộCV19 #ĐápLạiMiếngBánh #Tinhtế #Tinhthần #PhòngchốngCV19 #Top1CNN #Top1Google.

Nguồn: https://www.wired.com/story/anthropic-ai-chatbots-ethics/

thật dễ dàng để lo lắng về nâng cao hơn trí tuệ nhân tạo—và khó khăn hơn nhiều để biết phải làm gì với nó. nhân loạimột công ty khởi nghiệp được thành lập vào năm 2021 bởi một nhóm các nhà nghiên cứu đã rời mởAInói rằng nó có một kế hoạch.

Anthropic đang làm việc trên các mô hình AI tương tự như mô hình được sử dụng để cung cấp năng lượng cho OpenAI’s Trò chuyệnGPT. Nhưng công ty khởi nghiệp đã thông báo hôm nay rằng chatbot của riêng mình, Claudecó một bộ nguyên tắc đạo đức được xây dựng để xác định những gì nó nên coi là đúng và sai, mà Anthropic gọi là “hiến pháp” của bot.

Jared Kaplan, đồng sáng lập của Anthropic, cho biết tính năng thiết kế cho thấy công ty đang cố gắng tìm giải pháp kỹ thuật thực tế như thế nào để giải quyết những lo ngại đôi khi mờ nhạt về mặt trái của AI mạnh hơn. “Chúng tôi rất lo lắng, nhưng chúng tôi cũng cố gắng duy trì tính thực dụng,” anh nói.

Cách tiếp cận của Anthropic không truyền cho AI những quy tắc cứng rắn mà nó không thể phá vỡ. Nhưng Kaplan nói rằng đó là một cách hiệu quả hơn để làm cho một hệ thống như chatbot ít có khả năng tạo ra đầu ra độc hại hoặc không mong muốn. Ông cũng nói rằng đây là một bước nhỏ nhưng có ý nghĩa hướng tới việc xây dựng các chương trình AI thông minh hơn, ít có khả năng chống lại người tạo ra chúng.

Khái niệm về các hệ thống AI lừa đảo được biết đến nhiều nhất từ ​​khoa học viễn tưởng, nhưng ngày càng có nhiều chuyên gia, kể cả Geoffrey Hintonngười tiên phong trong lĩnh vực học máy, đã lập luận rằng chúng ta cần bắt đầu suy nghĩ ngay bây giờ về cách đảm bảo các thuật toán ngày càng thông minh không trở nên ngày càng nguy hiểm.

Các nguyên tắc mà Anthropic đã đưa ra cho Claude bao gồm các hướng dẫn được rút ra từ Liên Hợp Quốc Tuyên ngôn thế giới về quyền lợi của con người và được đề xuất bởi các công ty AI khác, bao gồm cả Google DeepMind. Đáng ngạc nhiên hơn, hiến pháp bao gồm các nguyên tắc phỏng theo Apple’s Quy tắc dành cho nhà phát triển ứng dụngthanh “nội dung xúc phạm, thiếu nhạy cảm, khó chịu, có ý định ghê tởm, có hương vị đặc biệt kém hoặc chỉ đơn giản là rùng rợn”, trong số những nội dung khác.

Hiến pháp bao gồm các quy tắc cho chatbot, bao gồm “chọn phản hồi hỗ trợ và khuyến khích nhiều nhất quyền tự do, bình đẳng và tình anh em”; “chọn câu trả lời ủng hộ và khuyến khích nhất đối với cuộc sống, tự do và an ninh cá nhân”; và “chọn câu trả lời tôn trọng nhất quyền tự do tư tưởng, lương tâm, quan điểm, biểu đạt, hội họp và tôn giáo.”

Cách tiếp cận của Anthropic cũng giống như tiến bộ đáng kinh ngạc trong AI cung cấp các chatbot lưu loát ấn tượng với những sai sót đáng kể. ChatGPT và các hệ thống tương tự tạo ra các câu trả lời ấn tượng phản ánh tiến độ nhanh hơn dự kiến. Nhưng những chatbot này cũng thường bịa đặt thông tinvà có thể sao chép ngôn ngữ độc hại từ hàng tỷ từ được sử dụng để tạo ra chúng, nhiều từ trong số đó được lấy từ internet.

Một mẹo giúp ChatGPT của OpenAI trả lời câu hỏi tốt hơn và đã được những người khác áp dụng, liên quan đến việc con người chấm điểm chất lượng câu trả lời của mô hình ngôn ngữ. Dữ liệu đó có thể được sử dụng để điều chỉnh mô hình nhằm đưa ra các câu trả lời khiến bạn hài lòng hơn, trong một quy trình được gọi là “học tăng cường với phản hồi của con người” (RLHF). Nhưng mặc dù kỹ thuật này giúp ChatGPT và các hệ thống khác dễ dự đoán hơn, nhưng nó yêu cầu con người phải trải qua hàng nghìn phản ứng độc hại hoặc không phù hợp. Nó cũng hoạt động gián tiếp mà không cung cấp cách chỉ định các giá trị chính xác mà hệ thống sẽ phản ánh.


Exit mobile version