Queen Mobile Blog

Anthropic tung ra Hiến pháp AI nhằm khuyến khích hành vi và đạo đức phát triển.

#Anthropic phát hành Hiến pháp AI với mục đích thúc đẩy hành vi và phát triển đạo đức. Sự kiện ngày 11-12 tháng 7 tại San Francisco sẽ có sự góp mặt của các giám đốc điều hành hàng đầu để chia sẻ kinh nghiệm về cách tối ưu hóa các khoản đầu tư vào AI. Công ty trí tuệ nhân tạo Anthropic đã phát hành công khai Hiến pháp cho Claude – một hệ thống AI đàm thoại mô hình mới nhất của họ. Hiến pháp này vạch ra các giá trị và nguyên tắc mà Claude phải tuân theo khi tương tác với người dùng và hướng dẫn cách đối phó với các chủ đề nhạy cảm và tôn trọng quyền riêng tư của người dùng. Chia sẻ hiến pháp của mình, Anthropic hy vọng sẽ thúc đẩy sự tin tưởng và minh bạch hơn trong lĩnh vực trí tuệ nhân tạo và truyền cảm hứng cho các nhà phát triển AI khác và các bên liên quan áp dụng các tiêu chuẩn và thông lệ tương tự. Hiến pháp này cũng đề cập đến mối quan tâm ngày càng tăng về cách đảm bảo các hệ thống AI cư xử có đạo đức khi chúng trở nên tiên tiến hơn. Chúng ta cần tạo ra nhiều nhiều mô hình AI có lợi hơn và làm cho giá trị của chúng trở nên rõ ràng hơn. #Chuyểnđổi2023 #AI #đạodục #minhbạch #tintưởng #hệthốngAI #Anthropic

Nguồn: https://venturebeat.com/ai/anthropic-releases-ai-constitution-to-promote-ethical-behavior-and-development/

Tham gia cùng các giám đốc điều hành hàng đầu tại San Francisco vào ngày 11-12 tháng 7, để nghe cách các nhà lãnh đạo đang tích hợp và tối ưu hóa các khoản đầu tư AI để thành công. Tìm hiểu thêm


nhân loạimột công ty trí tuệ nhân tạo hàng đầu được thành lập bởi các cựu kỹ sư OpenAI, đã thực hiện một cách tiếp cận mới để giải quyết các thách thức về đạo đức và xã hội do các hệ thống AI ngày càng mạnh mẽ gây ra: tạo cho chúng một hiến pháp.

Vào thứ ba, công ty đã phát hành công khai chính thức cấu tạo cho Claude, mới nhất của nó AI đàm thoại mô hình có thể tạo văn bản, hình ảnh và mã. Hiến pháp vạch ra một tập hợp các giá trị và nguyên tắc mà Claude phải tuân theo khi tương tác với người dùng, chẳng hạn như hữu ích, vô hại và trung thực. Nó cũng chỉ định cách Claude nên xử lý các chủ đề nhạy cảm, tôn trọng quyền riêng tư của người dùng và tránh hành vi bất hợp pháp.

“Chúng tôi đang chia sẻ hiến pháp hiện tại của Claude trên tinh thần minh bạch,” Jared Kaplan, đồng sáng lập Anthropic, cho biết trong một cuộc phỏng vấn với VentureBeat. “Chúng tôi hy vọng nghiên cứu này sẽ giúp cộng đồng AI xây dựng nhiều mô hình có lợi hơn và làm cho giá trị của chúng trở nên rõ ràng hơn. Chúng tôi cũng đang chia sẻ điều này như một điểm khởi đầu — chúng tôi hy vọng sẽ liên tục sửa đổi hiến pháp của Claude và một phần hy vọng của chúng tôi khi chia sẻ bài đăng này là nó sẽ khơi dậy nhiều nghiên cứu và thảo luận hơn về thiết kế hiến pháp.”

Hiến pháp rút ra từ các nguồn như Tuyên bố Nhân quyền của Liên Hợp Quốc, nghiên cứu đạo đức AI và chính sách nội dung nền tảng. Đó là kết quả của nhiều tháng hợp tác giữa các nhà nghiên cứu, chuyên gia chính sách và lãnh đạo hoạt động của Anthropic, những người đã thử nghiệm và tinh chỉnh hành vi cũng như hiệu suất của Claude.

Sự kiện

Chuyển đổi 2023

Hãy tham gia cùng chúng tôi tại San Francisco vào ngày 11-12 tháng 7, nơi các giám đốc điều hành hàng đầu sẽ chia sẻ cách họ đã tích hợp và tối ưu hóa các khoản đầu tư vào AI để đạt được thành công và tránh những cạm bẫy phổ biến.

Đăng ký ngay

Bằng cách công khai hiến pháp của mình, Anthropic hy vọng sẽ thúc đẩy sự tin tưởng và minh bạch hơn trong lĩnh vực trí tuệ nhân tạo, đã bị cản trở bởi những tranh cãi về sự thiên vị, thông tin sai lệch và thao túng. Công ty cũng hy vọng sẽ truyền cảm hứng cho các nhà phát triển AI khác và các bên liên quan áp dụng các tiêu chuẩn và thông lệ tương tự.

Thông báo nhấn mạnh mối quan tâm ngày càng tăng về cách đảm bảo các hệ thống AI cư xử có đạo đức khi họ trở nên tiên tiến và tự chủ hơn. Mới tuần trước, cựu lãnh đạo bộ phận nghiên cứu AI của Google, Geoffrey Hintonđã từ chức khỏi vị trí của mình tại gã khổng lồ công nghệ, với lý do ngày càng có nhiều lo ngại về tác động đạo đức của công nghệ mà ông đã giúp tạo ra. Các mô hình ngôn ngữ lớn (LLM)tạo văn bản từ các bộ dữ liệu lớn, đã được chứng minh là phản ánh và thậm chí khuếch đại các sai lệch trong dữ liệu huấn luyện của chúng.

Xây dựng hệ thống AI để chống lại sự thiên vị và tác hại

Anthropic là một trong số ít các công ty khởi nghiệp chuyên phát triển các hệ thống AI nói chung và các mô hình ngôn ngữ, nhằm thực hiện nhiều nhiệm vụ trên các lĩnh vực khác nhau. Công ty được thành lập vào năm 2021 với 124 triệu USD loạt MỘT vòng tài trợ, có sứ mệnh đảm bảo rằng AI biến đổi giúp con người và xã hội phát triển.

Claude là sản phẩm chủ lực của Anthropic, dự kiến ​​triển khai cho nhiều ứng dụng khác nhau như giáo dục, giải trí và lợi ích xã hội. Claude có thể tạo nội dung như thơ, truyện, mã, tiểu luận, bài hát, nhại người nổi tiếng, v.v. Nó cũng có thể giúp người dùng viết lại, cải thiện hoặc tối ưu hóa nội dung của họ. Anthropic tuyên bố rằng Claude là một trong những hệ thống AI đáng tin cậy và dễ điều khiển nhất trên thị trường, nhờ cấu tạo và khả năng học hỏi từ phản hồi của con người.

Kaplan nói với VentureBeat: “Chúng tôi đã chọn các nguyên tắc giống như những nguyên tắc trong Tuyên bố Nhân quyền của Liên hợp quốc được hưởng sự đồng ý rộng rãi và được tạo ra theo cách có sự tham gia. “Để bổ sung những điều này, chúng tôi đã đưa các nguyên tắc lấy cảm hứng từ các phương pháp hay nhất vào Điều khoản dịch vụ dành cho nền tảng kỹ thuật số để giúp xử lý các vấn đề đương đại hơn. Chúng tôi cũng bao gồm các nguyên tắc mà chúng tôi phát hiện ra là hoạt động tốt thông qua quá trình thử và sai trong nghiên cứu của mình. Các nguyên tắc được thu thập và lựa chọn bởi các nhà nghiên cứu tại Anthropic. Chúng tôi đang khám phá các cách để tạo ra hiến pháp cho Claude một cách dân chủ hơn, đồng thời khám phá việc cung cấp các hiến pháp có thể tùy chỉnh cho các trường hợp sử dụng cụ thể.”

Việc công bố hiến pháp của Anthropic làm nổi bật mối quan tâm ngày càng tăng của cộng đồng AI đối với các giá trị và đạo đức của hệ thống — và nhu cầu về các kỹ thuật mới để giải quyết chúng. Với AI ngày càng tiên tiến được triển khai bởi các công ty trên toàn cầu, các nhà nghiên cứu cho rằng các mô hình phải dựa trên cơ sở và bị ràng buộc bởi đạo đức và luân lý của con người, chứ không chỉ được tối ưu hóa cho các nhiệm vụ hẹp như tạo văn bản hấp dẫn. lập hiến trí tuệ nhân tạo đưa ra một con đường đầy hứa hẹn để đạt được lý tưởng đó.

Hiến pháp để phát triển với sự tiến bộ của AI

Một khía cạnh quan trọng trong hiến pháp của Anthropic là khả năng thích ứng của nó. Anthropic thừa nhận rằng phiên bản hiện tại chưa được hoàn thiện và cũng chưa phải là phiên bản tốt nhất có thể, đồng thời Anthropic hoan nghênh nghiên cứu và phản hồi để tinh chỉnh và cải thiện hiến pháp. Sự sẵn sàng thay đổi này thể hiện cam kết của công ty trong việc đảm bảo rằng các hệ thống AI luôn được cập nhật và phù hợp khi các mối quan tâm về đạo đức và chuẩn mực xã hội mới xuất hiện.

Kaplan nói: “Chúng tôi sẽ có nhiều điều để chia sẻ về việc tùy chỉnh hiến pháp sau này. “Nhưng phải rõ ràng: tất cả việc sử dụng mô hình của chúng tôi cần phải nằm trong Chính sách sử dụng được chấp nhận của chúng tôi. Điều này cung cấp lan can cho bất kỳ tùy chỉnh nào. AUP của chúng tôi sàng lọc việc sử dụng có hại cho mô hình của chúng tôi và sẽ tiếp tục làm điều này.”

Mặc dù hiến pháp AI không phải là thuốc chữa bách bệnh, nhưng chúng đại diện cho một cách tiếp cận chủ động để giải quyết các câu hỏi đạo đức phức tạp nảy sinh khi các hệ thống AI tiếp tục phát triển. Bằng cách làm cho các hệ thống giá trị của các mô hình AI rõ ràng hơn và dễ dàng sửa đổi, cộng đồng AI có thể làm việc cùng nhau để xây dựng các mô hình có lợi hơn, thực sự phục vụ nhu cầu của xã hội.

Kaplan nói: “Chúng tôi rất vui mừng khi có thêm nhiều người cân nhắc về thiết kế hiến pháp. “Anthropic đã phát minh ra phương pháp cho AI Hiến pháp, nhưng chúng tôi không tin rằng vai trò của một công ty tư nhân là quy định những giá trị nào cuối cùng sẽ hướng dẫn AI. Chúng tôi đã cố gắng hết sức để tìm ra các nguyên tắc phù hợp với mục tiêu của mình là tạo ra một hệ thống AI Hữu ích, Vô hại và Trung thực, nhưng cuối cùng, chúng tôi muốn có nhiều tiếng nói hơn để cân nhắc những giá trị nào nên có trong hệ thống của mình. Hiến pháp của chúng tôi đang hoạt động — chúng tôi sẽ tiếp tục cập nhật và lặp lại nó. Chúng tôi muốn bài đăng trên blog này khơi dậy nghiên cứu và thảo luận, đồng thời chúng tôi sẽ tiếp tục khám phá các cách để thu thập thêm ý kiến ​​đóng góp về hiến pháp của mình.”

Sứ mệnh của VentureBeat là trở thành một quảng trường thành phố kỹ thuật số để những người ra quyết định kỹ thuật có được kiến ​​thức về công nghệ doanh nghiệp chuyển đổi và giao dịch. Khám phá Briefings của chúng tôi.


Exit mobile version