#ChatGPT #GoogleBard #AIBiz #cuộcđuatrítuệnhântạo #rủiroAI #thuậtngữcôngnghệ #hànhđộngtậpthể #OpenAI #tạmdừngnghiêncứuAI
Hôm nay xảy ra sự cố khi ChatGPT, Google Bard và AIBiz, các hệ thống trí tuệ nhân tạo (AI) đang được nghiên cứu phát triển, bị giới chuyên môn gặp phải các rủi ro tiềm ẩn. Các nhà nghiên cứu và lãnh đạo công nghệ đã kêu gọi tạm dừng đào tạo các công nghệ mạnh hơn GPT-4 của OpenAI trong ít nhất sáu tháng để đảm bảo an toàn kỹ lưỡng và đánh giá rủi ro của công nghệ AI.
Tuy nhiên, không có cơ chế nào để thực thi việc tạm dừng như vậy và một số công ty công nghệ vẫn tiếp tục với triển khai của GPT-4 và đào tạo AI nâng cao. Việc tự nguyện tạm dừng các thử nghiệm AI sẽ cho phép các công ty khác có được một chuyến đi miễn phí bằng cách cuối cùng gặt hái những lợi ích của việc phát triển AI an toàn hơn, minh bạch hơn, cùng với phần còn lại của xã hội.
AI là hàng hóa công cộng, có lợi ích và nguy hiểm ảnh hưởng đến tất cả mọi người, ngay cả những người không sử dụng AI. Vì vậy, quy định và sự giám sát cẩn thận là cần thiết để giảm rủi ro của AI. Các triết gia đã chỉ ra rằng khi sự tự nguyện không đủ để tránh những tay đua tự do, quy định là giải pháp thay thế duy nhất. Tuy nhiên, những quy định đó phải được thi hành và tuân thủ tự nguyện là yếu tố chính tạo ra các tình huống ăn theo tự do.
Ví dụ về một trong những bài toán người chơi tự do ấn tượng nhất trên thế giới ngày nay là khí hậu thay đổi. Hiệp định Pari là tự nguyện và Liên Hợp Quốc không có quyền truy đòi để thực thi hiệp định đó. Ví dụ, ngay cả khi một số quốc gia tuân theo các hướng dẫn xanh thì vẫn có những nước khác không tuân thủ và gây ra thêm rủi ro cho môi trường.
Vì vậy, việc tạm dừng đào tạo các công nghệ AI mạnh hơn là cần thiết để đảm bảo an toàn và giảm thiểu rủi ro đối với AI. Các công ty công nghệ cần thực hiện việc phát triển AI an toàn hơn, minh bạch hơn và phù hợp với quy định và sự giám sát của cơ quan chức năng.
Nguồn: https://gizmodo.com/ai-chatgpt-google-bard-free-rider-problem-1850410516
Có lẽ Tập lệnh do AI viết là một ý tưởng tồi?
Vào ngày 22 tháng 3 năm 2023, hàng nghìn nhà nghiên cứu và lãnh đạo công nghệ – bao gồm cả Elon Musk và đồng sáng lập Apple Steve Wozniak – đã xuất bản một thư ngỏ kêu gọi làm chậm lại cuộc đua trí tuệ nhân tạo. Cụ thể, bức thư khuyến nghị các phòng thí nghiệm tạm dừng đào tạo các công nghệ mạnh hơn GPT-4 của OpenAI, thế hệ tinh vi nhất của các hệ thống AI tạo ngôn ngữ ngày nay, trong ít nhất sáu tháng.
Bật chuông báo động rủi ro do AI gây ra không có gì mới – các học giả đã đưa ra cảnh báo về những rủi ro của cỗ máy siêu thông minh hàng chục năm nay. Vẫn chưa có sự thống nhất về khả năng tạo ra trí tuệ tổng hợp nhân tạocác hệ thống AI tự động phù hợp hoặc vượt quá con người ở hầu hết các nhiệm vụ có giá trị kinh tế. Tuy nhiên, rõ ràng là các hệ thống AI hiện tại đã gây ra rất nhiều mối nguy hiểm, từ sự phân biệt chủng tộc trong công nghệ nhận dạng khuôn mặt trước mối đe dọa ngày càng tăng của thông tin sai lệch và sinh viên gian lận.
Mặc dù bức thư kêu gọi ngành công nghiệp và các nhà hoạch định chính sách hợp tác, nhưng hiện tại không có cơ chế nào để thực thi việc tạm dừng như vậy. BẰNG một triết gia nghiên cứu đạo đức công nghệtôi đã nhận thấy rằng nghiên cứu AI minh họa cho “vấn đề kỵ sĩ tự do.” Tôi cho rằng điều này sẽ hướng dẫn cách các xã hội phản ứng với những rủi ro của nó – và ý định tốt đó sẽ không đủ.
cưỡi miễn phí
Đi xe tự do là hệ quả phổ biến của cái mà các nhà triết học gọi là “vấn đề hành động tập thể”. Đây là những tình huống trong đó, với tư cách là một nhóm, mọi người sẽ được hưởng lợi từ một hành động cụ thể, nhưng với tư cách cá nhân, mỗi thành viên sẽ hưởng lợi từ việc không làm điều đó.
Những vấn đề như vậy thường liên quan đến hàng hóa công cộng. Ví dụ: giả sử cư dân của một thành phố có lợi ích tập thể trong việc tài trợ cho hệ thống tàu điện ngầm, điều này sẽ yêu cầu mỗi người trong số họ phải trả một khoản tiền nhỏ thông qua thuế hoặc giá vé. Mọi người đều có lợi, nhưng lợi ích tốt nhất của mỗi cá nhân là tiết kiệm tiền và tránh phải trả phần công bằng của họ. Rốt cuộc, họ vẫn có thể tận hưởng tàu điện ngầm nếu hầu hết những người khác trả tiền.
Do đó, vấn đề “đi xe miễn phí”: Một số cá nhân sẽ không đóng góp phần công bằng của họ nhưng vẫn sẽ nhận được “đi xe miễn phí” – theo nghĩa đen, trong trường hợp tàu điện ngầm. Tuy nhiên, nếu mọi cá nhân không trả tiền, sẽ không ai được lợi.
Các triết gia có xu hướng tranh luận rằng nó là phi đạo đức để “đi xe miễn phí,” vì những người đi xe miễn phí không đáp lại được việc người khác trả phần công bằng của họ. Nhiều triết gia cũng tranh luận rằng những người tự do thất bại trong trách nhiệm của họ như là một phần của khế ước xã hội, các nguyên tắc hợp tác được thống nhất chung điều hành một xã hội. Nói cách khác, họ không thực hiện được bổn phận là những thành viên đóng góp cho xã hội.
Nhấn tạm dừng, hoặc tiếp tục?
Giống như tàu điện ngầm, AI là hàng hóa công cộng, nhờ khả năng hoàn thành nhiệm vụ hiệu quả hơn nhiều so với người vận hành: mọi thứ từ chẩn đoán bệnh nhân bằng cách phân tích dữ liệu y tế để tiếp quản công việc có rủi ro cao trong quân đội hoặc cải thiện an toàn khai thác.
Nhưng cả lợi ích và nguy hiểm của nó sẽ ảnh hưởng đến tất cả mọi người, ngay cả những người không sử dụng AI. Giảm rủi ro của AI, mọi người đều quan tâm đến việc nghiên cứu của ngành được tiến hành cẩn thận, an toàn và có sự giám sát và minh bạch phù hợp. Ví dụ, thông tin sai lệch và tin tức giả mạo đã gây ra những mối đe dọa nghiêm trọng đối với các nền dân chủ, nhưng AI có khả năng làm trầm trọng thêm vấn đề bằng cách lan truyền “tin giả” nhanh hơn và hiệu quả hơn khả năng của mọi người.
Tuy nhiên, ngay cả khi một số công ty công nghệ tự nguyện dừng thử nghiệm của họ, các tập đoàn khác sẽ có lợi ích về tiền tệ khi tiếp tục nghiên cứu AI của riêng họ, cho phép họ vượt lên trong cuộc chạy đua vũ trang AI. Hơn nữa, việc tự nguyện tạm dừng các thử nghiệm AI sẽ cho phép các công ty khác có được một chuyến đi miễn phí bằng cách cuối cùng gặt hái những lợi ích của việc phát triển AI an toàn hơn, minh bạch hơn, cùng với phần còn lại của xã hội.
Sam Altman, Giám đốc điều hành của OpenAI, đã thừa nhận rằng công ty sợ rủi ro được đặt ra bởi hệ thống chatbot của nó, ChatGPT. “Chúng ta phải cẩn thận ở đây,” anh ấy nói trong một cuộc phỏng vấn với ABC News, đề cập đến khả năng AI tạo ra thông tin sai lệch. “Tôi nghĩ mọi người nên vui vì chúng tôi có một chút sợ hãi về điều này.”
Trong một bức thư được xuất bản vào ngày 5 tháng 4 năm 2023, OpenAI nói rằng công ty tin rằng các hệ thống AI mạnh mẽ cần quy định để đảm bảo đánh giá an toàn kỹ lưỡng và rằng nó sẽ “tích cực tham gia với các chính phủ theo hình thức tốt nhất mà quy định đó có thể thực hiện.” Tuy nhiên, OpenAI đang tiếp tục với triển khai dần dần của GPT-4 và phần còn lại của ngành cũng đang tiếp tục phát triển và đào tạo AI nâng cao.
Chín muồi cho quy định
thập kỷ của nghiên cứu khoa học xã hội về các vấn đề hành động tập thể đã chỉ ra rằng khi niềm tin và thiện chí không đủ để tránh những tay đua tự do, quy định thường là giải pháp thay thế duy nhất. Tuân thủ tự nguyện là yếu tố chính tạo ra các tình huống ăn theo tự do – và hành động của chính phủ đôi khi là cách để bóp chết nó từ trong trứng nước.
Hơn nữa, những quy định đó phải được thi hành. Xét cho cùng, những người sắp trở thành người đi tàu điện ngầm có thể sẽ khó trả tiền vé trừ khi có nguy cơ bị trừng phạt.
Lấy ví dụ về một trong những bài toán người chơi tự do ấn tượng nhất trên thế giới ngày nay: khí hậu thay đổi. Là một hành tinh, tất cả chúng ta đều có lợi ích cao trong việc duy trì một môi trường có thể ở được. Tuy nhiên, trong một hệ thống cho phép hành khách tự do, động cơ khuyến khích bất kỳ một quốc gia nào thực sự tuân theo các hướng dẫn xanh hơn là rất nhỏ.
Hiệp định Pari, hiện là hiệp định toàn cầu bao trùm nhất về biến đổi khí hậu, là tự nguyện và Liên Hợp Quốc không có quyền truy đòi để thực thi hiệp định đó. Ví dụ, ngay cả khi Liên minh Châu Âu và Trung Quốc tự nguyện hạn chế lượng khí thải của họ, Hoa Kỳ và Ấn Độ có thể “tự do” giảm lượng khí carbon dioxide trong khi vẫn tiếp tục phát thải.
thách thức toàn cầu
Tương tự như vậy, vấn đề người lái tự do là cơ sở lập luận để điều chỉnh sự phát triển của AI. Trong thực tế, khí hậu thay đổi là một song song đặc biệt chặt chẽ, vì cả những rủi ro do AI gây ra cũng như lượng khí thải nhà kính đều không bị hạn chế ở quốc gia xuất xứ của chương trình.
Hơn nữa, cuộc đua phát triển AI tiên tiến hơn là một cuộc đua quốc tế. Ngay cả khi Hoa Kỳ đưa ra quy định liên bang về nghiên cứu và phát triển AI, Trung Quốc và Nhật Bản vẫn có thể tự do và tiếp tục hoạt động nội địa của mình chương trình AI.
Quy định và thực thi AI hiệu quả sẽ yêu cầu hành động và hợp tác tập thể toàn cầu, giống như biến đổi khí hậu. Tại Hoa Kỳ, thực thi nghiêm ngặt sẽ yêu cầu sự giám sát của liên bang đối với nghiên cứu và khả năng áp dụng các khoản tiền phạt nặng hoặc đóng cửa các thử nghiệm AI không tuân thủ để đảm bảo sự phát triển có trách nhiệm – cho dù đó là thông qua hội đồng giám sát theo quy định, bảo vệ người tố giác hay, trong trường hợp cực đoan, khóa phòng thí nghiệm hoặc nghiên cứu và buộc tội hình sự.
Tuy nhiên, nếu không có sự thực thi, sẽ có những đối tượng tự do – và những đối tượng tự do có nghĩa là mối đe dọa AI sẽ không sớm giảm bớt.
Bạn muốn biết thêm về AI, chatbot và tương lai của máy học? Kiểm tra bảo hiểm đầy đủ của chúng tôi về trí tuệ nhân tạohoặc duyệt hướng dẫn của chúng tôi để Trình tạo nghệ thuật AI miễn phí tốt nhất Và Mọi thứ chúng tôi biết về ChatGPT của OpenAI.
Tim Juvshik là Trợ lý Giáo sư Triết học thỉnh giảng tại Đại học Clemson. Bài viết này được đăng lại từ Cuộc trò chuyện theo giấy phép Creative Commons. Đọc bài báo gốc.