Sử dụng ChatGPT và AI như vũ khí sinh học: Cẩn thận hơn cả bom hạt nhân!

#SựKiệnNgàyHômNay: Cộng đồng toàn cầu cần xích lại gần nhau để đảm bảo sự phát triển AI an toàn và có trách nhiệm. Trong bối cảnh rủi ro AI leo thang nhanh chóng, các CEO và giáo sư đã ký lá thư kêu gọi tạm dừng phát triển AI mạnh mẽ và điều chỉnh để giảm thiểu rủi ro. Việc tạm dừng này sẽ giúp cộng đồng toàn cầu có thời gian để ngăn chặn những tác động có thể gây thảm họa và không thể đảo ngược đối với xã hội của chúng ta. Mặc dù AI mang lại nhiều tiềm năng tích cực, việc mất đi tiềm năng này nên được đưa vào tính toán khi đánh giá rủi ro. Chúng ta cần đặt quy định, đạo đức và chuẩn mực để đảm bảo phúc lợi của xã hội và cá nhân, ngăn chặn các rủi ro gây hại và tận dụng những lợi ích của công nghệ AI thuận lợi cho cuộc sống con người.

Nguồn: https://gizmodo.com/ai-chatgpt-biological-weapon-nuclear-bomb-ai-laws-1850496771

Con người ngày nay đang phát triển công nghệ có lẽ là mạnh mẽ nhất trong lịch sử của chúng ta: trí tuệ nhân tạo. Tác hại xã hội của AI – bao gồm phân biệt đối xử, đe dọa nền dân chủ và tập trung ảnh hưởng – đã được ghi chép đầy đủ. Tuy nhiên, các công ty AI hàng đầu đang chạy đua vũ trang để xây dựng các hệ thống AI ngày càng mạnh mẽ, những hệ thống này sẽ làm leo thang những rủi ro này với tốc độ chưa từng thấy trong lịch sử loài người.

Sophie Thatcher của The Boogeyman tiết lộ điều gì đã thu hút cô đến với những nhân vật đen tối | phỏng vấn io9

Khi các nhà lãnh đạo của chúng ta vật lộn với cách ngăn chặn và kiểm soát sự phát triển của AI cũng như các rủi ro liên quan, họ nên xem xét các quy định và tiêu chuẩn đã cho phép nhân loại tận dụng những đổi mới trong quá khứ như thế nào. Quy định và đổi mới có thể cùng tồn tại, và đặc biệt là khi cuộc sống của con người đang bị đe dọa, thì họ bắt buộc phải làm như vậy.

Công nghệ hạt nhân cung cấp một câu chuyện cảnh báo. Mặc dù năng lượng hạt nhân là an toàn hơn 600 lần so với dầu về tỷ lệ tử vong của con người và có khả năng sản xuất cực lớn, ít quốc gia nào động tới vì công chúng đã gặp nhầm thành viên trong gia đình trước.

Chúng tôi được giới thiệu về công nghệ hạt nhân dưới dạng bom nguyên tử và bom khinh khí. Những vũ khí này, lần đầu tiên trong lịch sử loài người, con người đã phát triển một công nghệ có khả năng chấm dứt nền văn minh nhân loại, là sản phẩm của một cuộc chạy đua vũ trang ưu tiên tốc độ và sự đổi mới hơn là an toàn và kiểm soát. Những thất bại tiếp theo của kỹ thuật an toàn đầy đủ và quản lý rủi ro – vốn nổi tiếng là nguyên nhân dẫn đến thảm họa hạt nhân tại Chernobyl và Fukushima – đã phá hủy mọi cơ hội chấp nhận rộng rãi năng lượng hạt nhân.

Bất chấp việc đánh giá rủi ro tổng thể của năng lượng hạt nhân vẫn rất thuận lợi và hàng thập kỷ nỗ lực để thuyết phục thế giới về khả năng tồn tại của nó, từ ‘hạt nhân’ vẫn bị ô nhiễm. Khi một công nghệ gây hại trong các giai đoạn mới hình thành, nhận thức của xã hội và phản ứng thái quá của cơ quan quản lý có thể cắt giảm vĩnh viễn lợi ích tiềm năng của công nghệ đó. Do một số sai lầm ban đầu với năng lượng hạt nhân, chúng tôi đã không thể tận dụng nguồn năng lượng sạch, an toàn của nó, đồng thời tính trung hòa carbon và ổn định năng lượng vẫn là một giấc mơ viển vông.

Nhưng trong một số ngành, chúng tôi đã làm đúng. Công nghệ sinh học là một lĩnh vực được khuyến khích phát triển nhanh chóng: bệnh nhân đang phải chịu đựng và chết hàng ngày vì những căn bệnh không có phương pháp chữa trị hoặc phương pháp điều trị. Tuy nhiên, đặc điểm của nghiên cứu này không phải là ‘di chuyển nhanh và phá vỡ mọi thứ’, mà là đổi mới nhanh nhất và an toàn nhất có thể. Giới hạn tốc độ đổi mới trong lĩnh vực này được xác định bởi một hệ thống cấm đoán, quy định, đạo đức và chuẩn mực nhằm đảm bảo phúc lợi của xã hội và cá nhân. Nó cũng bảo vệ ngành công nghiệp khỏi bị tê liệt bởi phản ứng dữ dội dẫn đến thảm họa.

Khi cấm vũ khí sinh học tại Công ước Vũ khí Sinh học trong Chiến tranh Lạnh, các siêu cường đối lập đã có thể cùng nhau thống nhất và đồng ý rằng việc tạo ra những vũ khí này không mang lại lợi ích tốt nhất cho bất kỳ ai. Các nhà lãnh đạo thấy rằng những công nghệ không thể kiểm soát nhưng rất dễ tiếp cận này không nên được coi là một cơ chế để giành chiến thắng trong một cuộc chạy đua vũ trang, mà là một mối đe dọa đối với chính nhân loại.

Việc tạm dừng cuộc chạy đua vũ trang vũ khí sinh học này cho phép nghiên cứu phát triển với tốc độ có trách nhiệm, đồng thời các nhà khoa học và cơ quan quản lý có thể thực hiện các tiêu chuẩn nghiêm ngặt đối với bất kỳ cải tiến mới nào có khả năng gây hại cho con người. Những quy định này đã không phải trả giá bằng sự đổi mới. Ngược lại, cộng đồng khoa học đã thiết lập một nền kinh tế sinh học, với các ứng dụng từ năng lượng sạch đến nông nghiệp. Trong đại dịch COVID-19, các nhà sinh học đã biến một loại công nghệ mới, mRNA, thành một loại vắc-xin an toàn và hiệu quả với tốc độ chưa từng có trong lịch sử loài người. Khi có nguy cơ gây hại đáng kể cho các cá nhân và xã hội, quy định không cản trở sự tiến bộ; nó cho phép nó.

Một cuộc khảo sát gần đây của các nhà nghiên cứu AI đã tiết lộ rằng 36% cảm thấy rằng AI có thể gây ra thảm họa cấp độ hạt nhân. Mặc dù vậy, phản ứng của chính phủ và phong trào hướng tới quy định đã diễn ra chậm chạp. Tốc độ này không phù hợp với sự gia tăng trong việc áp dụng công nghệ, với ChatGPT hiện đã vượt quá 100 triệu người dùng.

Bối cảnh rủi ro AI leo thang nhanh chóng này đã dẫn đến 1800 CEO và 1500 giáo sư gần đây đã ký một lá thư kêu gọi tạm dừng sáu tháng về việc phát triển AI mạnh mẽ hơn nữa và khẩn trương bắt tay vào quá trình điều chỉnh và giảm thiểu rủi ro. Việc tạm dừng này sẽ giúp cộng đồng toàn cầu có thời gian để giảm thiểu những tác hại do AI gây ra và ngăn chặn những tác động có thể gây thảm họa và không thể đảo ngược đối với xã hội của chúng ta.

Khi chúng tôi hướng tới đánh giá rủi ro về các tác hại tiềm ẩn của AI, việc mất đi tiềm năng tích cực nên được đưa vào tính toán. Nếu chúng ta thực hiện các bước ngay bây giờ để phát triển AI một cách có trách nhiệm, chúng ta có thể nhận ra những lợi ích đáng kinh ngạc từ công nghệ này.

Ví dụ, chúng ta đã thấy những cái nhìn thoáng qua về AI biến đổi việc khám phá và phát triển thuốc, cải thiện chất lượng và chi phí chăm sóc sức khỏe, đồng thời tăng khả năng tiếp cận bác sĩ và điều trị y tế. DeepMind của Google đã chỉ ra rằng AI có khả năng giải quyết các vấn đề cơ bản trong sinh học mà từ lâu con người đã trốn tránh. Và nghiên cứu đã chỉ ra rằng AI có thể đẩy nhanh việc đạt được mọi Mục tiêu Phát triển Bền vững của Liên hợp quốcđưa nhân loại hướng tới một tương lai cải thiện sức khỏe, công bằng, thịnh vượng và hòa bình.

Đây là thời điểm để cộng đồng toàn cầu xích lại gần nhau — giống như chúng ta đã làm cách đây 50 năm tại Công ước Vũ khí Sinh học — để đảm bảo sự phát triển AI an toàn và có trách nhiệm. Nếu chúng ta không hành động sớm, chúng ta có thể sẽ tiêu diệt một tương lai tươi sáng với AI và xã hội hiện tại của chính chúng ta cùng với nó.

Bạn muốn biết thêm về AI, chatbot và tương lai của máy học? Kiểm tra bảo hiểm đầy đủ của chúng tôi về trí tuệ nhân tạohoặc duyệt hướng dẫn của chúng tôi để Trình tạo nghệ thuật AI miễn phí tốt nhấtMọi thứ chúng tôi biết về ChatGPT của OpenAI.

Emilia Javorsky, MD, MPH, là một nhà khoa học-bác sĩ và là Giám đốc Tham gia của nhiều bên liên quan tại Viện Tương lai của Cuộc sống, nơi đã xuất bản những bức thư ngỏ gần đây cảnh báo AI gây “nguy cơ diệt vong” cho nhân loại và vận động cho một tạm dừng sáu tháng để phát triển AI.


[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *