“Gối đầu với Elon Musk: Chính xác cần điều chỉnh trí tuệ nhân tạo ngay lập tức!”

#Sựkiệnngàyhômnay #TríTuệNhânTạo #ĐiềuChỉnhAI

Elon Musk đã đúng: Chúng ta cần điều chỉnh AI ngay bây giờ. Chúng ta cần làm điều gì đó về trí tuệ nhân tạo trước khi quá muộn. Nếu sự phát triển của trí tuệ nhân tạo tiếp tục với tốc độ hiện tại, thì đáng lo ngại, thảm họa có thể sẽ xảy ra.

Tháng Ba một bức thư ngỏ kêu gọi tất cả các phòng thí nghiệm tạm dừng phát triển AI trong sáu tháng, trong thời gian đó chính phủ có thể làm việc theo quy định hợp lý. Nó được ký bởi Elon Musk, người đồng sáng lập Apple Steve Wozniak và, trong số những người nổi tiếng về công nghệ và học thuật khác, Yuval Noah Harari, tác giả của cuốn sách Sapiens.

Bức thư ngỏ lập luận rằng bây giờ là lúc để thiết lập các biện pháp bảo vệ vì AI sẽ sớm trở nên quá thông minh để hạn chế.

Lịch sử cho chúng ta biết rằng có một khoảng thời gian giới hạn về mặt chính trị có thể điều chỉnh AI. Quá trình chính trị hóa có thể đã bắt đầu. Đó là câu nói của Musk ở trên?

Các quy định toàn diện giải quyết các tác động ngoại cảnh có thể có của AI sẽ mất nhiều năm để phát triển. Nhưng có một số quy tắc nhanh chóng và dễ dàng có thể và nên được áp dụng ngay bây giờ.

Đầu tiên, quy định nên thực thi tính minh bạch hơn đối với các nhà phát triển AI. Điều đó có nghĩa là minh bạch về thời điểm AI đang được sử dụng, chẳng hạn như trong trường hợp các công ty sử dụng thuật toán AI để sắp xếp thông qua các ứng dụng việc làm hoặc cho thuê.

Nguồn: https://www.cnet.com/tech/elon-musk-is-right-we-need-to-regulate-ai-now/#ftag=CAD590a51e

Chúng ta cần làm điều gì đó về trí tuệ nhân tạo trước khi quá muộn.

Bạn có thể đã nghe một số biến thể của câu nói đó hàng chục lần trong những năm trước Trò chuyệnGPT. Bạn có thể đã nghe nó hàng trăm lần trong nhiều tháng từ Trò chuyệnGPT.

Cần phải làm gì đó về AI hoặc cái gì đó khác. Nếu sự phát triển của trí tuệ nhân tạo tiếp tục với tốc độ hiện tại, thì đáng lo ngại, thảm họa có thể sẽ xảy ra. Có thể là một cơn sóng thần thông tin sai lệch, hàng triệu việc làm bị mất hay chính ngày tận thế, cuộc cách mạng AI mang đến những rủi ro to lớn.

Tháng Ba một bức thư ngỏ kêu gọi tất cả các phòng thí nghiệm tạm dừng phát triển AI trong sáu tháng, trong thời gian đó chính phủ có thể làm việc theo quy định hợp lý. Nó được ký bởi Elon Musk, người đồng sáng lập Apple Steve Wozniak và, trong số những người nổi tiếng về công nghệ và học thuật khác, Yuval Noah Harari, tác giả của cuốn sách Sapiens.

“Trong vài năm qua, các công cụ AI mới đã xuất hiện đe dọa sự tồn vong của nền văn minh nhân loại,” Harari đã viết tháng trước. “AI đã đạt được một số khả năng đáng chú ý để thao túng và tạo ra ngôn ngữ… Do đó, AI đã tấn công vào hệ điều hành của nền văn minh của chúng ta.”

Một số lời đáng báo động từ người đã viết cuốn sách về loài người theo đúng nghĩa đen.

Bức thư ngỏ lập luận rằng bây giờ là lúc để thiết lập các biện pháp bảo vệ vì AI sẽ sớm trở nên quá thông minh để hạn chế. Hay theo cách nói của Musk, nếu chúng ta “chỉ đưa ra các quy định sau khi điều gì đó khủng khiếp đã xảy ra, thì có thể đã quá muộn để thực sự đưa ra các quy định. AI có thể kiểm soát vào thời điểm đó.”

Nhưng có một lý do khác khiến các nhà lập pháp nên bắt tay vào AI ngay bây giờ. Lịch sử cho chúng ta biết rằng có một khoảng thời gian giới hạn về mặt chính trị có thể điều chỉnh AI.

Vấn đề luôn luôn là cuộc chiến văn hóa; cách thức mà nhiều vấn đề quan trọng được các chính trị gia và những người theo chủ nghĩa trực tuyến đồng tình lựa chọn và biến thành đảng phái khi vũ khí hóa kiểu chủ nghĩa bộ lạc có thể nhìn thấy hàng ngày trên các nền tảng truyền thông xã hội như Twitter. Nếu AI trở thành một phần của cuộc chiến văn hóa, quy định sâu rộng và chu đáo sẽ khó đạt được hơn nhiều.

Quá trình chính trị hóa có thể đã bắt đầu. Đó là câu nói của Musk ở trên? Anh ấy đã tặng nó khi xuất hiện trong chương trình của Tucker Carlson, khi Carlson vẫn có một chương trình. Đây là cách người dẫn chương trình cũ của Fox giới thiệu một trong những phân đoạn của Musk:

“Về lâu dài, AI có thể trở nên độc lập và thống trị thế giới. Nhưng trong ngắn hạn, nó được các chính trị gia sử dụng để kiểm soát suy nghĩ của bạn, chấm dứt phán quyết độc lập của bạn và chấm dứt nền dân chủ trước thềm cuộc bầu cử tổng thống.”

Gettyimages-1246507198

Elon Musk là một trong nhiều ngôi sao công nghệ kiến ​​nghị tạm dừng phát triển AI trong 6 tháng.

Bloomberg/Getty

tiền lệ xấu

Sự lây lan không kiểm soát của AI có thể báo trước thảm họa. Nhưng nếu có một điều mà các nhà lập pháp Hoa Kỳ đã chứng tỏ mình thành thạo, thì đó là một thảm họa vì lợi ích chính trị. Điều này thường được thực hiện thông qua mong muốn sợ hãi. Coi AI như một âm mưu chấm dứt nền dân chủ, như Carlson đã làm, là một trong nhiều cách điều này có thể xảy ra. Một khi những điểm nói chuyện sôi máu được nghĩ ra, cơn nóng nảy có thể khó bình tĩnh.

Bạn không cần phải tìm đâu xa để thấy những ví dụ về sự hợp tác bệnh lý. Khi tôi viết những lời này, Quốc hội đang chơi một trò chơi gà trong việc tăng trần nợ. Các nhà lãnh đạo GOP đang từ chối ủy quyền cho chính phủ vay tiền để thanh toán các hóa đơn của mình trừ khi Nhà Trắng đồng ý cắt giảm các ưu đãi năng lượng xanh, hủy bỏ sáng kiến ​​xóa nợ cho sinh viên của Biden và giảm chi tiêu cho an sinh xã hội.

Đó là một ví dụ về chính trị làm hỏng những gì lẽ ra là một quá trình đơn giản. Việc nâng trần nợ thường là một thủ tục hành chính, nhưng trong những thập kỷ gần đây đã trở thành một trận đấu chính trị. Nhưng có những rủi ro thực sự đi kèm: Nếu không bên nào chớp mắt và mức trần không được nâng lên, hàng triệu người sẽ mất quyền tiếp cận với Medicare, quân đội không được trả lương và thị trường toàn cầu sẽ bị gián đoạn do Hoa Kỳ không trả các nghĩa vụ nợ của mình.

Một lần nữa, điều này sẽ dễ dàng — dễ dàng hơn nhiều so với việc điều chỉnh AI. Nhưng nó cho thấy ngay cả những mục tiêu rõ ràng nhất cũng có thể bị chính trị làm hỏng.

Biến đổi khí hậu và sự phản kháng dai dẳng của các chính phủ trên khắp thế giới nhằm giải quyết nó một cách thỏa đáng, có lẽ là ví dụ điển hình nhất về hành động trì hoãn chiến tranh văn hóa. Thỏa hiệp trở nên khó khăn khi một bên cho rằng biến đổi khí hậu là ngày tận thế trong khi bên kia cho rằng nó bị thổi phồng quá mức hoặc không có thật. Một sự phân chia tương tự sẽ khiến việc điều chỉnh AI là không thể hoặc tốt nhất là chậm. Quá chậm.

Ngay cả đối với những vấn đề mà có sự đồng thuận của cả hai đảng rằng thứ gì đó nên được thực hiện, Đảng Dân chủ và Đảng Cộng hòa thường chạy theo các hướng đối lập nhau. Trên thực tế, mọi người đều đồng ý rằng Big Tech nên được điều chỉnh. Đảng Dân chủ băn khoăn rằng các công ty công nghệ có lợi nhuận cao không bảo vệ đủ dữ liệu và bắt nạt các đối thủ nhỏ hơn. Đảng Cộng hòa khóc lóc trước sự kiểm duyệt và tuyên bố giới tinh hoa ở Thung lũng Silicon đang làm xói mòn quyền tự do ngôn luận. Chưa từng có dự luật lớn nào trừng phạt Big Tech được thông qua.

Quán tính tương tự có thể ảnh hưởng đến quy định AI nếu các bên, mặc dù đồng ý rằng thứ gì đó nên được thực hiện, quy định các giải pháp khác nhau.

Câu trả lời đầu tiên cho quy định AI

Các quy định toàn diện giải quyết các tác động ngoại cảnh có thể có của AI sẽ mất nhiều năm để phát triển. Nhưng có một số quy tắc nhanh chóng và dễ dàng có thể và nên được áp dụng ngay bây giờ. Những điều này được kêu gọi bởi gần 28.000 người đã ký vào bức thư ngỏ do Musk hậu thuẫn.

Đầu tiên, quy định nên thực thi tính minh bạch hơn đối với các nhà phát triển AI. Điều đó có nghĩa là minh bạch về thời điểm AI đang được sử dụng, chẳng hạn như trong trường hợp các công ty sử dụng thuật toán AI để sắp xếp thông qua các ứng dụng việc làm hoặc cho thuê. California đã giải quyết vấn đề trước đây, với một dự luật tìm cách yêu cầu các công ty để thông báo cho mọi người nếu các thuật toán do AI cung cấp đã được sử dụng để đưa ra quyết định thay mặt cho công ty.

Chúng tôi cũng cần các công ty như OpenAI, công ty đứng sau ChatGPT, để cung cấp cho các nhà nghiên cứu dữ liệu mà các bot trò chuyện được đào tạo. Khiếu nại về bản quyền có thể có rất nhiều trong thời đại AI (làm thế nào để chúng tôi trả tiền cho các ấn phẩm tin tức cho những câu chuyện các chatbot như GPT dựa trên câu trả lời của họ hoặc các bức ảnh mà các trình tạo nghệ thuật AI sử dụng làm đầu vào). Minh bạch hơn về dữ liệu mà hệ thống AI được đào tạo sẽ giúp làm cho những tranh chấp đó trở nên mạch lạc.

Có lẽ quan trọng nhất, AI nên tuyên bố rằng nó là AI.

Một lo lắng lớn về trí tuệ nhân tạo là khả năng thuyết phục và thuyết phục của nó. Những phẩm chất nguy hiểm trong tay kẻ xấu. Trước cuộc bầu cử năm 2016, Nga sử dụng tài khoản mạng xã hội giả mạo trong một nỗ lực để gieo rắc bất hòa xung quanh các vấn đề gây tranh cãi như nhập cư và căng thẳng chủng tộc. Nếu được hỗ trợ bởi AI tinh vi, những nỗ lực gây náo loạn như vậy sẽ hiệu quả hơn và khó bị phát hiện hơn.

Cũng giống như cách Instagram buộc những người có ảnh hưởng phải #ad khi họ được trả tiền cho một bài đăng, Facebook và Twitter phải tự tuyên bố mình là AI. Các video Deepfake nên được gắn thẻ theo cách khiến chúng dễ nhận biết là sản phẩm của trí tuệ nhân tạo.

Một nữ dân biểu đảng Dân chủ từ New York, Yvette Clarke, đã đề xuất các biện pháp như vậy trong một dự luật nộp vào đầu tháng này. Nhưng đó là để đáp lại Ủy ban Quốc gia Đảng Cộng hòa đưa ra một quảng cáo chống Joe Biden được tạo bằng hình ảnh AIbáo trước nhiều vấn đề về trí tuệ nhân tạo sẽ xuất hiện khi cuộc bầu cử năm 2024 đến gần.

AI vẫn chưa tham gia vào cuộc chiến văn hóa như biến đổi khí hậu hay thậm chí là các công ty Big Tech. Nhưng điều đó sẽ xảy ra trong bao lâu?

Ghi chú của biên tập viên: CNET đang sử dụng công cụ AI để tạo một số trình giải thích về tài chính cá nhân do các biên tập viên của chúng tôi chỉnh sửa và kiểm tra tính xác thực. Để biết thêm, xem bài này.


Đang chơi:
Coi đây nè:

ChatGPT Creator làm chứng trước Quốc hội về An toàn AI…


15:01


[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *