#SựKiệnNgàyHômNay: Các chuyên gia cảnh báo về sự nguy hiểm của trí tuệ nhân tạo và quy định của EU
Một số chuyên gia về trí tuệ nhân tạo đã ký một lá thư cảnh báo về sự phát triển công nghệ không được kiểm soát, xem AI như một “rủi ro ở quy mô xã hội”. Trong khi đó, các cơ quan quản lý đang làm việc để hoàn thiện lập trường của họ khi nói đến việc sử dụng AI tổng quát. Quy định được đề xuất hoặc sự thận trọng từ bên trong ngành công nghệ có thể ảnh hưởng thế nào đến những công cụ AI nào có sẵn cho các doanh nghiệp?
Trung tâm An toàn AI đã đưa ra một tuyên bố ngắn gọn: “Giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân”. Bill Gates và nhà tiên phong về AI Geoffrey Hinton cùng nhiều chuyên gia khác đã ký nhận tuyên bố này. Tuyên bố nhằm “mở ra cuộc thảo luận” và khuyến khích áp dụng rộng rãi.
Quy định AI của EU và các tổ chức khác cũng đang được đề xuất để giảm thiểu các rủi ro của AI đối với xã hội. Với tuyên bố của Viện Tương lai Sự sống vào tháng 3 năm 2023, các công ty AI được yêu cầu tạm dừng phát triển trong sáu tháng, có thể theo lệnh cấm của chính phủ. Quy định AI của EU hạn chế việc sử dụng AI để lập chính sách dự đoán hoặc sử dụng nhận dạng cảm xúc trong các cuộc tuần tra biên giới.
Các tổ chức sản xuất các sản phẩm dựa trên AI hoặc phần cứng và phần mềm để chạy AI nên theo dõi tiến độ của các quy định như quy định do EU đề xuất. Các tổ chức cũng nên xem xét các chính sách đạo đức của riêng họ có thể liên quan như thế nào đến thời điểm và địa điểm AI được giao bất kỳ nhiệm vụ ra quyết định nào có sự tiếp xúc của con người.
Nguồn: https://techtoday.co/experts-warn-of-the-dangers-of-ai-weigh-in-on-ongoing-eu-regulation/
bản tin
Sed ut perspiciatis unde.
Một số chuyên gia về trí tuệ nhân tạo đã ký một lá thư cảnh báo về sự phát triển công nghệ không được kiểm soát; tuyên bố dài 22 từ đề cập đến AI như một “rủi ro ở quy mô xã hội”. Trong khi đó, các cơ quan quản lý làm việc để hoàn thiện lập trường của họ khi nói đến việc sử dụng AI tổng quát. Quy định được đề xuất hoặc sự thận trọng từ bên trong ngành công nghệ có thể ảnh hưởng như thế nào đến những công cụ AI nào có sẵn cho các doanh nghiệp?
Chuyển đến:
Chuyên gia cảnh báo rủi ro AI
Tuyên bố tuần này về rủi ro AI từ Trung tâm An toàn AI rất ngắn gọn: “Giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân”.
Trung tâm An toàn AI cho biết, tuyên bố ngắn này nhằm “mở ra cuộc thảo luận” và khuyến khích áp dụng rộng rãi. Bill Gates, nhà tiên phong về AI Geoffrey Hinton và Giám đốc điều hành Google DeepMind Demis Hassabis nằm trong số những người ký kết.
Trung tâm An toàn AI là một tổ chức phi lợi nhuận được thành lập nhằm “giảm thiểu rủi ro ở quy mô xã hội” do AI gây ra. Trung tâm liệt kê các vấn đề có thể xảy ra mà AI dự đoán có thể gây ra, bao gồm việc được sử dụng trong chiến tranh, thông tin sai lệch, quá trình cực đoan hóa con người thông qua việc tạo nội dung, “lừa dối” về hoạt động bên trong của chính AI hoặc “sự xuất hiện đột ngột của các khả năng hoặc mục tiêu” không được dự đoán bởi những người tạo ra AI.
Tuyên bố của nó được đưa ra sau một bức thư ngỏ của Viện Tương lai Sự sống vào tháng 3 năm 2023 cảnh báo việc sử dụng AI và yêu cầu các công ty AI tạm dừng phát triển trong sáu tháng, có thể theo lệnh cấm của chính phủ.
Một số lo ngại xung quanh AI tổng quát đã bị chỉ trích là giả thuyết. Các nhóm khác, bao gồm Hội đồng Thương mại và Công nghệ EU-Mỹ, có kế hoạch đưa một số cân nhắc này vào chính sách sắp tới. Ví dụ: một tuyên bố chung lưu ý rằng Hội đồng cam kết “hạn chế các thách thức (AI) đặt ra đối với quyền con người phổ quát và các giá trị dân chủ được chia sẻ” và Đạo luật AI của EU hạn chế việc sử dụng AI để lập chính sách dự đoán hoặc sử dụng nhận dạng cảm xúc trong các cuộc tuần tra biên giới .
NHÌN THẤY: Công ty của bạn có cần Chính sách đạo đức trí tuệ nhân tạo không?
Chính sách của Liên minh Châu Âu có thể định hình các quy tắc quản lý rủi ro AI toàn cầu
Một trong những người ký vào tuyên bố cảnh báo, Giám đốc điều hành OpenAI Sam Altman, nằm trong số những người có mặt tại cuộc họp của Hội đồng Công nghệ và Thương mại EU-Hoa Kỳ vào thứ Tư. Công ty của ông cảnh giác với các quy định quá mức ở EU nhưng cho biết ông có kế hoạch tuân thủ chúng, theo một báo cáo từ Bloomberg.
Phó Chủ tịch Ủy ban Châu Âu Margrethe Vestager cho biết sau cuộc họp của hội đồng, hội đồng có kế hoạch đưa ra một dự thảo về quy tắc ứng xử AI trong vòng vài tuần tới. Cô ấy đã đề xuất kiểm tra bên ngoài và đánh dấu hình mờ như các biện pháp bảo vệ có thể chống lại việc lạm dụng nội dung do AI tạo ra.
Vestager muốn thấy ủy ban của cô ấy soạn thảo quy tắc ứng xử của họ trước hai đến ba năm, có thể mất tới 2 đến 3 năm để Đạo luật AI được đề xuất đi qua quy trình lập pháp của Liên minh Châu Âu. Đạo luật AI đang được tiến hành và sẽ cần được đọc tiếp theo ở Châu Âu Nghị viện, có thể ngay sau tháng Sáu.
Chủ tịch Ủy ban Châu Âu Ursula von der Leyen cho biết trong một bình luận với Reuters rằng Nhóm Bảy quốc gia cũng đang xem xét điều chỉnh AI như ChatGPT để đảm bảo nó “chính xác, đáng tin cậy, an toàn và không phân biệt đối xử”.
Chính phủ Hoa Kỳ khám phá “rủi ro và cơ hội” của AI
Người phát ngôn của Hội đồng An ninh Quốc gia Adam Hodge cho biết trong một tuyên bố được Bloomberg mua lại, chính phủ Hoa Kỳ đang thực hiện kế hoạch “thúc đẩy cách tiếp cận toàn diện và gắn kết đối với các rủi ro và cơ hội liên quan đến AI”.
Tại Hoa Kỳ, tình cảm cá nhân trong chính quyền Biden sau cuộc họp hội đồng được cho là bị chia rẽ giữa những người muốn sử dụng AI để duy trì tính cạnh tranh và những người ủng hộ kế hoạch điều chỉnh AI của EU.
Các quy định về AI có ý nghĩa gì đối với doanh nghiệp?
Các tổ chức sản xuất các sản phẩm dựa trên AI hoặc phần cứng và phần mềm để chạy AI nên theo dõi tiến độ của các quy định như quy định do EU đề xuất. Các quy định của tiểu bang cuối cùng cũng có thể có hiệu lực, chẳng hạn như đề xuất của California nhằm hạn chế cách sử dụng AI trong tuyển dụng và các quyết định khác có thể ảnh hưởng đến chất lượng cuộc sống của một người.
Các tổ chức cũng nên xem xét các chính sách đạo đức của riêng họ có thể liên quan như thế nào đến thời điểm và địa điểm AI được giao bất kỳ nhiệm vụ ra quyết định nào có sự tiếp xúc của con người.
[ad_2]