OpenAI công bố nhóm an ninh và an toàn mới #OpenAI #AnNinh #AnToàn #NgàyHômNay
OpenAI đang tiến thêm mạnh vào tự quản lý ngành công nghiệp khi công ty thông báo một nhóm an ninh và an toàn được tái cấu trúc, sau một số lần từ chức công khai và giải thể cơ quan giám sát cũ của nó.
Ủy ban An Ninh và An Toàn, như đã được đổi tên, do các thành viên Hội đồng và các giám đốc Bret Taylor (Sierra), Adam D’Angelo (Quora), Nicole Seligman và — tất nhiên — Giám Đốc Điều Hành OpenAI Sam Altman dẫn đầu. Các thành viên khác bao gồm “các chuyên gia chính sách và kỹ thuật của OpenAI,” bao gồm các trưởng phòng “Sẵn Sàng,” “Hệ Thống An Toàn,” và “Khoa Học Định Hướng.”
“OpenAI gần đây đã bắt đầu đào tạo mô hình ranh giới tiếp theo của mình và chúng tôi dự kiến các hệ thống kết quả này sẽ đưa chúng ta đến một cấp độ tiếp theo của khả năng trên con đường đến AI tổng hợp chung,” OpenAI viết. “Trong khi chúng tôi tự hào xây dựng và phát hành các mô hình dẫn đầu ngành về khả năng và an toàn, chúng tôi hoan nghênh một cuộc tranh luận mạnh mẽ trong thời điểm quan trọng này.”
Nhiệm vụ đầu tiên của ủy ban là “đánh giá và phát triển thêm quy trình và biện pháp bảo vệ của OpenAI trong 90 ngày tới,” công ty viết trong thông báo của mình, với phản hồi từ các chuyên gia bên ngoài đã có trong danh sách giám sát bên ngoài của OpenAI, như người đứng đầu an ninh mạng cũ của NSA Rob Joyce.
Thông báo này là phản ứng kịp thời trước một vấn đề quản lý xoay quanh tại OpenAI, tuy nhiên nó có thể không làm gì nhiều để đảm bảo các mắt đang quan sát và ủng hộ giám sát bên ngoài. Tuần này, các cựu thành viên Hội đồng OpenAI yêu cầu “việc điều chỉnh chặt chẽ hơn từ phía chính phủ” trong ngành công nghệ AI, cụ thể từ chối các quyết định quản lý kém cỏi và văn hóa độc hại được tạo ra bởi Altman trong vai trò lãnh đạo của OpenAI.
“Mặc dù có tâm ý tốt đẹp nhất, mà không có sự giám sát bên ngoài, loại tự quyết định này sẽ kết thúc không thể thực thi, đặc biệt dưới sức ép của cơ cấu kinh doanh lợi nhuận khổng lồ,” họ lập luận.
Ủy ban mới của OpenAI đang được đưa vào cuộc cháy ngay lập tức, với một nhiệm vụ ngay lập tức để đánh giá các biện pháp bảo vệ AI của công ty. Nhưng ngay cả những điều đó cũng có thể không đủ.
Nguồn: https://mashable.com/article/openai-new-ai-safety-security-committee-sam-altman
OpenAI is digging its heels deeper into industry self governance as the company announces a revamped safety and security team, following several public resignations and the dissolution of its former oversight body.
The Safety and Security Committee, as its been renamed, is led by board members and directors Bret Taylor (Sierra), Adam D’Angelo (Quora), Nicole Seligman, and — of course — OpenAI CEO Sam Altman. Other members include internal “OpenAI technical and policy experts,” including heads of “Preparedness,” “Safety Systems,” and “Alignment Science.”
“OpenAI has recently begun training its next frontier model and we anticipate the resulting systems to bring us to the next level of capabilities on our path to AGI,” wrote OpenAI. “While we are proud to build and release models that are industry-leading on both capabilities and safety, we welcome a robust debate at this important moment.”
The committee’s first task is to “evaluate and further develop OpenAI’s processes and safeguards over the next 90 days,” the company wrote in its announcement, with feedback from outside experts who are already on OpenAI’s external oversight roster, like former NSA cybersecurity director Rob Joyce.
Mashable Light Speed
The announcement is a timely response to a swirling management controversy at OpenAI, although it may do little to reassure watchful eyes and advocates for external oversight. This week, former OpenAI board members called for more intense government regulation of the AI sector, specifically calling out the poor management decisions and toxic culture fostered by Altman in the role of OpenAI’s leader.
“Even with the best of intentions, without external oversight, this kind of self-regulation will end up unenforceable, especially under the pressure of immense profit incentives,” they argued.
OpenAI’s new committee is being thrown straight into the fire, with an immediate mandate to evaluate the company’s AI safeguards. But even those might not be enough.
Topics
Artificial Intelligence
OpenAI
[ad_2]