Đội ngũ Long-Term AI Risk Team của OpenAI đã giải tán 🤖 Trong tháng 7 năm ngoái, OpenAI đã công bố việc thành lập một nhóm nghiên cứu mới sẽ chuẩn bị cho sự xuất hiện của trí tuệ nhân tạo siêu thông minh có khả năng vượt qua và áp đảo những người tạo ra nó. Ilya Sutskever, nhà khoa học trưởng của OpenAI và một trong những người sáng lập công ty, được bổ nhiệm làm đồng lãnh đạo của nhóm mới này.
Bây giờ, “đội ngũ siêu điều chỉnh” của OpenAI không còn tồn tại nữa, công ty đã xác nhận. Điều đó đến sau khi một số nhà nghiên cứu liên quan rời bỏ, tin tức về việc Sutskever rời công ty vào thứ Ba, và việc một đồng lãnh đạo khác của nhóm cũng từ chức. Công việc của nhóm sẽ được tích hợp vào các nỗ lực nghiên cứu khác của OpenAI.
Việc giải tán đội ngũ siêu điều chỉnh của OpenAI là một trong những bằng chứng gần đây về sự thay đổi bên trong công ty trong đợt khủng hoảng quản trị vào tháng 11 năm ngoái. Hai nhà nghiên cứu trên nhóm, Leopold Aschenbrenner và Pavel Izmailov, đã bị sa thải vì rò rỉ bí mật công ty, báo cáo của The Information hồi tháng trước. Một thành viên khác của nhóm, William Saunders, rời bỏ OpenAI vào tháng 2.
Hai nhà nghiên cứu khác của OpenAI làm việc trên chính sách và quản lý trí tuệ nhân tạo cũng có vẻ đã rời bỏ công ty gần đây. OpenAI từ chối bình luận về việc rời bỏ của Sutskever hoặc các thành viên khác của nhóm siêu điều chỉnh, hoặc tương lai của công việc của họ về rủi ro trí tuệ nhân tạo dài hạn. Nghệ thuật liên quan đến các mô hình mạnh hơn sẽ được John Schulman dẫn đầu.
#OpenAI #LongTermAIRiskTeamDisbanded #AIresearch #IlyaSutskever #ArtificialIntelligence #AGI #GovernanceCrisis #ResearchTeam #OpenAIDepartures #SuperalignmentTeam #JohnSchulmanLeadership #AIpolicy #AGIdangers #AIrisks #AIresearchers #ArtificialIntelligenceRevolution #TechnologyNews #TechIndustryUpdates
Nguồn: https://www.wired.com/story/openai-superalignment-team-disbanded/
In July last year, OpenAI announced the formation of a new research team that would prepare for the advent of supersmart artificial intelligence capable of outwitting and overpowering its creators. Ilya Sutskever, OpenAI’s chief scientist and one of the company’s cofounders, was named as the colead of this new team. OpenAI said the team would receive 20 percent of its computing power.
Now OpenAI’s “superalignment team” is no more, the company confirms. That comes after the departures of several researchers involved, Tuesday’s news that Sutskever was leaving the company, and the resignation of the team’s other colead. The group’s work will be absorbed into OpenAI’s other research efforts.
Sutskever’s departure made headlines because although he’d helped CEO Sam Altman start OpenAI in 2015 and set the direction of the research that led to ChatGPT, he was also one of the four board members who fired Altman in November. Altman was restored as CEO five chaotic days later after a mass revolt by OpenAI staff and the brokering of a deal in which Sutskever and two other company directors left the board.
Hours after Sutskever’s departure was announced on Tuesday, Jan Leike, the former DeepMind researcher who was the superalignment team’s other colead, posted on X that he had resigned.
Neither Sutskever nor Leike responded to requests for comment, and they have not publicly commented on why they left OpenAI. Sutskever did offer support for OpenAI’s current path in a post on X. “The company’s trajectory has been nothing short of miraculous, and I’m confident that OpenAI will build AGI that is both safe and beneficial” under its current leadership, he wrote.
The dissolution of OpenAI’s superalignment team adds to recent evidence of a shakeout inside the company in the wake of last November’s governance crisis. Two researchers on the team, Leopold Aschenbrenner and Pavel Izmailov, were dismissed for leaking company secrets, The Information reported last month. Another member of the team, William Saunders, left OpenAI in February, according to an internet forum post in his name.
Two more OpenAI researchers working on AI policy and governance also appear to have left the company recently. Cullen O’Keefe left his role as research lead on policy frontiers in April, according to LinkedIn. Daniel Kokotajlo, an OpenAI researcher who has coauthored several papers on the dangers of more capable AI models, “quit OpenAI due to losing confidence that it would behave responsibly around the time of AGI,” according to a posting on an internet forum in his name. None of the researchers who have apparently left responded to requests for comment.
OpenAI declined to comment on the departures of Sutskever or other members of the superalignment team, or the future of its work on long-term AI risks. Research on the risks associated with more powerful models will now be led by John Schulman, who coleads the team responsible for fine-tuning AI models after training.
[ad_2]