Sự kiện trong ngày: Bài viết mới về drama hội đồng quản trị OpenAI có thể ảnh hưởng xấu đến tương lai của bạn
Trong tháng 6, tôi đã có cuộc trò chuyện với nhà khoa học trưởc tại OpenAI, Ilya Sutskever, tại trụ sở của OpenAI, khi tôi đang viết bài cho trang bìa số của WIRED trong tháng 10. Trong số các chủ đề chúng tôi thảo luận có cấu trúc bất thường của công ty.
OpenAI ban đầu bắt đầu là một phòng thí nghiệm nghiên cứu phi lợi nhuận với nhiệm vụ phát triển trí tuệ nhân tạo ở cấp độ ngang bằng hoặc vượt lên trên trí tuệ con người – được gọi là trí tuệ nhân tạo tổng quát hoặc AGI – một cách an toàn. Công ty đã phát hiện một con đường hứa hẹn trong các mô hình ngôn ngữ lớn tạo ra các đoạn văn viết trôi chảy đáng kinh ngạc, nhưng việc phát triển và triển khai những mô hình đó yêu cầu một lượng lớn hạ tầng tính toán và núi tiền mặt. Điều này đưa OpenAI đến tạo ra một thực thể thương mại để thu hút các nhà đầu tư ngoại vi và nó thu hút một đối tác lớn: Microsoft. Hầu hết mọi người trong công ty làm việc cho chi nhánh lợi nhuận mới này. Nhưng giới hạn đã được đặt ra cho cuộc sống thương mại của công ty. Lợi nhuận gửi đến các nhà đầu tư sẽ được giới hạn – đối với các nhà đầu tư ban đầu ở mức 100 lần số tiền họ đầu tư – sau đó OpenAI sẽ quay trở lại là một tổ chức phi lợi nhuận tinh túy. Toàn bộ hệ thống này được điều hành bởi hội đồng phi lợi nhuận gốc, chỉ phục vụ mục tiêu của sứ mạng gốc và có lẽ cả Đấng Tối Cao.
Sutskever không hài lòng khi tôi đùa rằng bảng tổ chức lạ mắt mà ánh xạ mối quan hệ này giống như cái gì mà một GPT tương lai có thể tạo ra khi được yêu cầu thiết kế một cách trốn thuế. “Chúng tôi là công ty duy nhất trên thế giới có cấu trúc lợi nhuận bị giới hạn,” ông khiển trách tôi. “Đây chính là lý do việc này hợp lý: Nếu bạn tin, giống như chúng tôi, rằng nếu chúng tôi thành công vượt bậc, thì những GPU này sẽ lấy đi công việc của tôi và công việc của bạn và công việc của tất cả mọi người, có vẻ tốt nếu công ty đó sẽ không tạo ra lợi nhuận không giới hạn.” Trong lúc chờ đợi, để đảm bảo rằng phần tìm kiếm lợi nhuận của công ty không tẩu tả khỏi cam kết đảm bảo rằng trí tuệ nhân tạo không bị mất kiểm soát, có bảng quản trị, giữ mắt trên các vấn đề.
Hội đồng này muốn bảo vệ nhân loại chính là hội đồng cùng hội đồng đã sa thải Sam Altman vào thứ Sáu vừa rồi, cho biết họ không còn tin tưởng vào ông CEO này vì “ông không luôn thành thật trong giao tiếp với hội đồng, làm cản trở khả năng của nó để thực hiện trách nhiệm của mình”. Không có ví dụ nào về hành vi tố tụng đó được cung cấp, và hầu như không có ai trong công ty biết về việc sa thải cho đến gần trước khi nó được công bố công khai. CEO của Microsoft Satya Nadella và các nhà đầu tư khác không được thông báo trước. Bốn người đứng đầu, đại diện cho đa số trong hội đồng gồm sáu người, cũng đã đuổi ông Sam Altman khỏi hội đồng. Altman nhanh chóng từ chức.
Sau khi nói chuyện với một người quen với suy nghĩ của hội đồng, dường như đối với tôi, khi sa thải Altman, các thành viên hội đồng tin rằng họ đang thực hiện sứ mệnh của mình, đảm bảo công ty phát triển trí tuệ nhân tạo mạnh mẽ một cách an toàn – như là lý do duy nhất của nó. Tăng lợi nhuận hoặc việc sử dụng ChatGPT, duy trì sự hoà hợp làm việc và làm cho Microsoft và các nhà đầu tư khác hạnh phúc không phải quan tâm của họ. Đối với Adam D’Angelo, Helen Toner và Tasha McCauley – và Sutskever – Altman đã không nói thẳng với họ. Quan điểm chủ yếu là hội đồng không còn tin tưởng vào Altman để theo đuổi sứ mệnh của OpenAI. Nếu hội đồng không tin tưởng được vào CEO, làm sao có thể bảo vệ hoặc thậm chí giám sát tiến triển trên sứ mệnh?
Tôi không thể nói liệu hành vi của Altman có thực sự đe dọa sứ mệnh của OpenAI, nhưng tôi biết điều này: Hội đồng có vẻ đã bỏ qua khả năng rằng một vụ thực hiện không rõ ràng của một nhà lãnh đạo đáng kính yêu và quyến rũ có thể hại sứ mệnh đó. Các người đứng đầu dường như đã nghĩ rằng họ sẽ đuổi Altman và dễ dàng thay thế. Thay vào đó, hệ quả đã xuất phát và mạnh mẽ. Altman, đã trở nên như một vị anh hùng tôn sùng trong câu chuyện mới này. Ông không làm gì để làm lắng dịu cuộc than phiền sau đó. Đối với hội đồng, nỗ lực của Altman để lấy lại vị trí của ông, và cuộc nổi loạn của nhân viên trong vài ngày qua, đều chứng minh rằng việc sa thải ông là đúng. Trong khi đó, toàn bộ thung lũng Silicon đã chết chóc, làm mờ danh tiếng của OpenAI, có lẽ vĩnh viễn.
Dấu vân tay của Altman không xuất hiện trên bức lời thư mở ra ngày hôm qua và được ký kết bởi hơn 95% trong tổng số khoảng 770 nhân viên của OpenAI, nói rằng các thành viên hội đồng “không có khả năng giám sát OpenAI.” Nó nói rằng nếu các thành viên hội đồng không phục hồi lại Altman và từ chức, các nhân viên có thể từ chức và gia nhập một bộ phận nghiên cứu trí tuệ nhân tạo tiên tiến mới tại Microsoft, do Altman và Brockman tạo ra. Đe dọa này dường như không làm rung trọng quyết tâm của các thành viên hội đồng, những người dường như cảm thấy họ đang bị yêu cầu đàm phán với kẻ khủng bố. Có lẽ một người thành viên hội đồng cảm nhận khác – Sutskever, người bây giờ cho biết ông hối hận về hành động của mình. Chữ ký của ông xuất hiện trên chiếc lá đơn “bạn từ chức hoặc chúng tôi sẽ từ chức.” Dường như ông đã xóa sổ sự không tin tưởng vào Altman, hai người đã gửi thư tình cho nhau trên X, nền tảng thuộc sở hữu của một người sáng lập OpenAI khác, hiện đã ly khai khỏi dự án.
Nguồn: https://www.wired.com/story/openai-boardroom-drama-sam-altman-could-mess-up-your-future/
In June I had a conversation with chief scientist Ilya Sutskever at OpenAI’s headquarters, as I reported out WIRED’s October cover story. Among the topics we discussed was the unusual structure of the company.
OpenAI began as a nonprofit research lab whose mission was to develop artificial intelligence on par or beyond human level—termed artificial general intelligence or AGI—in a safe way. The company discovered a promising path in large language models that generate strikingly fluid text, but developing and implementing those models required huge amounts of computing infrastructure and mountains of cash. This led OpenAI to create a commercial entity to draw outside investors, and it netted a major partner: Microsoft. Virtually everyone in the company worked for this new for-profit arm. But limits were placed on the company’s commercial life. The profit delivered to investors was to be capped—for the first backers at 100 times what they put in—after which OpenAI would revert to a pure nonprofit. The whole shebang was governed by the original nonprofit’s board, which answered only to the goals of the original mission and maybe God.
Sutskever did not appreciate it when I joked that the bizarre org chart that mapped out this relationship looked like something a future GPT might come up with when prompted to design a tax dodge. “We are the only company in the world which has a capped profit structure,” he admonished me. “Here is the reason it makes sense: If you believe, like we do, that if we succeed really well, then these GPUs are going to take my job and your job and everyone’s jobs, it seems nice if that company would not make truly unlimited amounts of returns.” In the meantime, to make sure that the profit-seeking part of the company doesn’t shirk its commitment to making sure that the AI doesn’t get out of control, there’s that board, keeping an eye on things.
This would-be guardian of humanity is the same board that fired Sam Altman last Friday, saying that it no longer had confidence in the CEO because “he was not consistently candid in his communications with the board, hindering its ability to exercise its responsibilities.” No examples of that alleged behavior were provided, and almost no one at the company knew about the firing until just before it was publicly announced. Microsoft CEO Satya Nadella and other investors got no advance notice. The four directors, representing a majority of the six-person board, also kicked OpenAI president and chairman Greg Brockman off the board. Brockman quickly resigned.
After speaking to someone familiar with the board’s thinking, it appears to me that in firing Altman the directors believed they were executing their mission of making sure the company develops powerful AI safely—as was its sole reason for existing. Increasing profits or ChatGPT usage, maintaining workplace comity, and keeping Microsoft and other investors happy were not of their concern. In the view of directors Adam D’Angelo, Helen Toner, and Tasha McCauley—and Sutskever—Altman didn’t deal straight with them. Bottom line: The board no longer trusted Altman to pursue OpenAI’s mission. If the board can’t trust the CEO, how can it protect or even monitor progress on the mission?
I can’t say whether Altman’s conduct truly endangered OpenAI’s mission, but I do know this: The board seems to have missed the possibility that a poorly explained execution of a beloved and charismatic leader might harm that mission. The directors appear to have thought that they would give Altman his walking papers and unfussily slot in a replacement. Instead, the consequences were immediate and volcanic. Altman, already something of a cult hero, became even revered in this new narrative. He did little or nothing to dissuade the outcry that followed. To the board, Altman’s effort to reclaim his post, and the employee revolt of the past few days, is kind of a vindication that it was right to dismiss him. Clever Sam is still up to something! Meanwhile, all of Silicon Valley blew up, tarnishing OpenAI’s status, maybe permanently.
Altman’s fingerprints do not appear on the open letter released yesterday and signed by more than 95 percent of OpenAI’s roughly 770 employees that says the directors are “incapable of overseeing OpenAI.” It says that if the board members don’t reinstate Altman and resign, the workers who signed may quit and join a new advanced AI research division at Microsoft, formed by Altman and Brockman. This threat did not seem to dent the resolve of the directors, who apparently felt like they were being asked to negotiate with terrorists. Presumably one director feels differently—Sutskever, who now says he regrets his actions. His signature appears on the you-quit-or-we’ll-quit letter. Having apparently deleted his distrust of Altman, the two have been sending love notes to each other on X, the platform owned by another fellow OpenAI cofounder, now estranged from the project.