Sự kiện ngày hôm nay: #NguyCơMấtViệcLàmCaoHơnVìTríTuệNhânTạo. Các công việc văn phòng hiện nay đang đối mặt với nguy cơ tổ chức do sự phát triển của trí tuệ nhân tạo (AI). Công nhân Mỹ đã gặp tổn thất nghiệp do tự động hóa trong những thập kỷ gần đây chủ yếu là những người có trình độ học vấn thấp, đặc biệt là nam giới làm việc trong ngành sản xuất. Nhưng loại tự động hóa mới này – các hệ thống trí tuệ nhân tạo lớn sử dụng ngôn ngữ, như ChatGPT và Bard của Google – đang thay đổi điều đó. Các công cụ này có thể xử lý và tổng hợp thông tin nhanh chóng, tạo ra nội dung mới. Các công việc dễ bị tổ chức hóa nhất bây giờ là công việc văn phòng, những công việc yêu cầu kỹ năng nhận thức, sáng tạo và trình độ học vấn cao hơn. Các công nhân bị ảnh hưởng thường là những người có mức thu nhập cao hơn và có xu hướng là nữ, như nhiều nghiên cứu đã phát hiện.
Nhiều nghiên cứu mới đã phân tích các nhiệm vụ của người lao động Mỹ, sử dụng cơ sở dữ liệu O*Net của Bộ Lao động và ước tính xem các mô hình ngôn ngữ lớn có thể làm được nhiệm vụ nào. Họ đã phát hiện ra rằng các mô hình này có thể giúp đỡ đáng kể trong 1/5 đến 1/4 nghề nghiệp. Trong đa số công việc, các mô hình có thể làm một số nhiệm vụ, theo các phân tích của Trung tâm Nghiên cứu Pew và Goldman Sachs.
Tuy nhiên, các mô hình hiện tại vẫn đôi khi sản xuất thông tin không chính xác và có xu hướng hỗ trợ công nhân hơn là thay thế họ, như các nghiên cứu viên Pamela Mishkin và Tyna Eloundou của OpenAI, công ty và viện nghiên cứu đứng sau ChatGPT, cho biết. Họ đã tiến hành một nghiên cứu tương tự, phân tích 19.265 nhiệm vụ được thực hiện trong 923 nghề nghiệp và phát hiện rằng các mô hình ngôn ngữ lớn có thể làm một số nhiệm vụ mà 80% công nhân Mỹ thực hiện.
Tuy nhiên, họ cũng tìm thấy lý do để một số công nhân lo sợ rằng các mô hình ngôn ngữ lớn có thể thay thế họ. Theo CEO của OpenAI, Sam Altman, “công việc chắc chắn sẽ biến mất”. Các nhà nghiên cứu đã yêu cầu một mô hình tiên tiến của ChatGPT phân tích dữ liệu O*Net và xác định nhiệm vụ mà các mô hình ngôn ngữ lớn có thể thực hiện. Họ đã phát hiện ra rằng 86 công việc hoàn toàn vỡ lỡ (tức là mọi nhiệm vụ đều có thể được hỗ trợ bởi công cụ này). Các nhà nghiên cứu con người nói rằng có 15 công việc bị tổ chức. Công việc mà cả người và trí tuệ nhân tạo đồng ý là dễ bị tổ chức nhất là nhà toán học.
Phân tích đã phát hiện ra rằng chỉ có 4% công việc không có bất kỳ nhiệm vụ nào có thể được hỗ trợ bởi công nghệ này, bao gồm các vận động viên, người rửa bát và những người hỗ trợ thợ mộc, thợ mái và thợ sơn. Tuy nhiên, ngay cả các thợ may cũng có thể sử dụng trí tuệ nhân tạo cho một số phần trong công việc của họ như lên lịch, dịch vụ khách hàng và tối ưu hóa tuyến đường, theo Mike Bidwell, CEO của Neighborly, một công ty dịch vụ nhà.
Mặc dù OpenAI có lợi ích kinh doanh trong việc quảng bá công nghệ của mình như một lợi ích cho người lao động, các nhà nghiên cứu khác cho biết vẫn có những khả năng duy nhất của con người không thể tự động hóa – như kỹ năng xã hội, làm việc nhóm, công việc chăm sóc và kỹ năng của những người làm nghề thủ công. “Chúng ta sẽ không làm hết các việc cho con người trong tương lai gần,” ông Brynjolfsson nói. “Nhưng các công việc đó khác nhau: học cách đặt câu hỏi đúng, tương tác thực sự với mọi người, công việc vật lý yêu cầu khéo léo”.
Hiện tại, mô hình ngôn ngữ lớn có thể giúp nhiều công nhân làm việc hiệu quả hơn trong công việc hiện tại của họ, theo các nhà nghiên cứu, tương tự như việc cung cấp cho công nhân văn phòng, ngay cả những người mới vào nghề, một giám đốc điều hành hoặc trợ lý nghiên cứu (tuy nhiên điều đó có thể gây khó khăn cho các trợ lý con người).
Ví dụ, một nghiên cứu về Github’s Copilot, một chương trình trí tuệ nhân tạo giúp lập trình viên bằng cách đề xuất mã và chức năng, đã phát hiện ra rằng những người sử dụng công cụ này nhanh hơn 56% so với những người thực hiện cùng nhiệm vụ mà không sử dụng nó.
“Có một ý kiến sai lầm rằng việc được tiếp xúc là một chuyện xấu”, bà Mishkin cho biết. Sau khi đọc các mô tả về mọi nghề nghiệp trong nghiên cứu, bà và các đồng nghiệp đã rút ra một bài học quan trọng, bà nói: “Không có cách nào một mô hình có thể làm tất cả điều này”.
Các mô hình ngôn ngữ lớn có thể giúp viết luật pháp, chẳng hạn, nhưng không thể thông qua pháp luật. Chúng có thể giống như một nhà tư vấn tâm lý – người ta có thể chia sẻ suy nghĩ của mình và các mô hình có thể trả lời với các ý tưởng dựa trên các chế độ đã được chứng minh, nhưng chúng không có khả năng đồng cảm con người hoặc khả năng đọc những tình huống tinh vi.
Phiên bản của ChatGPT dành cho công chúng có những nguy cơ đối với công nhân – nó thường lắm khi làm sai, có thể phản ánh thiên vị con người và không đủ an toàn để doanh nghiệp tin tưởng với thông tin bí mật. Các công ty sử dụng nó vượt qua những trở ngại này với các công cụ sử dụng công nghệ này trong một không gian đóng – nghĩa là họ huấn luyện mô hình chỉ trên nội dung cụ thể và giữ các đầu vào riêng tư.
Morgan Stanley sử dụng phiên bản của OpenAI được tạo ra cho doanh nghiệp của mình, được cung cấp khoảng 100.000 tài liệu nội bộ, hơn một triệu trang. Các
Nguồn: https://www.nytimes.com/2023/08/24/upshot/artificial-intelligence-jobs.html
The American workers who have had their careers upended by automation in recent decades have largely been less educated, especially men working in manufacturing.
But the new kind of automation — artificial intelligence systems called large language models, like ChatGPT and Google’s Bard — is changing that. These tools can rapidly process and synthesize information and generate new content. The jobs most exposed to automation now are office jobs, those that require more cognitive skills, creativity and high levels of education. The workers affected are likelier to be highly paid, and slightly likelier to be women, a variety of research has found.
“It’s surprised most people, including me,” said Erik Brynjolfsson, a professor at the Stanford Institute for Human-Centered A.I., who had predicted that creativity and tech skills would insulate people from the effects of automation. “To be brutally honest, we had a hierarchy of things that technology could do, and we felt comfortable saying things like creative work, professional work, emotional intelligence would be hard for machines to ever do. Now that’s all been upended.”
A range of new research has analyzed the tasks of American workers, using the Labor Department’s O*Net database, and hypothesized which of them large language models could do. It has found these models could significantly help with tasks in one-fifth to one-quarter of occupations. In a majority of jobs, the models could do some of the tasks, found the analyses, including from Pew Research Center and Goldman Sachs.
For now, the models still sometimes produce incorrect information, and are more likely to assist workers than replace them, said Pamela Mishkin and Tyna Eloundou, researchers at OpenAI, the company and research lab behind ChatGPT. They did a similar study, analyzing the 19,265 tasks done in 923 occupations, and found that large language models could do some of the tasks that 80 percent of American workers do.
Yet they also found reason for some workers to fear that large language models could displace them, in line with what Sam Altman, OpenAI’s chief executive, told The Atlantic last month: “Jobs are definitely going to go away, full stop.”
The researchers asked an advanced model of ChatGPT to analyze the O*Net data and determine which tasks large language models could do. It found that 86 jobs were entirely exposed (meaning every task could be assisted by the tool). The human researchers said 15 jobs were. The job that both the humans and the A.I. agreed was most exposed was mathematician.
Just 4 percent of jobs had zero tasks that could be assisted by the technology, the analysis found. They included athletes, dishwashers and those assisting carpenters, roofers or painters. Yet even tradespeople could use A.I. for parts of their jobs like scheduling, customer service and route optimization, said Mike Bidwell, chief executive of Neighborly, a home services company.
While OpenAI has a business interest in promoting its technology as a boon to workers, other researchers said there were still uniquely human capabilities that were not (yet) able to be automated — like social skills, teamwork, care work and the skills of tradespeople. “We’re not going to run out of things for humans to do anytime soon,” Mr. Brynjolfsson said. “But the things are different: learning how to ask the right questions, really interacting with people, physical work requiring dexterity.”
For now, large language models will probably help many workers be more productive in their existing jobs, researchers say, akin to giving office workers, even entry-level ones, a chief of staff or a research assistant (though that could signal trouble for human assistants).
Take writing code: A study of Github’s Copilot, an A.I. program that helps programmers by suggesting code and functions, found that those using it were 56 percent faster than those doing the same task without it.
“There’s a misconception that exposure is necessarily a bad thing,” Ms. Mishkin said. After reading descriptions of every occupation for the study, she and her colleagues learned “an important lesson,” she said: “There’s no way a model is ever going to do all of this.”
Large language models could help write legislation, for instance, but could not pass laws. They could act as therapists — people could share their thoughts, and the models could respond with ideas based on proven regimens — but they do not have human empathy or the ability to read nuanced situations.
The version of ChatGPT open to the public has risks for workers — it often gets things wrong, can reflect human biases, and is not secure enough for businesses to trust with confidential information. Companies that use it get around these obstacles with tools that tap its technology in a so-called closed domain — meaning they train the model only on certain content and keep any inputs private.
Morgan Stanley uses a version of OpenAI’s model made for its business that was fed about 100,000 internal documents, more than a million pages. Financial advisers use it to help them find information to answer client questions quickly, like whether to invest in a certain company. (Previously, this required finding and reading multiple reports.)
It leaves advisers more time to talk with clients, said Jeff McMillan, who leads data analytics and wealth management at the firm. The tool does not know about individual clients and any human touch that might be needed, like if they are going through a divorce or illness.
Aquent Talent, a staffing firm, is using a business version of Bard. Usually, humans read through workers’ résumés and portfolios to find a match for a job opening; the tool can do it much more efficiently. Its work still requires a human audit, though, especially in hiring, because human biases are built in, said Rohshann Pilla, president of Aquent Talent.
Harvey, which is funded by OpenAI, is a start-up selling a tool like this to law firms. Senior partners use it for strategy, like coming up with 10 questions to ask in a deposition or summarizing how the firm has negotiated similar agreements.
“It’s not, ‘Here’s the advice I’d give a client,’” said Winston Weinberg, a co-founder of Harvey. “It’s, ‘How can I filter this information quickly so I can reach the advice level?’ You still need the decision maker.”
He says it’s especially helpful for paralegals or associates. They use it to learn — asking questions like: What is this type of contract for, and why was it written like this? — or to write first drafts, like summarizing a financial statement.
“Now all of a sudden they have an assistant,” he said. “People will be able to do work that’s at a higher level faster in their career.”
Other people studying how workplaces use large language models have found a similar pattern: They help junior employees most. A study of customer support agents by Professor Brynjolfsson and colleagues found that using A.I. increased productivity 14 percent overall, and 35 percent for the lowest-skilled workers, who moved up the learning curve faster with its assistance.
“It closes gaps between entry-level workers and superstars,” said Robert Seamans of N.Y.U.’s Stern School of Business, who co-wrote a paper finding that the occupations most exposed to large language models were telemarketers and certain teachers.
The last round of automation, affecting manufacturing jobs, increased income inequality by depriving workers without college educations of high-paying jobs, research has shown.
A.I. could perhaps do this again — for example, if senior managers called on large language models to do the work of junior staffers, potentially increasing the earnings of executives while displacing the jobs of those with less experience. But some scholars say large language models could do the opposite — decreasing inequality between the highest-paid workers and everyone else.
“My hope is it will actually allow people with less formal education to do more things,” said David Autor, a labor economist at M.I.T., “by lowering barriers to entry for more elite jobs that are well paid.”
Audio produced by Kate Winslett.
[ad_2]