Nhà thiên văn học NASA sử dụng Robot Mars có thể truyền cảm hứng cho một tương lai AI đạo đức hơn. Kể từ khi ChatGPT được phát hành vào cuối năm 2022, nhiều phương tiện truyền thông đã đưa ra các báo cáo về những mối đe dọa đạo đức của trí tuệ nhân tạo. Các nhà phê bình công nghệ đã đưa ra lời cảnh báo về robot giết người hướng đến sự tuyệt chủng loài người, trong khi Diễn đàn Kinh tế Thế giới dự đoán rằng máy móc sẽ lấy đi công việc.
Thực tế hữu ích AI trong lĩnh vực y tế sẽ như thế nào? Khi công nghệ đang cắt giảm số lượng nhân viên trong lĩnh vực công nghệ thông tin ngay cả khi đầu tư vào các công cụ tăng cường năng suất AI. Các nhà văn và diễn viên ở Hollywood đang đình công để bảo vệ công việc và hình thái của họ. Và các nhà nghiên cứu tiếp tục chỉ ra cách những hệ thống này làm tăng các định kiến hiện có hoặc tạo ra những công việc không ý nghĩa – giữa vô số các vấn đề khác.
Có một cách tốt hơn để đưa trí tuệ nhân tạo vào nơi làm việc. Tôi biết vì tôi đã thấy, như là một nhà xã hội học làm việc với các nhóm tàu vũ trụ robot của NASA. Các nhà khoa học và kỹ sư mà tôi nghiên cứu đang bận rộn khám phá bề mặt sao Hỏa với sự giúp đỡ của robot trang bị AI. Nhưng công việc của họ không phải là một giấc mơ khoa học viễn tưởng. Đó là một ví dụ về sức mạnh của việc kết hợp trí tuệ máy móc và con người lại với nhau, để phục vụ một mục tiêu chung. Thay vì thay thế con người, những robot này hợp tác với chúng ta để mở rộng và bổ sung các phẩm chất con người. Trong quá trình đó, chúng tránh các khó khăn đạo đức chung và vẽ một con đường nhân văn để làm việc với AI.
Câu chuyện thay thế trong AI: Câu chuyện về robot giết người và mất việc là minh chứng cho cách mọi người nghĩ về AI. Theo quan điểm này, con người có thể và sẽ bị thay thế bởi máy móc tự động hóa. Giữa mối đe dọa tồn tại có hứa hẹn về lợi thế kinh doanh như hiệu suất tăng cao, tăng biên lợi nhuận và thời gian nghỉ giải trí nhiều hơn.
Bằng chứng kinh nghiệm cho thấy tự động hóa không giảm chi phí. Thay vào đó, nó tăng độ bất bình đẳng bằng cách đẩy người lao động vị trí thấp và tăng chi phí lương cho người lao động vị trí cao vẫn còn lại. Trong khi đó, công cụ năng suất ngày nay thúc đẩy nhân viên làm việc nhiều hơn cho nhà tuyển dụng của họ, chứ không phải ít hơn.
Các phương án thay thế cho thẳng tiến: Các hệ thống “tự động hóa kết hợp” là những nơi mà con người và robot làm việc cùng nhau. Ví dụ, xe tự lái phải được lập trình để hoạt động trong giao thông cùng với người lái xe. Tự trị là “kết hợp” vì cả con người và robot hoạt động trong cùng một hệ thống, và hành động của họ ảnh hưởng lẫn nhau.
Tuy nhiên, tự trị kết hợp thường xem là một bước tiến trên con đường thay thế. Và nó có thể dẫn đến các hệ thống mà con người chỉ việc cung cấp, lựa chọn hoặc dạy các công cụ AI. Điều này tạo áp lực cho con người với “nhiệm vụ bóp chày” – các nhiệm vụ đơn giản, vụn vặt mà các nhà lập trình hy vọng học máy sớm sẽ làm lỗi thời.
Thay thế gây ra các tín hiệu đỏ cho đạo đức của AI. Công việc như gắn thẻ nội dung để đào tạo AI hay làm sạch bài đăng Facebook thường có nhiệm vụ gây chấn thương và có mức tiền công thấp được phân phối rải rác trên Dịch vụ Nam lục. Và rất nhiều nhà thiết kế phương tiện tự động chú trọng vào “vấn đề xe điện” – xác định khi nào hoặc liệu việc chạy qua người đi bộ có đạo đức hay không.
Nhưng nghiên cứu của tôi với các nhóm tàu vũ trụ robot tại NASA cho thấy khi các công ty từ chối truyền thiên tài thay thế và chọn xây dựng các đội làm việc con người-robot thay vào đó, nhiều vấn đề đạo đức với AI biến mất.
Mở rộng thay vì thay thế: Nhóm con người-robot chắc chắn làm tốt hơn khi họ mở rộng và tăng cường khả năng con người thay vì thay thế chúng. Kỹ sư chế tạo ra máy móc có thể làm công việc mà con người không thể làm. Sau đó, họ kết hợp công việc của máy và con người một cách thông minh, làm việc hướng tới mục tiêu chung.
Thường thì, sự hợp tác này có nghĩa là gửi robot làm nhiệm vụ mà con người không an toàn về mặt vật lý. Dò mìn, tìm kiếm và cứu hộ, các trực thăng không gian và robot dưới biển sâu là các ví dụ thực tế. Hợp tác cũng có nghĩa là tận dụng các điểm mạnh kết hợp của cả cảm giác hoặc trí tuệ của robot và con người. Sau tất cả, có nhiều khả năng mà robot có mà con người không có – và ngược lại.
Ví dụ, mắt người trên sao Hỏa chỉ có thể nhìn thấy một cảnh quan mờ ảo, một mặt đất màu đỏ bụi và sự căng thẳng trải dài tới chân trời. Vì vậy, kỹ sư trang bị máy chụp Mars với bộ lọc để “nhìn” các bước sóng ánh sáng mà con người không thể nhìn thấy trong hồng ngoại, mang lại những bức ảnh màu sắc nổi bật. Trong khi đó, AI trên Rover không thể tạo ra phát hiện khoa học. Chỉ bằng cách kết hợp kết quả cảm biến sặc sỡ với cuộc thảo luận của các chuyên gia, các nhà khoa học có thể sử dụng ánh mắt robot này để khám phá những sự thật mới về sao Hỏa.
Dữ liệu tôn trọng: Một thách thức đạo đức khác đối với AI là cách thu thập và sử dụng dữ liệu. AI sinh học được đào tạo trên tác phẩm của các nghệ sĩ và nhà văn mà không có sự đồng ý của họ, tập dữ liệu thương mại đầy định kiến và ChatGPT “mơ đáp” câu trả lời cho câu hỏi. Hậu quả thực tế của việc sử dụng dữ liệu này trong AI gây ra từ vụ kiện đến sự phân tích chủng tộc.
Robot trên sao Hỏa cũng phụ thuộc vào dữ liệu, năng lượng tính toán và kỹ thuật học máy để làm nhiệm vụ của mình. Nhưng dữ liệu họ cần là thông tin về hình ảnh và khoảng cách để tạo ra đường lái hoặc gợi ý hình ảnh mới thú vị. Bằng cách tập trung vào thế giới xung quanh chúng thay vì thế giới xã hội của chúng ta, các hệ thống robot này tránh được các câu hỏi liên quan đến giám sát, định kiến và khai thác mà gây phiền toái cho AI ngày nay.
Đạo đức chăm sóc: Robot có thể đoàn kết nhóm các nhóm làm việc với chúng bằng cách kích thích cảm xúc con người khi được tích hợp một cách mượt m
Nguồn: https://gizmodo.com/nasa-mars-rovers-ethical-future-ai-1850866356
Since ChatGPT’s release in late 2022, many news outlets have reported on the ethical threats posed by artificial intelligence. Tech pundits have issued warnings of killer robots bent on human extinction, while the World Economic Forum predicted that machines will take away jobs.
The tech sector is slashing its workforce even as it invests in AI-enhanced productivity tools. Writers and actors in Hollywood are on strike to protect their jobs and their likenesses. And scholars continue to show how these systems heighten existing biases or create meaningless jobs – amid myriad other problems.
There is a better way to bring artificial intelligence into workplaces. I know, because I’ve seen it, as a sociologist who works with NASA’s robotic spacecraft teams.
The scientists and engineers I study are busy exploring the surface of Mars with the help of AI-equipped rovers. But their job is no science fiction fantasy. It’s an example of the power of weaving machine and human intelligence together, in service of a common goal. Instead of replacing humans, these robots partner with us to extend and complement human qualities. Along the way, they avoid common ethical pitfalls and chart a humane path for working with AI.
The replacement myth in AI
Stories of killer robots and job losses illustrate how a “replacement myth” dominates the way people think about AI. In this view, humans can and will be replaced by automated machines. Amid the existential threat is the promise of business boons like greater efficiency, improved profit margins and more leisure time.
Empirical evidence shows that automation does not cut costs. Instead, it increases inequality by cutting out low-status workers and increasing the salary cost for high-status workers who remain. Meanwhile, today’s productivity tools inspire employees to work more for their employers, not less.
Alternatives to straight-out replacement are “mixed autonomy” systems, where people and robots work together. For example, self-driving cars must be programmed to operate in traffic alongside human drivers. Autonomy is “mixed” because both humans and robots operate in the same system, and their actions influence each other.
However, mixed autonomy is often seen as a step along the way to replacement. And it can lead to systems where humans merely feed, curate or teach AI tools. This saddles humans with “ghost work” – mindless, piecemeal tasks that programmers hope machine learning will soon render obsolete.
Replacement raises red flags for AI ethics. Work like tagging content to train AI or scrubbing Facebook posts typically features traumatic tasks and a poorly paid workforce spread across the Global South. And legions of autonomous vehicle designers are obsessed with “the trolley problem” – determining when or whether it is ethical to run over pedestrians.
But my research with robotic spacecraft teams at NASA shows that when companies reject the replacement myth and opt for building human-robot teams instead, many of the ethical issues with AI vanish.
Extending rather than replacing
Strong human-robot teams work best when they extend and augment human capabilities instead of replacing them. Engineers craft machines that can do work that humans cannot. Then, they weave machine and human labor together intelligently, working toward a shared goal.
Often, this teamwork means sending robots to do jobs that are physically dangerous for humans. Minesweeping, search-and-rescue, spacewalks and deep-sea robots are all real-world examples. Teamwork also means leveraging the combined strengths of both robotic and human senses or intelligences. After all, there are many capabilities that robots have that humans do not – and vice versa.
For instance, human eyes on Mars can only see dimly lit, dusty red terrain stretching to the horizon. So engineers outfit Mars rovers with camera filters to “see” wavelengths of light that humans can’t see in the infrared, returning pictures in brilliant false colors. Meanwhile, the rovers’ onboard AI cannot generate scientific findings. It is only by combining colorful sensor results with expert discussion that scientists can use these robotic eyes to uncover new truths about Mars.
Respectful data
Another ethical challenge to AI is how data is harvested and used. Generative AI is trained on artists’ and writers’ work without their consent, commercial datasets are rife with bias, and ChatGPT “hallucinates” answers to questions. The real-world consequences of this data use in AI range from lawsuits to racial profiling.
Robots on Mars also rely on data, processing power and machine learning techniques to do their jobs. But the data they need is visual and distance information to generate driveable pathways or suggest cool new images.
By focusing on the world around them instead of our social worlds, these robotic systems avoid the questions around surveillance, bias and exploitation that plague today’s AI.
The ethics of care
Robots can unite the groups that work with them by eliciting human emotions when integrated seamlessly. For example, seasoned soldiers mourn broken drones on the battlefield, and families give names and personalities to their Roombas. I saw NASA engineers break down in anxious tears when the rovers Spirit and Opportunity were threatened by Martian dust storms.
Unlike anthropomorphism – projecting human characteristics onto a machine – this feeling is born from a sense of care for the machine. It is developed through daily interactions, mutual accomplishments and shared responsibility. When machines inspire a sense of care, they can underline – not undermine – the qualities that make people human.
A better AI is possible
In industries where AI could be used to replace workers, technology experts might consider how clever human-machine partnerships could enhance human capabilities instead of detracting from them.
Script-writing teams may appreciate an artificial agent that can look up dialog or cross-reference on the fly. Artists could write or curate their own algorithms to fuel creativity and retain credit for their work. Bots to support software teams might improve meeting communication and find errors that emerge from compiling code.
Of course, rejecting replacement does not eliminate all ethical concerns with AI. But many problems associated with human livelihood, agency and bias shift when replacement is no longer the goal.
The replacement fantasy is just one of many possible futures for AI and society. After all, no one would watch Star Wars if the droids replaced all the protagonists. For a more ethical vision of humans’ future with AI, you can look to the human-machine teams that are already alive and well, in space and on Earth.
Janet Vertesi, Associate Professor of Sociology, Princeton University
This article is republished from The Conversation under a Creative Commons license. Read the original article.
[ad_2]