Tại I/O, Google nói về ‘Trí Tuệ Nhân Tạo Trách Nhiệm’. Điều đó là gì? Chúng ta biết rằng sức mạnh lớn yêu cầu trách nhiệm lớn, và điều đó đặc biệt đúng trong lĩnh vực AI. Các chatbot và các công cụ AI tạo sinh khác đã lan rộng trong suốt một năm và nửa qua có thể tham gia vào cuộc trò chuyện với bạn trong các đoạn hội thoại có vẻ như của con người, viết những email và bài luận có vẻ đáng tin cậy, tạo ra âm thanh giống như các chính trị gia thực thế và tạo ra hình ảnh và video ảo gần gũi như thật.
#GoogleIO #AI #TríTuệNhânTạo
Nhiều người cho rằng không có gì phải lo lắng đúng không? Nhưng thực ra, lo lắng về AI là một vấn đề lớn, dù là về khả năng sử dụng sai lầm của con người hoặc hành vi quái độc của AI chính nó.
Đó là lý do vì sao khi một công ty như Google tổ chức một sự kiện sáng trọng cho các nhà phát triển phần mềm, nó nói về khái niệm về trí tuệ nhân tạo trách nhiệm. Điều đó được thể hiện rõ ràng trong buổi diễn thuyết chính của Google I/O vào thứ Ba, với các phát triển AI mới nhất của công ty, đặc biệt là liên quan đến chatbot Gemini của nó.
#Gemini #Chatbot #TriTuệNhânTạo
Mặc dù những tiến bộ như các cửa sổ ngữ cảnh dài, đa chủng loại và các đại lý cá nhân có thể giúp chúng ta tiết kiệm thời gian và làm việc hiệu quả hơn, chúng cũng tạo cơ hội cho các nghệ sĩ lừa đảo thực hiện gian lận… và tệ hơn. Để ngăn chặn những kết quả xấu như vậy, các nhà sản xuất AI cần phải giữ tinh thần cảnh giác. Google đã đề xuất cách tiếp cận trí tuệ nhân tạo trách nhiệm của mình, bao gồm sự kết hợp giữa tự động hoá và tư duy con người.
#CôngNghệ #PhátTriểnAI #TráchNhiệm
“Chúng tôi đang tiến hành nhiều nghiên cứu trong lĩnh vực này, bao gồm tiềm năng gây hại và sử dụng sai lầm,” James Manyika, Phó Chủ tịch nghiên cứu, công nghệ và xã hội tại Google, nói trong buổi diễn thuyết.
#NghiênCứu #XãHội #CôngNghệ
Google không đứng một mình trong việc nói về việc cần có nguyên tắc AI để giúp cân bằng sự đổi mới với tính an toàn. OpenAI, nhà sản xuất ChatGPT, trong việc công bố mô hình GPT-4o của mình vào thứ Hai, đã tham chiếu đến các nguyên tắc của riêng mình. Trong bài đăng trên blog của mình, họ lưu ý rằng “GPT-4o đã có tính an toàn được thiết kế sẵn” bao gồm các hệ thống mới “để cung cấp lan can cho đầu ra giọng nói.”
#OpenAI #NguyênTắcAI #ChatGPT
Thực ra, tìm kiếm nhanh trên Google và bạn sẽ thấy rằng hầu như mọi công ty đều có trang web dành riêng cho trí tuệ nhân tạo trách nhiệm hoặc đạo đức. Ví dụ: Microsoft, Meta, Adobe và Anthropic, cùng với OpenAI và Google chính.
#TríTuệNhânTạo #ĐạoĐức #CôngNghệ
Đây là một thách thức sẽ càng khó khăn hơn khi AI tạo ra các hình ảnh, video và âm thanh ngày càng chân thực hơn. Đây là cái nhìn vào một số điều mà Google đang làm.
#CôngNghệAI #HìnhẢnh #Video
Xem thêm: Mọi Thứ Google Vừa Thông Báo tại I/O 2024
#Google #SựKiện #ThôngBáo
Hãy để mọi người biết về sự kiện này bằng cách chia sẻ và tham gia thảo luận về trí tuệ nhân tạo trách nhiệm và vai trò của AI trong thế giới hiện đại!
We know great power requires great responsibility, and that’s especially true in AI. The chatbots and other generative AI tools that have proliferated over the last year and a half can engage you in human-sounding dialogues, write plausible emails and essays, whip up audio that sounds just like real-world politicians and create imaginary photos and videos that are closer and closer to the real thing.
I mean, what’s not to worry, right?
Actually, worrying about AI is a really big deal, whether it’s the potential for misuse by humans or rogue acts by AI itself.
Which is why when a company like Google hosts a splashy event for software developers, it talks about the notion of responsible AI. That came through clearly Tuesday during the two-hour Google I/O keynote presentation, which was heavy on the company’s latest AI developments, especially as they relate to its Gemini chatbot.
While advancements like long context windows, multimodality and personalized agents could help us save time and work more efficiently, they also present opportunities for, say, scam artists to scam… and worse.
More from Google I/O 2024
To guard against those sorts of bad outcomes, AI makers need to stay vigilant. In the keynote, Google outlined its approach to responsible AI, which includes a combination of automated and human resources.
“We’re doing a lot of research in this area, including the potential for harm and misuse,” James Manyika, senior vice president of research, technology and society at Google, said during the keynote.
Google’s not alone in talking up the need for AI principles to help balance innovation with safety. ChatGPT maker OpenAI, in announcing its GPT-4o model on Monday, referenced its own guidelines. In its blog post, it noted that “GPT-4o has safety built-in by design” including new systems “to provide guardrails on voice outputs.”
Do a quick, well, Google search and you’ll find that seemingly every company has pages dedicated to responsible or ethical AI. For instance: Microsoft, Meta, Adobe and Anthropic, along with OpenAI and Google itself.
It’s a challenge that will only get more difficult as AI yields increasingly realistic images, videos and audio.
Here’s a look at some of what Google is doing.
Watch this: Everything Google Just Announced at I/O 2024
AI-assisted red teaming
In addition to standard red teaming, which occurs when ethical hackers are allowed to emulate the tactics of malicious hackers against a company’s systems to identify weaknesses, Google is developing what it calls AI-assisted red teaming.
With this tactic, Google trains AI agents to compete with each other and thereby expand the scope of traditional red-teaming capabilities.
“We’re developing AI models with these capabilities to help address adversarial prompting, and limit problematic outputs,”Manyika said.
Google has also recruited two groups of safety experts from a range of disciplines to provide feedback on its models.
“Both groups help us identify emerging risks from cybersecurity threats to potentially dangerous capabilities in areas like chem bio,” Manyika said.
OpenAI also taps into red teaming and automated and human evaluations in the model training process to help identify risks and build guardrails.
Synth ID
To prevent misuse of its models, including the Imagen 3 image generator and the new Veo video generator, for spreading misinformation, Google is expanding its Synth ID tool, which adds watermarks to AI-generated images and audio, to text and video.
It will open source Synth ID text watermarking “in the coming months.”
Last week, TikTok announced that it would start watermarking AI-generated content
Societal benefits
Google’s responsible AI efforts also focus on how to benefit society, such as helping scientists treat diseases, predict floods and help organizations like the United Nations track progress of the world’s 17 Sustainable Development Goals.
In his presentation, Manyika focused on how generative AI can improve education, such as acting as tutors for students or assistants for teachers.
This includes a Gem, or a custom version of Gemini like ChatGPT’s custom GPTs, called Learning Coach, which provides study guidance, as well as practice and memory techniques, along with a family of Gemini models focused on learning called Lear LM. They will be accessible via Google products like Search, Android, Gemini and YouTube.
These Gems will be available in Gemini “in the coming months,” he said.
Editor’s note: CNET is using an AI engine to help create a handful of stories. Reviews of AI products like this, just like CNET’s other hands-on reviews, are written by our human team of in-house experts. For more, see CNET’s AI policy and how we test AI.