Nhà nghiên cứu Hà Lan ra mắt – Thật à? – Một trình phát hiện châm biếm AI

Nhóm nghiên cứu Hà Lan giới thiệu máy phát hiện sự mỉa mai của trí tuệ nhân tạo – như thật! Hôm nay, các nhà nghiên cứu Hà Lan đã thông báo về việc huấn luyện trí tuệ nhân tạo để nhận biết mỉa mai. Matt Coler, một nhà nghiên cứu tại phòng thí nghiệm công nghệ ngôn ngữ của Đại học Groningen, cho biết: “Chúng tôi có thể nhận diện mỉa mai một cách đáng tin cậy, và chúng tôi rất háo hức để phát triển nó. Chúng tôi muốn xem tận cùng chúng ta có thể đẩy nhanh tiến triển ấy đến đâu.”

Tiếp tục: “Khi bắt đầu nghiên cứu mỉa mai, bạn trở nên cực kỳ nhận thức đến mức độ mà chúng ta sử dụng nó như một phần bình thường của cách giao tiếp của chúng ta. Nhưng chúng ta phải nói chuyện với các thiết bị của mình một cách rất đúng nghĩa, như thể chúng ta đang nói chuyện với một robot, bởi vì đúng là vậy. Điều này không cần phải như vậy.”

Trong quá trình phát triển trí tuệ nhân tạo của họ, nhóm nghiên cứu đã tái khẳng định cho mình rõ ràng mức độ quan trọng của các gợi ý xã hội không ngôn ngữ như cách giao tiếp và biểu hiện khuôn mặt khi nói đến việc phát hiện sự mỉa mai. Họ phát hiện rằng các gợi ý nhiều lớp quan trọng hỗ trợ máy nhận biết giữa những người mỉa mai và những người nói chân thành.

Giới thiệu Mustard: Trí tuệ nhân tạo phát hiện mỉa mai
Nhóm nghiên cứu trên khắp Mỹ và Singapore đã xây dựng cơ sở dữ liệu (được biết đến với tên gọi Mustard) chứa các video clip thể hiện sự mỉa mai từ các chương trình truyền hình như Friends và The Big Bang Theory.

PhD sinh viên Xiyuan Gao sau đó mô tả cách những nhà nghiên cứu sử dụng Mustard để huấn luyện mạng neural về cách phát hiện mỉa mai. Sau khi huấn luyện trí tuệ nhân tạo trên các cảnh này, cả âm thanh và dạng văn bản, được cung cấp qua máy, phát hiện rằng máy có thể nhận ra mỉa mai 75% trong số.

Trong khi đó, Gao thêm rằng độ chính xác của máy có thể được tăng lên bằng cách thêm các gợi ý hình ảnh vào quá trình huấn luyện của trí tuệ nhân tạo như cử chỉ và giơ lông mày, “Liệu chúng ta có thể có một máy mà là 100% chính xác?” Gao hỏi. “Đó không phải là điều mà ngay cả con người cũng có thể đạt được.”

Dù sao, ít nhất đây là ít kinh hoàng hơn so với trí tuệ nhân tạo xúc phạm hướng dẫn một cách cố ý.

Hình ảnh nổi bật: CBS
#trítuệnhântạonhậnbiếtmỉamai

Nguồn: https://readwrite.com/ai-sarcasm-detector-mustard-netherlands-researchers/

They say that sarcasm is the lowest form of wit, but that hasn’t stopped a research team in the Netherlands training AI to recognize it. Matt Coler, a researcher at the University of Groningen’s speech technology lab, told The Guardian: “We are able to recognize sarcasm in a reliable way, and we’re eager to grow that. We want to see how far we can push it.”

He continued: “When you start studying sarcasm, you become hyper-aware of the extent to which we use it as part of our normal mode of communication. But we have to speak to our devices in a very literal way, as if we’re talking to a robot, because we are. It doesn’t have to be this way.”

In developing their AI, it was reaffirmed for the researchers exactly how much non-verbal social cues like delivery and facial expressions matter when it comes to detecting sarcasm. They found that numerous cues were important in helping the AI distinguish between those being sarcastic and those speaking sincerely.

Introducing Mustard: The Sarcasm AI

Researchers across the US and Singapore built up a database (known as Mustard) full of video clips showing instances of sarcasm from TV shows like Friends and The Big Bang Theory. 

Xiyuan Gao, a PhD student, then described how researchers utilized Mustard to train the neural network on how to detect sarcasm. After training the AI on these scenes, which was fed through the machine in both audio and textual formats, it was found that the AI could detect sarcasm 75% of the time. 

Meanwhile, Gao added that the accuracy of the machine could be increased by implementing more visual cues into the AI’s training like smirks and eyebrow raises, “Are we going to have a machine that is 100% accurate?” Gao asked. “That’s not something even humans can achieve.”

Either way, at least this is less terrifying than AI deliberately rejecting instructions.

Featured Image: CBS


[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *