Tùy chỉnh Cử Động Thể Hiện Bằng Thị Giác Từ Một Bài Hướng Dẫn
Nhận dạng cử động tay đang trở nên phổ biến hơn trong tương tác giữa con người và máy tính, đặc biệt là khi camera lan rộng trên các thiết bị hàng ngày. Mặc dù có sự tiến triển liên tục trong lĩnh vực này, việc tùy chỉnh cử động thường ít được khai thác. Việc tùy chỉnh rất quan trọng vì nó cho phép người dùng xác định và thể hiện cử động một cách tự nhiên, dễ nhớ và dễ tiếp cận hơn. Tuy nhiên, việc tùy chỉnh yêu cầu việc sử dụng hiệu quả dữ liệu do người dùng cung cấp. Chúng tôi giới thiệu một phương pháp cho phép người dùng dễ dàng thiết kế cử động theo yêu cầu với một camera đơn từ một bài hướng dẫn. Chúng tôi sử dụng các kỹ thuật biến đổi và học siêu để giải quyết các thách thức học bài tập ít mẫu. Khác với các nghiên cứu trước, phương pháp của chúng tôi hỗ trợ bất kỳ sự kết hợp nào của cử động một tay, hai tay, tĩnh và động, bao gồm các góc nhìn khác nhau và khả năng xử lý những cử động tay không liên quan. Chúng tôi thực hiện ba ứng dụng thực tế sử dụng phương pháp tùy chỉnh của chúng tôi, tiến hành một nghiên cứu người dùng và đạt được độ chính xác nhận dạng trung bình lên đến 94% từ một bài hướng dẫn. Công việc của chúng tôi cung cấp một con đường khả thi cho việc tùy chỉnh cử động dựa trên thị giác, mở ra cơ hội cho sự tiến bộ trong lĩnh vực này trong tương lai.
#sựkiệnngày #tùychỉnhcửđộngtay #thịgiác #họcBàiítmẫu
Nguồn: https://machinelearning.apple.com/research/gesture-customization
Hand gesture recognition is becoming a more prevalent mode of human-computer interaction, especially as cameras proliferate across everyday devices. Despite continued progress in this field, gesture customization is often underexplored. Customization is crucial since it enables users to define and demonstrate gestures that are more natural, memorable, and accessible. However, customization requires efficient usage of user-provided data. We introduce a method that enables users to easily design bespoke gestures with a monocular camera from one demonstration. We employ transformers and meta-learning techniques to address few-shot learning challenges. Unlike prior work, our method supports any combination of one-handed, two-handed, static, and dynamic gestures, including different viewpoints, and the ability to handle irrelevant hand movements. We implement three real-world applications using our customization method, conduct a user study, and achieve up to 94% average recognition accuracy from one demonstration. Our work provides a viable path for vision-based gesture customization, laying the foundation for future advancements in this domain.
[ad_2]