Apple vừa thông báo về một loạt các tính năng mới về khả năng tiếp cận sắp được áp dụng vào các nền tảng phần mềm của mình trong những tháng sắp tới, bao gồm theo dõi bằng mắt, mà công ty cho biết sử dụng trí tuệ nhân tạo để cho phép những người khuyết tật về thể chất dễ dàng hơn trong việc điều hướng qua iOS và iPadOS. Một tùy chọn “âm nhạc haptic” mới sẽ sử dụng hệ thống rung Taptic Engine của iPhone để “chơi những cái nhắc, vật liệu và cảm giác rung tinh tế với âm nhạc” cho các bản nhạc trên Apple Music được hỗ trợ.
Apple cũng đang thêm các tính năng để giảm buồn nôn chuyển động cho những người dễ mắc chứng buồn nôn khi sử dụng iPhone trong xe đang di chuyển. Tất cả những tùy chọn khả năng tiếp cận mới này có khả năng ra mắt trong iOS và iPadOS 18, tuy nhiên Apple chỉ nói “trong năm nay” trước sự kiện WWDC của mình vào tháng sau. Tính năng theo dõi bằng mắt “sử dụng camera trước để thiết lập và cân chỉnh trong vài giây, và với học máy trên thiết bị, tất cả dữ liệu được sử dụng để thiết lập và kiểm soát tính năng này được lưu trữ an toàn trên thiết bị và không được chia sẻ với Apple.” Công ty cho biết rằng nó đã được thiết kế để hoạt động trên các ứng dụng iOS và iPadOS mà không cần phụ kiện hoặc phụ kiện bổ sung.
#Apple #KhảNăngTiếpCận #HứngDẫn #NgàyHômNay
Apple just announced a slew of new accessibility features coming to its software platforms in the months ahead, including eye tracking, which the company says uses artificial intelligence to let people with physical disabilities more easily navigate through iOS and iPadOS.
A new “music haptics” option will use the iPhone’s Taptic Engine vibration system to “play taps, textures, and refined vibrations to the audio of the music” for supported Apple Music tracks. Apple is also adding features to reduce motion sickness for those susceptible to it when using an iPhone in a moving vehicle.
All of these new accessibility options are likely to debut in iOS and iPadOS 18, though Apple is only saying “later this year” ahead of its WWDC event next month. The eye tracking feature “uses the front-facing camera to set up and calibrate in seconds, and with on-device machine learning, all data used to set up and control this feature is kept securely on device, and isn’t shared with Apple.” The company says it’s been designed to work across iOS and iPadOS apps without requiring any extra hardware or accessories.
Music haptics will let those who are deaf or hard of hearing “experience music on iPhone” by producing a range of vibrations, taps, and other effects in rhythm with millions of tracks on Apple Music. Apple says developers will also be able to add the feature to their own apps through a new API.
Other upcoming accessibility features include vocal shortcuts, which will let anyone “assign custom utterances that Siri can understand to launch shortcuts and complete complex tasks.” A new “Listen for Atypical Speech” feature uses machine learning to recognize someone’s unique speech patterns; this one is “designed for users with acquired or progressive conditions that affect speech, such as cerebral palsy, amyotrophic lateral sclerosis (ALS), or stroke.”
If you’re someone who often encounters motion sickness when using your tech in a moving vehicle, Apple’s got a new method for helping to reduce those unpleasant feelings:
With vehicle motion cues, animated dots on the edges of the screen represent changes in vehicle motion to help reduce sensory conflict without interfering with the main content. Using sensors built into iPhone and iPad, vehicle motion cues recognizes when a user is in a moving vehicle and responds accordingly. The feature can be set to show automatically on iPhone, or can be turned on and off in control center.
The company’s full press release contains a longer list of other accessibility capabilities that are coming to Apple’s platforms in a few months. AI and machine learning appear throughout the text, offering yet more confirmation that iOS 18, iPadOS 18, and the company’s other software platforms will go heavy on AI-powered features. Apple is reportedly in discussions with both OpenAI and Google about collaborating on some generative AI functionality.
But even outside all that, these are great steps for making Apple’s products more accessible to as many people as possible. The company announced them one day before Global Accessibility Awareness Day, which is on May 16th.