Các giám đốc cấp cao của Apple phân tích các tính năng mới của AirPods. AirPods chỉ được đề cập một cách nhàn hạ trong bài thuyết trình tại sự kiện của Apple. Điều đó là dễ hiểu – iPhone 15 và Apple Watch Series 9 (và Ultra 2) mới là tâm điểm. Ngoài ra, tai nghe không nhận được cùng cách cập nhật phần cứng. Như thông cáo báo chí sau sự kiện xác nhận, thay đổi vật lý lớn nhất đối với AirPods Pro 2 là việc sử dụng hộp sạc USB-C (thực ra đã được chờ đợi từ lâu). Bạn có thể tha thứ cho việc nghĩ rằng thông tin về AirPods đã kết thúc ở đó. Tuy nhiên, tai nghe cao cấp của Apple cũng đã nhận được cập nhật phần mềm đáng kể, dưới dạng các chế độ nghe mới có thể truy cập thông qua vài thao tác trên iOS 17 trong cả hai phiên bản AirPods Pro 2 (USB-C và Lightning). Khi kết nối với các phiên bản mới, trượt xuống để mở Trung tâm Điều khiển và sau đó nhấn giữ thanh trượt âm lượng. Ba tùy chọn chế độ sẽ xuất hiện dưới đây: Hủy tiếng ồn, Nhận thức Trò chuyện và Âm thanh Không gian. Đây là hai chế độ đầu tiên được yêu thích trong năm nay. Âm thanh thích ứng đã được thêm vào các tùy chọn, cùng với Chế độ hủy tiếng ồn tiêu chuẩn, Trong suốt và tắt. Khi chạm vào tùy chọn mới, nó sẽ được làm nổi bật với một nền cầu vồng. Tính năng mới này tự động chuyển đổi giữa các cài đặt khác nhau trong thời gian thực. Đây là cố gắng để đem cả hai mặt của phổ âm thanh vào cùng một cài đặt, vì vậy bạn có thể đi dọc một con đường đông đúc với nhận thức tình huống, trong khi không chịu tác động tiếng ồn đầy đủ của xe gom rác khi nó đi qua. Mặc dù có tên giống với tính năng Adaptive Transparency của năm ngoái, Adaptive Audio cung cấp một loạt các chế độ với cả chế độ trong suốt và hủy tiếng ồn. “Adaptive Transparency, mà chúng tôi đã công bố năm ngoái, phải diễn ra rất nhanh”, Giám đốc Tiếp thị Sản phẩm Eric Treski chia sẻ trong cuộc trò chuyện với TechCrunch. “Điều này xảy ra ở mức 40.000 lần mỗi giây. Đó không chỉ là việc giám sát, mà còn là việc giảm tiếng ồn. Để giảm điều đó nhanh chóng, nó cần diễn ra trong thời gian thực. Âm thanh thích ứng chậm hơn một chút trong khoảng vài giây, vì nó được thiết kế để là quá trình cẩn thận hơn để biết bạn đang nghe gì. Chúng tôi chuyển từ Âm thanh thích ứng sang trong suốt, vì vậy – để làm cho nó không bị giật và thoải mái hơn – nó chậm hơn một cách tự nhiên cho lý do đó”. Hệ thống cũng tính đến xem nội dung bạn đang nghe là âm nhạc hay podcast. Điều đó được xác định dựa trên các thẻ từ ứng dụng như Apple Music. Một micro cũng đo âm lượng bên trong tai của bạn để có cái nhìn chính xác về âm lượng bạn đang trải nghiệm. “Bởi vì nếu bạn chỉ đo âm lượng mà bạn nghĩ rằng bạn đang phát vào tai người khác”, Phó Chủ tịch Cảm biến và Kết nối Ron Huang giải thích, phụ thuộc vào cách họ đeo và các yếu tố khác, nó có thể không chính xác hơn”. Huang nói với TechCrunch rằng công ty đã xem xét việc sử dụng GPS của thiết bị của bạn để xác định mức độ âm thanh dựa trên vị trí. Tuy nhiên, trong thử nghiệm thực tế, phương pháp này chứng tỏ không hiệu quả. “Trong quá trình khám phá sớm về Âm thanh thích ứng, chúng tôi về cơ bản đưa bạn vào chế độ ANC so với việc trong suốt, dựa trên nơi bạn ở”, Huang cho biết. “Bạn có thể tưởng tượng điện thoại có thể đưa ra gợi ý cho AirPods và nói, ‘ừ, bạn ở trong nhà’ và cả những điều đó. Đó là một cách để làm điều đó, nhưng sau tất cả những gì chúng tôi đã học được, chúng tôi nghĩ rằng đó không phải là cách đúng để làm điều đó, và đó không phải là những gì chúng tôi đã làm. Tất nhiên, nhà của bạn không luôn luôn yên tĩnh và đường phố cũng không luôn ồn ào. Chúng tôi quyết định, thay vì dựa vào gợi ý vị trí từ điện thoại, AirPods giám sát môi trường xung quanh bạn theo thời gian thực và tự mình đưa ra những quyết định thông minh đó”. Volume Cá nhân cũng là một phần quan trọng của trải nghiệm Âm thanh thích ứng. Hệ thống kết hợp một bể dữ liệu người dùng với các sở thích cá nhân để xây dựng một hình ảnh tổng quan về thói quen nghe của người nghe, phối hợp với “học máy để hiểu điều kiện môi trường và sở thích nghe trong thời gian để tự động điều chỉnh trải nghiệm truyền thông”, theo Apple. Bao gồm một số chỉ số khác nhau. “Chúng tôi đã lấy hàng chục nghìn giờ ghi âm khác nhau – người dùng khác nhau nghe nội dung khác nhau và với tiếng ồn nền khác nhau – để thực sự hiểu các sở thích nghe khác nhau, và những gì là những yếu tố gây phiền nhiễu và xâm lược từ mặt gọi là yếu tố tiếng ồn để giữ nội dung của bạn rõ ràng”, Huang thêm. “Chúng tôi cũng ghi nhớ sở thích cá nhân của bạn. Dựa trên một loại môi trường, mức độ tiếng ồn ở đó, mức độ ồn thông thường bạn nghe nội dung của mình, và lưu lại cho bạn. Chúng tôi thêm nó vào mô hình học máy của chúng tôi để làm cho nó hoạt động tốt hơn cho bạn”. Chế độ quan trọng khác được giới thiệu thông qua iOS 17 là Nhận thức Trò chuyện, có thể làm giảm âm lượng bài hát khi bạn bắt đầu nói chuyện. Tiếng nói bên ngoài sẽ không kích hoạt hiệu ứng này, chỉ người đeo tai nghe mới. Apple có thể thực hiện hiệu ứng này mà không cần giữ các hồ sơ giọng nói trên tai nghe. Thay vào đó, nó sử dụng một số cảm biến trên tai nghe. Khi các mic nghe thấy giọng nói và các cảm biến gia tốc đo được sự di chuyển của hàm, tính năng đó được kích hoạt. Thời gian kéo dài của nó phụ thuộc vào nhiều yếu tố khác nhau. Tôi cảm phục khả năng của tính năng này trong việc tránh bị kích hoạt bởi các âm thanh như ngáy hoặc sự rõ ràng. Nhóm cũng đã thử nghiệm một cách khác để khắc phục một lỗi tiêu biểu của tai nghe không dây: việc chuyển đổi. Khoảng thời gian năm giây giữa việc nhận cuộc gọi và nghe nó trên tai nghe có vẻ như mãi mãi. Để tận dụng tốc độ chuyển đổi mới, người dùng phải hoạt
Nguồn: https://techcrunch.com/2023/09/25/apple-executives-break-down-airpods-new-features/
AirPods only got a passive mention during the keynote at Apple’s event. It’s understandable — the iPhone 15 and Apple Watch Series 9 (and Ultra 2) were center stage. Besides, the headphones didn’t get the same manner of hardware updates. As a press release issued after the event confirmed, the biggest physical change to the AirPods Pro 2 is the (admittedly long-awaited) arrival of a USB-C charging case.
You would be forgiven for thinking the AirPods news ended there. However, Apple’s high-end earbuds also received a meaningful software update, in the form of new listening modes that can be accessed with a few taps in iOS 17 in both versions of the AirPods Pro 2 (USB-C and Lightning).
With the new models connected, swipe down to pull up Control Center and then long-press the volume slide. Three mode selections will pop up below: Noise Cancellation, Conversational Awareness and Spatial Audio. It’s the first two that are getting the love this year.
Adaptive Audio has been added to the options, alongside standard Noise Cancellation, Transparency and off. Tapping the new option, it gets highlighted with a rainbow backdrop. The new feature seamlessly flits between different settings in real time. It’s a bid to bring both ends of the spectrum to single setting, so you can walk down a crowded street with situational awareness, while not getting the full noise impact of the trash truck as it drives by.

Image Credits: Apple
Although similarly named to last year’s Adaptive Transparency feature, Adaptive Audio offers a full spectrum of modes, with both transparency and noise cancellation playing a role.
“Adaptive Transparency, which we announced last year, that has to happen really quickly,” Product Marketing Director Eric Treski said in a conversation with TechCrunch. “That happens at 40,000 times a second. That’s not only the monitoring, that’s the reduction as well. In order to bring that down quickly, it needs to be happening in real time. Adaptive audio is a little bit slower over the course of a few seconds, because it’s meant to be a much more methodical process to know what you’re listening to. We’re going from Adaptive Audio into transparency, so — in order to make it less jarring and more comfortable — it’s much more purposely slower for that reason.”
The system also factors in whether the content you’re listening to is music versus a podcast. That’s determined based on tagging from apps like Apple Music. A microphone also measures the volume inside your ear to get a true sense of the volume you’re experiencing. “Because if you only measure the loudness that you think you’re playing into someone’s ears,” VP of Sensing and Connectivity Ron Huang explains, depending on how they’re wearing it and other factors, it may be less accurate.”
Huang tells TechCrunch that the company considered leveraging your device’s GPS to determine sound levels based on location. In real-world testing, however, the method proved inefficient.
“During early exploration for Adaptive Audio, we basically put you in ANC versus transparency, based on where you are,” says Huang. “You can imagine the phone can give a hint to the AirPods and say, “hey, you’re in the house” and so forth. That is a way to do that, but after all our learnings, we don’t think that is the right way to do it, and that is not what we did. Of course, your house is not always quiet and the streets are not always loud. We decided that, instead of relying on a location hint from the phone, the AirPods monitor your environment in real time and make those decisions intelligently on their own.”

Image Credits: Darrell Etherington
Personalized Volume is also a big part of the Adaptive Audio experience. The system combines a pool of user data with personalized preferences to build a fuller picture of listener habits, paired with “machine learning to understand environmental conditions and listening preferences over time to automatically fine-tune the media experience,” according to Apple. Several different metrics are included.
“We took tens of thousands of hours of different data — different users listening to different content and with different background noise — to really understand different listening preferences, and what are distractors and aggressors from a noise standpoint to keep your content really clear,” Huang ads. “We also remember your personal preferences. Given a type of environment, the amount of noise there, how loud you typically listen to your content, and remember it for you. We add it to our machine learning model to make it work even better for you.”
The other big mode introduced through iOS 17 is Conversational Awareness, which turns down the track’s volume when you begin speaking. External voices won’t trigger the effect, though — just the wearers. Apple is able to accomplish this effect without keeping on-board voice profiles. Instead, it leverages a number of on-board sensors. When the mics hear a voice and the accelerometer detects jaw movement, the feature ticks on. How long it lasts depends on a variety of different factors. I was impressed with the feature’s ability to avoid being triggered by things like a throat clear or yawn.
The team also took a stab at another longstanding earbud bugbear: switching. That-five second gap between picking up a call and hearing it on your earbuds feels like forever. Taking advantage of new switching speed requires the user to be locked into the Apple ecosystem.

Image Credits: Apple
“Connection times for our AirPods to our devices are way faster with this new software update,” says Huang. “That comes from all of the different ways we are using to discover nearby devices. It’s really key for us to know what the iPhone is doing, what the iPad is doing, what the Mac is doing. A phone call is more important than music, so when you’re answering a phone call, we make sure we take the route away from the iPhone and connect with your Mac for the conference call, for example.”
The last big piece of the AirPods announcement is Vision Pro connectivity. For the full audio experience, those using Apple’s upcoming spatial computing headset should bring along the new AirPods Pro for ultra low latency lossless audio.
“Bluetooth typically runs on 2.4 gigahertz, and that airspace is very, very noisy,” says Huang. “Everybody’s running on 2.4. That’s why routers Wi-Fi routers, for example, are typically dual-band if not tri-band, because the 5Ghz spectrum is that much cleaner. To get to really, really low latency audio, and to get to really high fidelity, lossless audio — it’s all about a very, very clean and real-time channel between two. The combination of 5Ghz and the fact that they are very proximal allowed us to do that. We’re able to basically redesign a brand new audio protocol over the 5Ghz for AirPods.”
[ad_2]