不到一个月的时间,苹果全球开发者大会 WWDC 将公布该公司即将推出的 iOS 18 和 iPadOS 18 软件更新计划。但我们已经知道今年晚些时候 iPhone 和 iPad 将推出哪些辅助功能,其中许多功能将对所有人有所帮助,而不仅仅是有辅助功能问题的用户。
5 月 15 日,Apple 公布了新的辅助功能计划,这些功能将利用 iPhone 或 iPad 上的先进硬件和软件,例如 Apple 芯片、人工智能和机器学习,为身体残障人士、语言障碍人士、视力障碍人士,甚至肠胃敏感人士提供全新的可用性工具。但即使您没有上述任何一种情况,也可以对下面列出的所有辅助功能工具感到兴奋。
1眼动追踪
苹果最受期待的辅助工具可能是为身体有障碍的用户设计的,但它将可供任何想要仅用眼睛控制 iPhone 或 iPad 的人使用。
眼动追踪使用前置摄像头设置、校准和分析您的眼球运动,使用设备内置智能功能,无需额外硬件或配件。它收集的数据安全地保存在您的设备上,因此您不必担心任何内容在传输过程中被发送或拦截。
即将推出的功能将允许您使用眼球运动浏览任何 iOS 或 iPadOS 应用程序。然后,当您将目光稳定地注视所选屏幕元素或屏幕的特定区域时,它依靠 AssistiveTouch 功能 Dwell Control 来执行操作。
停留控制传统上与鼠标或其他指针配合使用,并假设用户无法实际点击或单击任何内容。当用户将光标悬停在元素上一段时间时,它会模拟点击,甚至可以模拟滑动、物理按钮和其他手势。
2音乐触觉
借助 Music Haptics,失聪或听力障碍的用户将能够通过设备的 Taptic Engine “聆听” iPhone 上播放的音乐。当 iPhone 上播放音乐时,引擎会根据用户可以感受到的节拍产生敲击、纹理和精细的振动。苹果表示,该功能适用于 Apple Music 上的数百万首歌曲,并且将有一个 Music Haptics API,以便应用程序开发人员也可以让用户更轻松地访问音乐。
与眼动追踪一样,音乐触觉技术对任何人都开放,因此它可以为您的音乐聆听体验增添另一层含义。
3聆听非典型言语
Apple 即将推出“聆听非典型语音”功能,以提升 Siri 的语音识别能力。该工具将帮助 Siri 理解患有脑瘫、肌萎缩侧索硬化症 (ALS)、多发性硬化症 (MS)、帕金森病、创伤性脑损伤 (TBI)、中风或其他影响言语的疾病的用户。
Listen for Atypical Speech 使用人工智能和设备上的机器学习来识别用户的语音模式。虽然 Siri 显然从中受益,但它还可以在 iOS 和 iPadOS 的其他领域提供帮助,例如翻译应用、语音控制和个人语音。
语音快捷键
Listen for Atypical Speech 可以提供帮助的另一个领域是即将推出的语音快捷方式辅助功能。这些快捷方式可让您将自定义语音和话语分配给设备上的特定操作。可用的操作可能与通过Back Tap和 AssistiveTouch 可用的操作相同。
当你说出指定的声音或话语时,Siri 会理解并启动其指定的快捷方式,无论是像向下滚动页面这样简单的操作,还是像一次启动多个计时器这样更复杂的任务。
车辆运动提示
根据各种医学资料,全球人口中很大一部分人容易晕车,数字从25%到33%不等,甚至有65%不等。虽然 50 岁以上的人通常不太可能晕车,但实际上任何超过两岁的人在受到足够刺激的情况下都可能晕车。