iphone · 2023年5月17日

苹果ios 17辅助功能更新了新的“个人语音”功能

iosid.me消息:作为今年即将推出的iOS 17辅助功能更新预览的一部分,Apple宣布了两项名为Live Speech和个人语音的新功能。实时语音允许用户键入他们想要说出的内容并说出来。

另一方面,个人声音是那些有可能失去说话能力的人创造和保存听起来像他们的声音的一种方式。苹果表示,它是为那些有失去说话能力风险的人设计的,比如那些最近被诊断出患有ALS的人。

借助 iPhone、iPad 和 Mac 上的实时语音,用户可以键入他们想说的内容,以便在电话和 FaceTime 通话以及面对面对话中大声说出来。用户还可以保存常用短语,以便在与家人、朋友和同事的热烈交谈中快速插话。实时语音旨在为全球数百万无法说话或随着时间的推移失去语言的人提供支持。

基于实时语音构建是苹果称之为个人语音的东西;这是一个非常强大的功能,苹果公司表示,它是为有可能失去说话能力的用户设计的。这包括最近诊断出患有ALS(肌萎缩侧索硬化症)的人,这是一种随着时间的推移逐渐影响说话能力的疾病。

使用个人语音,系统将提示用户阅读一组随机的文本提示,以在 iPhone 或 iPad 上录制 15 分钟的音频。使用设备上的机器学习,iPhone 或 iPad 可以创建听起来像它们的声音。

然后,此语音功能与实时语音集成,因此用户可以在 FaceTime 通话和面对面对话中使用其个人语音说话。

苹果的公告:

对于有丧失说话能力风险的用户,例如最近诊断出患有ALS(肌萎缩侧索硬化症)或其他可能逐渐影响说话能力的疾病的用户,个人语音是一种简单而安全的方式来创建听起来像他们的声音。

用户可以通过阅读一组随机的文本提示来创建个人语音,以在iPhone或iPad上录制15分钟的音频。此语音辅助功能使用设备上的机器学习来保护用户信息的私密性和安全性,并与实时语音无缝集成,以便用户在与亲人联系时可以使用其个人语音说话。

从本质上讲,此功能的作用是让人们能够通过阅读Apple预先制作的提示来在iPhone上创建合成语音。菲利普·格林(Philip Green)于2018年被诊断出患有ALS,是格里森团队非营利组织的董事会成员和倡导者,他在周二的一份声明中赞扬了苹果的努力:

归根结底,最重要的是能够与朋友和家人沟通,“格里森团队非营利组织的董事会成员兼ALS倡导者菲利普格林说,自2018年接受ALS诊断以来,他的声音发生了重大变化。“如果你能用听起来像你的声音告诉他们你爱他们,那么世界就会变得不同——能够在短短 15 分钟内在 iPhone 上创建合成声音是非同寻常的。

苹果表示,这些新的辅助功能将在今年晚些时候开始推出。除了实时语音和个人语音之外,Apple还宣布了许多其他新的辅助功能。

有网友称:苹果一直是辅助功能领域的领导者,今天的公告只是最新的例子。但比以往任何时候都更能引起我的共鸣。我妈妈在与ALS进行了短暂的七个月的战斗后于12月去世。她的声音是她失去的第一件事。事实上,当她真正被正式诊断出患有ALS时,她的声音已经消失了。

光是读到这篇新闻稿,我就感动得热泪盈眶。个人语音功能让我希望患有ALS和其他影响语言的疾病的人可能会遭受更少的痛苦。我希望当我们的妈妈在这里时,这是一个功能,但我很高兴这对其他人来说即将出现。

我什至会说,我认为每个人都应该花 15 分钟设置个人语音功能,一旦它可用。正如我和我的姐妹们从妈妈那里学到的那样,你的说话能力可以在几周内被剥夺,到那时设置个人声音之类的东西可能为时已晚。

虽然我肯定有一些问题和具体细节,我正在等待苹果回答这个功能,但如果有一家公司我信任能把个人语音这样的东西做好,那就是苹果。