和他们聊了聊,我才知道华为为什么要“吃力不讨好”。
31 岁的梁智敏,是一位程序员。
自学了UI 和前端开发,是一名 Vue 的熟手,更是一家互联网公司的合伙人。
在这些看起来挺平常的平常标签之外,他还是一名听障人士。
从五岁开始,他的耳朵渐渐开始听不见了。
而且因为植入人工耳蜗和助听器的时间比较晚,目前听力依旧几乎为0 。
据他说,人工耳蜗在非常安静的环境下,可以正常工作。
但是只要环境音复杂了,耳朵里听到的就全都是嗡嗡的电子音,没有办法分辨有效对话。
所以这么些年,他都是用手机上的字幕软件来获取信息的。
一开始,他发现这个功能还是在塞班年代。
那个时候,诺基亚的系统上其实并没有这样的功能,但是搜狗输入法里已经有了 “ 语音输入 ” 功能,他利用这个每次只能听一句话的功能,撑了好几年。
后面随着换了智能机,性能越来越强了,专门的 AI 字幕无障碍服务开始出现,他日常与别人的交流才开始热络起来。
现在的他,因为担心遗漏错过别人找他的消息,会在工作的桌面上额外放一台手机,通过识别出来的字幕来及时和他人交流。
智敏也很高兴地跟我科普了很久这些年 AI 字幕 App 的发展:他说,一开始其实也还是听障用户之间的自救。
当时有一个会技术的听障朋友,开发了一款名叫音书的 App 。
但是因为里面的声音引擎用了讯飞的付费 API ,所以需要定期充钱才能用。
后来讯飞亲自下场,并且推出了听障免费认证,他们听障用户就不用再为实时字幕交钱了。
但是因为讯飞是第三方 App ,拿不到系统底层的权限,所以这时候的字幕 App 只能显示外界麦克风收到的声音。
手机里面,像是视频、收音机以及打电话时候的声音都是没有的。
这一块拼图,直到手机厂商自己开始做内建服务,才算最后凑齐。
我了解到智敏的这些故事,起源于华为开发者大会上一个几乎从来没有被报道过的活动。
HDC 湖畔对谈。
简单来说,就是华为邀请了真正的视障、听障、肢体残障和老年朋友们,与华为终端 BG 的首席运营官何刚以及无障碍相关业务的负责人们,来到松山湖三丫坡的草坪围坐交流。
聊一聊他们现阶段在使用手机等数码产品的时候,还有哪些问题。
以及通过华为的努力,能帮助他们再做些什么。
这次的活动持续了一整天,我现在已经参加完回来了,简单说下我的想法吧:
我觉得华为是真的不行。
他们去年就应该喊我来这个活动好吧!
有些东西确实是不交流不知道,过去我们提到无障碍,第一时间想到的就是视障、听障这些,然后系统里做点儿对应的辅助增强的工具就行了对吧?
但这样其实是远远不够覆盖 “ 无障碍 ” 这个概念的,不和真正用户交流,就没法真正解决他们的痛点。
我跟华为小伙伴聊的时候,他们就分享了不少他们从用户反馈中,做出的优化。
比如——如何保护视障用户的隐私?
以往手机开启视障读屏模式之后,屏幕亮度是不变的。
HarmonyOS 4 当中这次就对这个功能做了调整,读屏的时候,屏幕亮度会降至极低——既保护隐私,又省电。
而在此之前,手机无障碍模式播报数字密码的时候,也已经能很聪明的把输入的密码播报成 “ 点 ” 了。
又比如说,听障用户们怎么接打电话?肯定会有小伙伴说了,AI 电话.
没错,这个功能华为、小米、谷歌都有。
但是华为无障碍团队在交流的过程中,收到了听障用户的反馈说,AI 通话的音色和现在那种电话推销机器人的很像。
导致有时候他们拨出去电话还没说完一句,对方就给挂了。
因为有了这个反馈,华为才在这次 HarmonyOS 4 的小艺通话里额外加入了几个新的更自然的音色选项。
听障朋友们以后给别人拨出电话被误挂的概率应该会低很多。
甚至这个功能还被琢磨出了点其他奇妙用法。
听华为小伙伴说,他有独居的女同事也开启了这个功能,然后就可以用男声的音色去接外卖和快递的电话了
除了听障方面的钻研以外,视障这边也是如此。
去年我们测试过的无障碍视觉识别,一开始其实也不是冲着智能问答来的。
而是为了能帮用户更好的拍照。。。
他们也有朋友,也需要分享快乐,照片当然是最直观的方式了呀。
但是他们自己看不清,这时候如果相机能告诉他们,怎么把相机给挪到合适的位置就好了。
结果做着做着整到一半,华为突然发现,这个功能,诶?好像还可以做点儿别的:
比如帮视障用户确认衣柜里衣服的颜色,避免穿错了。
又或者能在一个陌生的空间里找到门的大概位置,在志愿者没到位的情况下应应急。
所以才有的后面的更丰富的播报功能,以及一来一回的智能问答。
大家不要觉得这个需求很不现实。
一开始很多小伙伴评论道: “ 视障人士怎么能举起手机对准目标呢? ”
在评论区里说华为这个功能堪比太阳能手电筒、虚空索敌。
直到一些真的视障朋友也刷到了视频,在评论区现身说法之后大家才知道。
其实大部分视障朋友其实也还是有色块和空间感知的能力在的.
他们能看到,只是看不清。
而这次交流之后我更是知道了,这个功能甚至就是视障朋友们给华为提出来的,而不是反过来。
很多时候,企业责任就是在这些小细节上体现的.
让用户反向提出需求,一定才是无障碍功能使用体验提升的最佳路径。
不过交流之后我发现,华为的小伙伴他们自己内部对现在的成果还是不太满意的。
尽管一年过去了,现在还是只有苹果、华为有这项技术。
但华为的小伙伴还是觉得可以继续打磨一下问答的部分,支持上更自然和复杂的提问,那就就又能帮助到比现在更多的人了。
假如真能做成了,到时候他们就真的没竞品了。
确实。。。是一家自己卷自己的企业哈。
回到智敏身上,在和他交流的时候,我听到他说他从P8 开始一路用到了现在的Mate 40 。
就挺好奇的问了他一下,作为一个听障人士,为什么一直选的华为?
结果没想到理由非常之朴素。
因为华为信号好。
草率了,曾经我一直以为手机上的 AI 字幕是离线运行的。
但其实现在除了小部分旗舰机有 NPU 运算的方案,绝大多数手机的 AI 字幕还是只能靠联网识别。
那这个时候识别的效果稳不稳,完全就是看信号稳不稳了。
智敏说他之前用其他手机的时候,有时候明明还有那么一两格信号,但是字幕就卡住了,只能干着急。
但是换了华为之后,他在电梯和地库里面,几乎没有遇到过问题。就导致他对华为的好感特别高。
而且还有一点很小的细节,智敏说华为甚至把这个系统级AI 字幕给移植到了电脑上,华为笔记本里面的AI 字幕也自带这个功能,这是他之前用其他电脑的时候没有遇到过的。
他平常在网上看的开发教程和资料,很多是不自带字幕的,华为电脑里面这个很小的细节就能帮到他很多。
我和智敏那天下午零零总总聊了差不多一个半小时,他说他对目前的技术已经很满意了——华为信号稳、现在流量价格也不贵了。
尤其这次HarmonyOS 4 里面要全面实现纯离线的识别,那以后更是一点儿流量都不需要了。
接下来假如听障相关的辅助功能还想有提升,他觉得应该是续航和情绪识别两个方面。
第一个好理解,开着字幕识别肯定费电嘛,他说他用手机,得一天三充,包里最极限的时候,放过 3 台手机、8 个充电宝。
这次因为活动的天数比较短,他只带了两个手机、一个充电宝,就没太好意思给我 “ 展示军火 ” 。
这个我觉得随着芯片制造水平的发展,以后手机的续航时间肯定越来越长。
第二个,我一开始没太明白,后来他跟我说,其实他几年前谈过一个女朋友,一开始两个人感情很好,但是后面渐渐有点儿坚持不下去了。
因为女生不想让智敏一辈子靠着冰冷的 AI 字幕跟她谈恋爱。有了这次的经历之后他就在想,要是 AI 字幕也能够呈现语气就好了。
假如放在以前,我可能会觉得这第二个设想略微有些遥远。
但是随着今年爆发的 AI 大模型、HarmonyOS 4 里集成上的盘古版小艺。
诶,好像也不是那么远的了感觉?
说不定到时候先让功能落地的,还是华为。
今年的 HDC 上,华为提了一个概念。
科技世界不是冰冷的 0 和 1 ,而更应该是贴近人类体温的 37 ℃。
但其实在说出这个 slogan 这之前,华为已经投身无障碍技术六年的时间了。
从一开始反向适配那些不规范无障碍开发流程的 App,到联合无障碍硬件的厂商,支持助听器设备接入到鸿蒙生态当中,以及这两年利用AI 赋能,对视障、听障相关的无障碍体验做更全面的优化提升。
哦对了,还有线下讲座的开设——适老化设计也是华为无障碍团队的一项日常工作。
听华为的小伙伴说,他们光是今年上半年,就通过线下体验店进入老龄化社区,开设了 3000 多场使用手机常用功能的系列课程。
即使是在华为内部最难的一段时间里,这项业务以及上面具体技术的探索与开发,都没有因外部挑战而停止过。
而这其实才是真正的无障碍,这其中的概念,不是和身体功能绑定的,而是精神层面的关怀——让每一个人都不在数字世界的体验当中掉队。
这一点,我觉得才是一家企业践行责任的体现。
点击视频号,看华为是如何在看不见的角落狠狠的卷!
撰文:小陈 编辑:米罗 美编:萱萱
图片、资料来源:
华为官网
微信扫码关注该文公众号作者