我父母从小对我的这种探索精神还是很支持的。包括我爷爷,他以前在无线电厂工作,每次我拆坏一台,他就帮我修好一台。慢慢地他也会跟我一起拆,再一起装回来,或者对收音机做一些改造。
π:那你后来是怎么接触到电脑、手机这一类设备的呢?
因为我在学校的时候搞过校园广播节目,所以对这种制作节目的东西特别感兴趣。后来我毕业了,在家里听电台节目的时候里面提到互联网发展很快,可以在上面做很多事情,很多人都在使用电子设备制作音频节目。我当时就非常好奇,就想着说能不能自己也搞一台电脑来制作。正好又有一次听到一个节目说盲人也可以使用电脑,通过读屏软件把屏幕里的信息读出来。我当时就特别激动,记得很清楚,当时是2004年的春节,在大年三十那天,拥有了自己的第一台电脑。当时我还不会安装读屏软件,特地找了一位朋友帮我弄好,然后自己就开始研究怎么用,研究了一个通宵,直到第二天也就是大年初一的下午才去睡觉。
那个时候我就开始对电脑很感兴趣了,开始玩音频制作,制作歌曲,自己做播客节目。后来慢慢地不满足只玩这些东西,总觉得电脑能做更多的事情,就开始研究制作无人值守的系统安装光盘。做这件事情的契机是因为当时爆发了一次大规模的电脑病毒,在网上找了很多解决方法都没有用,最后听人说要重装系统。因为装系统的步骤很多,而且在装系统过程中是没有读屏软件的,不像macOS在装系统的时候也能启用VoiceOver,所以得找一个看得见的人才能操作。我当时就想这不行啊,每次装系统都要找人帮忙太麻烦了,所以就开始研究怎么把这整个流程给自动化。这就是我刚开始使用电脑的一些经历。
π:所以触屏设备实际上没有对你使用手机造成不方便?
对。其实我在用iPhone之前是很担心这个问题的,但因为苹果是一家很注重无障碍体验的公司,所以他们在iPhone上设计了一套很好用的VoiceOver手势,让我可以精准地控制屏幕上的元素,或者让它读出来。并且它还有更丰富的多指手势让你跳过不必要的元素,提升使用效率。
π:你平时是怎么打字的?
我在PC和手机上使用的都是全拼输入法,PC的打字速度大概为一分钟180个字到200个字。手机可能会慢一些。以前出差的时候会带着PC,后来觉得PC太重,所以就给iPhone配了一个蓝牙键盘,出差的时候带着它。另外最近有在计划入手一部iPadPro。
我自己有一个特别的打字方式,我并不是用大拇指去打字的,而是用食指和中指,模拟电脑上两只手的位置,食指管左半边区域,中指管右半边区域。后来有其他视障者也尝试使用我的方法去打字,发现确实更高效。
π:Android手机在无障碍上做得怎么样?
Android也是有内置读屏软件的,做得还可以。但是有几个问题,如果你买的是Google的亲儿子Android手机,它里面不会默认安装中文语音库,你得去下载一个中文语音装上才能使用,这就导致盲人无法独立使用。
三星在这一点倒是做得不错,它学习了VoiceOver的优点,也植入了开机就能直接启用读屏软件的手势。
国内的Android手机就做得不怎么样了,因为有不少厂商都把这个功能给阉割了,更可气的是有些厂商会把整个辅助功能的框架都砍掉。
另外Android手机的无障碍功能还存在一些性能和体验上的问题。
π:我了解到你在使用AppleWatch,它在你的使用过程中扮演一个什么样的角色?
AppleWatch对于盲人的帮助,可能比明眼人的帮助要更大一些。
另一个场景是盲人独自出门的时候。以前我们会在手机上开步行导航软件,如果手机放在兜里,声音太小会听不到。如果戴耳机,又会对盲人听周围环境造成干扰。这个时候AppleWatch的优势就体现出来了,首先它本身就可以通过VoiceOver读出导航内容,另外它还可以通过震动来告诉你转弯的方向,左转跟右转分别有不同的震动节奏,这样就能减少危险情况的发生。
不过目前AppleWatch还是存在一些性能上的问题,因为我能明显感受到在AppleWatch上使用VoiceOver有些卡顿。
π:你觉得Siri的体验如何?
说实话,虽然我经常在用Siri,但我认为它还是稍微笨了一点。
π:你日常在用的App都有哪些?
π:你刚才提到了很多需要拍照的场景,盲人一般是怎么拍照的?
π:之前在微博上看到你说自己在使用Workflow,一般会用它来做什么?
在手机上有些操作会需要很多步,比如查快递这个动作,如果不是在电商里买的东西,那你可能就得打开快递App,然后点「添加订单」,输入单号,有些可能还要再选一次快递公司,然后才查得到。使用Workflow的话,只需要在通知中心直接运行,很快就能显示出结果。这个Workflow对于明眼人和盲人来说都是非常便捷的,尤其是对于盲人。因为明眼人进入到一个应用里,很快就能精确地点击一个按钮,而盲人则需要依靠手势来一个个寻找按钮的位置(除非对这个应用的布局很熟悉,一开始就知道按钮的位置)。
另外还有一个使用得比较多的场景是OCR识别。比如我在微博或者Twitter上遇到了一张图片,最早的流程是先把图片保存到相册,然后打开OCR应用,接着点击应用中的相册按钮,再选择图片,导入,最后才识别。现在我只需要保存完图片之后,直接运行Workflow,它就会自动调取相册里的最后一张图片,很快就识别出来。这个Workflow可以帮助我快速了解图片里的内容。
π:最后一个问题,如果开发者想要让自己的App支持VoiceOver,应该怎么做?