1、更薄更准的触摸屏触摸屏的发展历史 除了变得更大,触摸屏还有另外一些事情要做。 在三星 Galaxy S4 手机的评测视频里,玩家可以用一个叉子或者一个饮料瓶底、甚至是另外一部手机边缘,点在手机屏幕上进行上下左右移动和操作;而在诺基亚最新系列 Lumia920/820 的发布会上,这家公司的高级副总裁、Lumia 系列主管 Kevin Shields 戴着手套在使用手机时,也引发了台下不小的轰动。 诺基亚将这种戴着手套也能操作触摸屏的技术称为“Super Sensitive Touch”(超敏感触摸屏) ,它能够识别手套、皮肤,甚至是指甲的命令,在寒冷的地方带着手套也一样可以准确识别出手指的动作
2、。 这是一家名为 Synaptics 的美国公司提供的技术支持。正是基于Synaptics 开发的 ClearPad Series 3 传感器技术,诺基亚和三星的最新手机都在触摸屏方面有了至少可以拿出来说一说的新卖点。 它体现出了触摸屏技术的一些新进展:显示屏幕集成传感器、抗干扰能力更强。 “我们需要一些特殊的算法来跟踪、检测戴手套的手指,之后进行相应的开发和测试” 。Synaptics 公司智能显示屏事业部高级副总裁及总经理 Kevin Barber 也这样告诉第一财经周刊 。 就在两三年前, “能够戴着手套操作触摸屏手机”还是一种设想,触控不够灵敏也一度被视为触摸屏手机的缺陷。而在解决这些
3、自身的诸多技术难点上,触摸屏花的时间既不算太长,也不算太短。 1971 年,美国人 Sam Hurst 发明了世界上第一个触摸传感器,被视为触摸屏技术发展的开端。 当时 Sam Hurst 在肯塔基大学任教,每天都要处理大量的图形数据,这令他感到焦头烂额。他开始琢磨怎样提高工作效率,之后制作出了最早的触摸传感器。这种触摸传感器被命名为“AccuTouch” 。1973 年,这项技术还被美国工业研究杂志评选为当年 100 项最重要的新技术产品之一。 不久之后,Sam Hurst 成立了自己的公司,并和西门子公司合作,不断完善这项技术。这个时期的触摸屏技术主要被美国军方采用。直到1982 年,Sa
4、m Hurst 的公司在美国一次科技展会上展出了 33 台安装了触摸屏的电视机,普通用户才第一次亲手“摸”到这种屏幕。 从 1990 年代起,触摸屏技术开始在民间获得了不小的发展。那时的触摸屏主要以电阻式触摸屏为主,被广泛应用在任天堂的 DS 掌上游戏机、PDA 等产品上。1999 年,IBM 还联合贝尔公司,发布了世界上第一个配备触摸屏的移动电话“Simon” 。 电阻式触摸屏的基本结构是“薄膜+玻璃” 。在触摸操作时,薄膜下层的涂层会与玻璃上层的涂层接触,其中电阻发生变化,在 X 和 Y 两个方向上产生信号,并传送到触摸屏控制器。 除了功耗大、寿命较短以外,这种电阻式触摸屏很容易出现检测点
5、漂移的情况,而最致命的是不支持多点触控。当然,那个时候还不能用这种触摸屏完成诸如玩游戏这样的复杂操作。 在这个时候,一些公司开始发展更完善的电容式触摸屏技术。与电阻式触摸屏相比,电容式触摸屏依赖覆盖在屏幕上的多个电极工作。最早出现的是“表面式”电容触摸屏,只要最少四个电极,就能感受到手指带来的电容变化,但该技术需要的电极尺寸很大,屏幕很难做小,只被用在信息亭等大型设备上。 2007 年,苹果开始在第一代 iPhone 手机上采用“投射式”电容触摸屏技术,它的电极排列更精密,引发了手机行业的一场革命。iPhone 触摸屏的供应商是来自台湾的宸鸿(TPK) 。TPK 创始人江朝瑞最先带着这一技术拜
6、访的公司其实是诺基亚,但这个技术没有被当时的诺基亚采用。 后来发生的我们都知道,触摸屏开始出现在越来越多的手机上。市场研究集团 NPD DisplaySearch 发布的报告说,在 2011 年的时候,电容式触摸屏已经替代了电阻屏,成为手机行业的主流技术。 诺基亚应用在 Lumia 系列手机上的“超敏感触摸屏” ,现在成了这个领域的最新突破:它将传感器和显示屏融合在了一起。 过去,传统的手机触摸屏由从外向内四个部分组成,分别是盖板、非集成式传感器、显示屏、机身,其中传感器又是由感应器和传送器两个组件组成的,这两个组件共同负责处理手指按压屏幕时所产生的静电信号。在这种设计中,显示屏必须首先通过传
7、送器,才能接收到感应器发出的信号。 而对于超敏感触摸屏,感应器和传送器的位置都发生了变化:传送器挪到了显示屏背部,而感应器直接放置在了显示屏上方,变成了显示屏的正面。 这个调整带来了两点好处。首先是节约电量,因为超敏感触摸屏不会像普通屏幕那样,由于分离式的传感器设计吸收了显示屏发出的一部分光,导致手机消耗额外电量;另一个更明显的变化是抗干扰能力的提升。 此前有其他介质,比如带着手套就无法操控电容屏,原因在于手套干扰了电场,使手指与触摸屏接触产生的电流受到影响,无法完成准确的触摸操控。现在通过传感器直接接触显示屏,帮助传感器捕捉更弱的触摸信号,比如来自指尖、手套和手帕的触摸信号,使“戴着手套操作
8、触摸屏”成为了可能。 “目前提供给合作伙伴的解决方案,抗干扰能力已经比最早的产品提高了 10 倍。 ”Kevin Barber 说。 这种将显示屏尽可能接近感应器的设计正在成为触摸屏行业的一大趋势,它主要被分为“In-cell”和“On-cell”两种模式,前者是在液晶面板内部直接嵌入触摸传感器,后者则是像“超敏感触摸屏”一样,在显示面板的上方安装传感器。 相比 On-cell,In-cell 将过去的两层屏幕变成了一层,它带来更薄的机身,也通过触摸层的整合减少了零部件数量。苹果 iPhone5 是最先采用了这种触摸屏技术的手机,只是将传感器直接嵌入显示屏的工艺还有些复杂,因此仍然面临产品合格
9、率不够高的问题。所以 On-cell 技术屏幕先于 In-cell 在 2010 年就面世了,目前广泛用在了三星 Super Amoled 屏幕里。 使用了 On-cell 工艺的“超灵敏触控”也仍然还有改进的空间。由于屏幕过于灵敏,有时触碰屏幕时会滑开其他程序,或者手机不用放在口袋里时,高灵敏度也会自动触开手机解锁。 并不是所有厂商都从超灵敏的角度去尝试突破触摸屏领域的局限。索尼就在自己 2012 年发布的智能手机 Xperia Sola 上使用了悬浮触控技术(Floating Touch) 。这项由索尼移动和 Cypress Technologies 联合研发的技术,也是业界最受关注的触摸
10、屏技术之一。 从技术角度而言,浮空触屏技术是将两种类型的触摸屏互电容(Mutual Capacitance)和自电容(Self-Capacitance)进行了结合。 索尼移动通信的相关人士表示,这一技术必须合理排列两种电容,并对触摸传感器的控制软件进行调整。如果软件太灵敏,就失去了精准度,无法实现传统的多点触控;而如果灵敏度不足,就感应不到在屏幕上空的“触控”操作。 自电容在早期的智能手机上比较常见。自电容的技术特点是感应信号强大,支持“靠近”屏幕上方、而不是直接接触屏幕的手指动作进行侦测。但自电容屏幕能感应的真实坐标有限,比如在四个坐标中,只会感应到其中的两个点,而另外两个则被称为“鬼点”
11、,与电阻式触摸屏一样,它无法实现多点触摸。 互电容被广泛用于现在的主流智能手机。它在手指与两组电极交叉的地方形成电容,所有的横向和纵向交叉点上,每一个电容值的大小都可以得到识别和测量,计算出每个触摸点的真实位置。但互电容传感器的电场很小,以至于信号强度很低,无法感应到那些非常弱小的信号这也是过去的触摸屏无法支持戴手套操作的原因,更不用说支持“浮空触控”了。 在结合了互电容与自电容之后, “浮空触屏”可以通过两种方式与人的手指进行互动:当手指在屏幕上方时使用自电容进行感应,而当手指接触屏幕时则使用精准度更高的互电容。这一技术目前还有一个最大的问题:当进行“浮空”操作时,它是没有办法实现多点触控的
12、。不过Kevin Barber 认为它仍然是一项令人兴奋的技术,它让应用程序设计师有了更多的发挥空间。 苹果也仍然在触摸屏技术上继续探索。这家公司还在今年 2 月 6 日获得了一个专利,一种利用太阳能的多点触摸面板技术。这种屏幕技术集成了太阳能电池面板、多点触摸传感器以及光线传感器,可以将太阳能转化为电能并储存进电池当中。 使触摸屏变得更薄、识别更准确,甚至有更多的操控方式和功能,看起来都是触摸屏技术接下来的发展方向。 “灵敏度需要对材料科学、传感器建模与设计、模拟前端设计和图像处理算法有全面认识。 ”Kevin Barber 说。 不过就在他这么说的时候,更多的“非手部接触”式操控技术也正在崭露头角。除了已经被广为宣传的“手势操作” ,还有“眼球触控”:它通过专门的眼球追踪仪实现你的命令,在浏览电子书时,文字随眼睛移动而移动;盯着右下角可以自动翻页等等。Google Glass 就曾考虑过完全通过眼球来操作设备的方案。 在诞生 40 多年之后,触摸屏技术遇上了挑战者,这些新技术让人与终端设备有了更丰富的互动方式。触摸屏并不会马上被取代,但它似乎也应该开始考虑自己还能够走多远的问题了。