理解。就是不用键盘了,直接说出来,电脑就能理解。
而手势交互,则是到了二十年代就非常成熟了。当时的人们使用手机,或者对着摄像头的时候,就可以用自己的手势,来进行各种操作。
这种手势操作,往往会有一个虚拟面,面上出现一个界面一样的东西,然后你的手就可以在上面点击,拖动,等等操作。
到了三十年代,立体全息显示成为了主流。此时的手势操作,就从平面转为了立体。
若是本世纪初的人来看,那就会发现一个人在在那里,双手在虚空乱点乱移,电脑却诡异地相应起他的动作,一如拿着世纪初那种笨重鼠标移动一般。
眼球交互,这种先进的交互技术,在十几年代开始出现,二十年代就开始逐步普及。
它主要是通过设备发出红外光,来确定用户眼睛的位置。然后捕捉用户的视网膜和角膜状态,通过这些数据,构建用户眼睛的实时3D模型。并通过三维空间,来跟踪眼球的焦点,最终实现了眼球控制的交互输入。
就拿本世纪初的手机操作来简单说吧。盯着看,那就是手指头在手机上触了一下。盯住一两秒或更长,那就是手指头在手机上按着不放。
如果眨巴一下眼睛,嗯,那就是手指头双击了。
它与手势控制比起来,就各有所长。
手势控制最灵活,易于精确控制。眼球控制可以不用动手,不过缺点是眼球控制的确认和移动反应会略慢。根据自己的需要来选择了。
而相应的脑电波输入,则是个新奇货色。
脑电波输入,则是一项近十几年来,才逐渐兴起的交互技术。
脑电波交互,是指人类直接通过脑波交互,读取思维,由此更加准确而深度地,来解读到人们内心深处的真正想法。
说白了,就是你脑子里意念默念一个东西,电脑就能知道你想啥。
这种技术,有侵入式的,也是非侵入式的。
侵入式,就是在你的脑子里装一个芯片,在体内检测脑电波。
这个信号的捕捉效果当然好。但是要把脑袋打开,或者开个小洞,听起来都够吓人的。于是招到了大量伦理道德层面的抨击。
而非侵入式,就是直接戴个帽子,或带个头带,利用体外检测脑电波。
很神奇么?
但这真是科学,而且已经被实现了。
早在2017年,美国著名互联网公司Facebook,就已经在他的开发者大会上,向全世界展示了一项炫酷的脑电波打字技术。
一位全身不能动的病人,通过植入大脑的电子传感器,以每分钟8个单词的速度,把自己所想的内容转换成显示屏上的文字。
这项技术一亮相,当时就惊艳全世界。
而非侵入式的正式实验,则更早。
2013年,美国华盛顿大学,公布了人类首次“非侵入式脑对脑接口实验”。
他们的科学与工程教授,拉加什·拉奥,戴上能读取脑电图的电极帽,完成了一次利用“意念”实现的电脑操控。
但这些技术,在那个年代,都不够成熟。
直到本世纪三十年代,采用直接贴在头部的非侵入式脑电波读取技术,才开始变得可行。
经过十几年的发展,脑电波输入已经很成熟了,成为一种重要的输入手段。不过还是没有语音和手势使用面广,只是作为辅助输入手段而已。
在这个AR电脑,却是将这四种输入手段都结合进来。
“脑电波输入最直接,速度也最快,可以说是意念控制。所以用来进行文字输入,是最好的手段。”
“语音输入,则是作为脑电波输入的一种补充和备份。”
“但是需要位置操控的,这种类似早期电脑的鼠标操控,就是脑电波所不适用的了。这时候就要用手势和眼球控制。”
“真是好东西。”
赵锋听到这里,赶紧多摸了几下。
“还有吗?”