搜索新闻

国内首款智能AR眼镜人机交互方式大猜想

来源:投影时代 更新日期:2016-07-05 作者:pjtime资讯组

影创科技2016年夏季发布会在即,许多来自爱好者和媒体的猜测和爆料也是雾里看花水中望月,这其中最具争议的一点就是这款智能眼镜的首选人机交互方式。语音?触控?手势?视线追踪?还是更超乎想象的全新方式?不知道有多少人愿意来押个宝。

Option A:手势操作

手势操作一直是近来人机交互方式中的热门话题。此前,硅谷的 AR 眼镜厂商Meta所推出的Meta Pro就号称可以直接通过如抓握等手势来控制眼前的 3D 模型,随后Meta又宣布针对 3D 图形的创建和编辑工具,开发出了一些新手势的识别,包括点击,双手旋转、扩大和缩小。在影创Air的宣传中也对手势操作技术有着明确的提及。但是,手势识别虽然新颖,却很难成为首选的操作方式,其技术难点主要集中在手势轮廓的提取及手势跟踪的识别上,另外如何区分日常的手部动作和真正需要传递给眼镜的讯息恐怕是最令人头疼的问题。

Option B:语音识别

相比手势,语音识别技术的历史更加久远,其目标是将人类的语音中的词汇内容转换为计算机可读的输入。语音识别技术发展到今天,特别是中小词汇量非特定人语音识别系统识别精度已经大于98%,这项技术已经能够满足通常应用的要求,谷歌百度等大厂商也在争做语音识别市场领头羊。此前国内一款主要用于连接手机进行通话的眼镜就主要采用了这种输入方式,可以识别“开机”“打电话”“拍照”等简单操作。但是,语音操作似乎不太可能成为影创Air的首选操作方式,原因很简单,除其本身在嘈杂环境中效果受影响的问题外,Air的功能十分强大,操作界面堪比一个电脑屏幕,在这样的场景下单凭语音显然比较乏力。

Option C:视线追踪

视线追踪可以说是比手势操作更新奇的操作方式。当年全身瘫痪的霍金就是依靠Intel开发的“ACAT”,即“辅助情境感知工具包”(Assistive Context Aware Toolkit)来完成他与外界的交流的。不过,专为残障人士开发的系统只能是个个例,对大部分健全人来说速度还是过于缓慢。目前视线追踪技术的应用面还比较窄,因为让机器对人类眼睛动作的真实意图进行有效识别,以判断它是无意识运动还是有意识变化,并不是件容易的事。而且采用红外线投射方式对视力是否会造成影响也是人们普遍担心的问题,所以这项技术在短期内难以成为人类和机器互动的主要方式,影创Air是否会在后期增加这种操作方式并不可知。

Option D:触控操作

对于早已习惯点击屏幕来操作手机、平板的我们来说,触控操作实在没有什么华丽可言。然而最熟悉的可能正是最实用的,在其他技术尚未完全成熟的阶段,为保证新品的易用性,影创Air极有可能保守的运用触控版的方式来完成对眼镜的基本操作。同时根据此前媒体所曝光的图片也可以看出,在Air眼镜模型机的图片中确实存在一个貌似控制器的部件,当然它可能还兼具电池的功能,具体如何使用恐怕也要等发布会时才能揭晓。

智能AR眼镜最新图片

Option :神秘选项

几大可能的操作方式分析完毕,也留给大家更多的想象空间,说不定影创还有令人爆炸的黑科技会在现场公布,保持几分神秘感也十分必要。那么,准备好投注了么,结果即将揭晓哦!

广告联系:010-82755684 | 010-82755685 手机版:www.chemistr6.com官方微博:weibo.com/pjtime官方微信:pjtime
Copyright (C) 2007 by PjTime.com,投影时代网 版权所有 关于投影时代| 联系我们| 欢迎来稿| 网站地图
返回首页 网友评论 返回顶部 建议反馈
快速评论
验证码: 看不清?点一下
发表评论
Baidu
map