学习啦>学习电脑>电脑硬件知识>键盘鼠标>

鼠标键盘基础知识科普

怀健分享

鼠标键盘是计算机最常用的输入设备,鼠标和键盘搭配使用使计算机的操作更加简便快捷。鼠标键盘在工作、娱乐中使用时间都比较长,所以鼠标键盘要求手感舒服、移动灵敏、长时间使用也不会觉的疲劳。下面就让小编带你去看看鼠标键盘基础知识科普,希望对你有所帮助吧

鼠标键盘模拟工具-按键精灵

想必很多玩游戏的朋友都听说过或者用过这款工具。其实,按键精灵能做的工作远非玩网游打怪这么简单,还可以用它实现办公自动化和功能自动化测试。我也是在工作中结识的它,当时还挺稀奇的,这个小工具跑起来,就像有一只看不见的手帮你完成了点鼠标按键盘的工作。而且还可以自动记录测试结果,并填到表格中。当然,前提是得编写符合要求的测试脚本,脚本编好后,还要进行调试,直到能稳定运行才算大功告成了。  既然这个工具这么方便,那就学呗。  开始学的时候,也是一头雾水,从哪里开始啊?总不能东一榔头,西一棒槌吧,那就从最基本的开始,什么是最基本的呢,我一下子就瞄上了按键精灵自带的帮助文档。感觉里面内容很全,还有实例,多好的教材。于是,二话没说,边看帮助边动手操作,从VBS基本命令的使用,到按键精灵专有命令的使用,到办公自动化等操作,居然很快就学完了。感觉不是很满足,就去官网找视频教程看,收获颇多。现在回想起来,视频教程讲的知识点和技巧在实际项目的使用中还是很管用的。再后来,就去逛论坛,不懂就发帖子求助;为了获取更丰富的学习资源,还专门花钱注册了一个会员号。那段时间真是像迷上了一样,毫不夸张地说。  学有所用的场合终于到了。赶上春节,订票是个大问题,接连几天不论是电话还是网上订票都抢不到,这可真是愁死人。公司同事说,手不够快,要是有个机器人替我刷票多好,不会出错,而且能抢到票。对啊,按键精灵不是可以模拟鼠键操作吗,不就可以做到自动化抢票吗。当时脑袋一热,就开始动手写脚本,修修改改的弄了几个小时,还在火车票订票网站上模拟试了下,感觉上没什么问题了。第二天早晨8点起来抢票的时候,我按下了脚本的启动热键,没想到一分钟不到,居然帮我抢到了一张坐票,虽然不是卧铺,但还是挺满足的。哈哈,现在看当时做的那个抢票脚本还真是简陋,不过不算白做。再后来,发现网上早就有抢票神器了,抢票神器虽然神奇,不过感觉上还是自己做的更有成就感。  有了这次经历,对按键精灵的兴趣更浓了。于是,QQ上也加了按键的群,居然有10个之多,现在想来当时真是疯狂。每天就是和群里的键友泡在一起,切磋按键的使用。也就在这个时候,我接到了其他部门领导的一个电话,约我谈谈。我当时还不明白怎么回事,后来才知道,原来是这个部门效益好,项目多,亟需要人,问我会不会功能自动化,我说会啊,QTP,WebLoad,Selenium,什么的曾经都用过,当然也少不了提按键精灵。然后,大概都介绍了下。领导考虑到版权和熟练程度的问题,问我按键精灵是不是可以做,我想这不撞倒枪口上了吗,于是毫不犹豫地说可以做。再后来,我就顺利的进入到了这个部门,当然我的工作也是和功能自动化有关的工作。  实际做起来发现问题真的很多,前前后后用了两个多月的时间,不过总算做成了。现在回想起来,很多时间都花在异常处理上了。另外由于要兼容不同的浏览器和操作系统,因此这部分内容自然也是脚本编写时要考虑的因素。幸亏之前有了积累,要不然很多问题解决起来真是棘手,不仅要熟悉浏览器和操作系统的响应方式,还要熟悉VBS,业务流程,以及脚本编写的技巧等等。还好,这次经历让我对这个工具的掌握更深入了一层。  虽然按键精灵有这样那样的问题,有时候也会受不了折腾而崩溃,但还是值得推荐使用的,因为它可以很方便的解决工作或者生活中的难题。相比价格昂贵的QTP而言,按键精灵是免费的,而且是轻量级的,就个人使用经验而言,在同类产品中按键算是一款优秀的鼠键模拟工具了。

什么是多模态交互?——比键盘鼠标辅助更直观更自然

视觉和听觉

先来看一下多模态里的视觉和听觉,视觉和听觉获取的信息比例总和为94%,而且是当前流行的GUI(GraphicalUser Interface,图形用户界面)和VUI(Voice User Interface,语音用户界面)使用的两个通道。

1)维度

如果问视觉和听觉最本质的区别是什么,我认为是传递信息的维度不同。眼睛接收的信息由时间和空间四个维度决定;耳朵接收的信息只能由时间维度决定(虽然耳朵能觉察声音的方向和频率,但不是决定性因素)。眼睛可以来回观察空间获取信息;耳朵只能单向获取信息,在没有其他功能的帮助下如果想重听前几秒的信息是不可能的。

时间维度决定了接收信息的多少,它是单向的、线性的以及不能停止的。耳朵在很短时间内接收的信息是非常有限的,举一个极端的例子:假设人可以停止时间,在静止的时间内声音是无法传播的,这时候是不存在信息的。还有一个说法是在静止的时间内,声音会保持在一个当前状态例如“滴”,这时候声音对人类来说就是一种噪音。

耳朵接收的信息只能由时间决定,眼睛却很不一样,即使在很短的时间内,眼睛也可以从空间获取大量信息。空间的信息由两个因素决定:①动态还是静态;②三维空间还是二维平面。在没有其他参照物的对比下,事物的静止不动可以模拟时间上的静止,这时候人是可以在静止的事物上获取信息的。时间和空间的结合可使信息大大丰富,正如花一分钟看周围的动态事物远比一年看同一个静态页面获取的信息要多。

2)接收信息量的对比

视觉接收的信息量远比听觉高。在知乎上有神经科学和脑科学话题的优秀回答者指出,大脑每秒通过眼睛接收的信息上限为100Mbps,通过耳蜗接收的信息上限为1Mbps。简单点说,视觉接收的信息量可以达到听觉接收信息的100倍。

虽然以上结论没有官方证实,但我们可以用简单的方法进行对比。在理解范围内,人阅读文字的速度可以达到500~1000字每分钟,说话时语速可以达到200~300字每分钟,所以视觉阅读的信息可以达到听觉的2~5倍。而当超出理解范围时需要花时间思考,这导致了接收信息量骤降。

如果将图像作为信息载体,视觉阅读图片里的信息远超听觉的5倍 。眼睛还有一个特别之处,通过扫视的方式一秒内可以看到三个不同的地方。

触觉

虽然触觉接收的信息量少于视觉和听觉,但它远比视觉、听觉复杂。触觉是指分布于人们皮肤上的感受器在外界的温度、湿度、压力、振动等刺激下,所引起的冷热、润燥、软硬、动作等反应。我们通过触摸感受各种物体,并将触摸到的各种数据记入大脑,例如在黑暗情况下我们可以通过触摸判断物体大概是什么。如果我们结合视觉看到一个球形物体,但触摸它时感觉到了棱角,这时会和我们的记忆产生冲突。

在虚拟现实中,五个感官的同时协调是技术的终极目标。如果没有触觉,那就少了实在和自然的感觉,例如在格斗游戏中无论是敌人被击中或者是自己被击中都没有反应回馈,导致游戏体验缺乏真实感。虚拟现实控制系统应该尽可能自然地模拟我们与周边环境的交互。同理,未来的人机交互更多发生在物理空间里,人类想要真实地感受实体,增强现实技术需要把虚拟的数字信息转化为触感,因为触感才是我们在真实环境下感受实体的唯一途径。

在现实世界中,科技公司希望借助形变和震动来模拟各种材质的触感,即虚拟触觉技术。之前,在众筹网站Kickstarter上就出现过一种虚拟现实手套——Gloveone。这种手套中加入了很多小电动机,通过不同频率和强度的振动来配合视觉效果。类似的还有一款叫作HandsOmni的手套,由莱斯大学(Rice University)研发,手套里的小气囊通过充气和放气来模拟触觉,相比于电动机来说,它的效果更好,但仍处于研发的早期阶段。

嗅觉

在《超普通心理学》一书中提到:嗅觉是五感中传递唯一不经过丘脑(thalamus)的,而是直接将刺激传到大脑中许多与情感、本能反应相关的腺体,例如杏仁核(管理各种情绪如愤怒与恐惧、欲望与饥饿感等)、海马体(管理长期记忆、空间感受等)、下丘脑(管理性欲和冲动、生长激素与荷尔蒙的分泌、肾上腺素的分泌等)、脑下垂体(管理各种内分泌激素,也是大脑的总司令),因此嗅觉是最直接而且能唤起人类本能行为和情绪记忆的感官。

尽管如此,但目前聚焦嗅觉解决方案的初创公司相对较少,2015年在Kickstarter上发起众筹的FeelReal公司就是其中一家。FeelReal公司推出了由头戴式显示器以及口罩组成的NirvanaHelmet和VR Mask,它们能给你更丰富的感官刺激,例如可以通过气味、水雾、震动、风、模拟热等给使用者带来全新的五官感受。目前为止,FeelReal 团队已经预先制作了数十种在电影、游戏里高频率出现的气味,同时在设备中开发了一个可以同时放置7种不同气味发生器的墨盒,墨盒设置在口罩内。可惜的是,FeelReal在Kickstarter上众筹失败,产品在官网上仍然显示着“预订中”。

在杭州有一家叫“气味王国”的公司专注于数字嗅觉技术研发。目前气味王国通过解码、编码、传输、释放等技术流程,将被还原物质的气味突破时间与空间的阻隔,按照程序设定用解码器识别指令进行即时的气味传输。据介绍,气味王国已经收录了十万种气味,并解码了上千种气味,包括日常生活中可接触到的食物、花草、汽油等平常气味,和远离生活的受限地理环境中的奇特气味。解码完成的上千种气味被装置在“气味盒子”中,在合适的场景下,“气味盒子”通过微机电结构控制气味的比例、组合效果、时间节点等,实现契合式的气味释放。

分析完人类如何接收信息以及背后的支持技术后,接下来再分析一下人类如何通过声音和肢体语言、信息载体传达信息,以及现在的支持技术发展到什么阶段。

通过声音传达信息

随着人工智能的发展,语音识别技术已得到快速发展,在第1章已经详细介绍过语音识别技术,所以在此不再展开介绍。人在表达自己的意图时主要由语言、口音、语法、词汇、语调和语速等决定,而在不同场景下用户的语气也会随着情绪而变化,导致相同的语句可能会有不一样的意图。

智能情绪识别是具备语音交互能力的设备根据用户响应做出反应并进行有意义对话的关键。早在2012年,以色列的初创企业Beyond Verbal就发明了一系列语音情绪识别算法,可以根据说话方式和音域的变化,分析出愤怒、焦虑、幸福或满足等情绪,心情、态度的细微差别也能被精准检测。至今为止,该算法可以分析出11个类别的400种复杂情绪。近年来亚马逊的Ale__a团队和苹果的Siri团队也在着力研究语音情绪识别,苹果的最新HomePod广告片WelcomeHome用了类似的方案来表达Siri的智能推荐:辛苦了一天的女主角,疲惫不堪地回到家中,让Siri用 HomePod播放音乐。紧接着神奇的事情发生了:音乐响起,女主拥有了魔力,她可以打开另一个空间,顿时疲劳的感觉一扫而光,尽情漫舞。广告充分展示了HomePod在转换情绪上的“开关”作用,得到国外广告圈的一致好评。

机器除了需要理解用户想表达什么,还需要识别是哪个用户在说话,这时候生物识别领域下的“声纹识别”就能起到关键作用,该技术通过语音波形中反映说话人生理和行为特征的语音参数,进而分辨出说话人的身份。苹果、亚马逊和Google在自家产品上相继使用了声纹识别,可以有效判断不同用户的声音并给出响应。

声纹识别将成为语音人机交互的最佳身份认证方式,还可以有效减少部分应用场景下的操作流程。例如在下订单环节,如果有了声纹识别作为身份认证方式,那么通过“帮我订昨天晚上一样的外卖”这一句话,就能够完成整个订餐及支付操作。如果没有声纹识别,到了支付环节可能还是需要通过智能手机上的指纹识别或人脸识别来完成认证的步骤,使用起来非常麻烦。

同时,由于语音交互的便捷性,在智能家居设计上可能会有较大的问题。举个例子,当有闯入者非法入侵住宅时,如果语音控制系统不限制说话人的身份,每个人都有着智能监控系统的权限,那么闯入者完全可以直接下命令关闭监控系统,这是一件非常危险的事情。声纹识别能有效解决该问题,在不能识别出闯入者身份的前提下,当闯入者尝试进行语音交互时,语音控制系统应该进行报警等一系列安防措施,有效保障居民的安全。

通过肢体语言传达信息

人类交流时一半依赖于肢体语言,如果没有肢体语言,交流起来将十分困难且费力。肢体语言是一种无声的语言,我们可以通过面部表情、眼神、肢体动作等细节了解一个人当前的情感、态度和性格。美国心理学家爱德华·霍尔(Edward Hall)曾在《无声语言》一书说过:“无声语言所显示的意义要比有声语言多得多,而且深刻得多,因为有声语言往往把所要表达的意思的大部分,甚至绝大部分隐藏起来。”

面部表情是表达情感的主要方式。目前大多数的研究集中在6种主要的情感上,即愤怒、悲伤、惊奇、高兴、害怕和厌恶。目前网上已经有很多表情识别的开源项目,例如Github上点赞数较高的FaceClassification,其基于Keras CNN模型与OpenCV进行实时面部检测和表情分类,使用真实数据做测试时,表情识别的准确率只达到66%,但在识别大笑、惊讶等计算机理解起来差不多的表情时效果较差。在人机交互上,用户表情识别除了可以用于理解用户的情感反馈,还可以用于对话中发言的轮换管理,例如机器看到用户表情瞬间变为愤怒时,需要考虑流程是否还继续进行。

有时候人的一个眼神就能让对方猜到他想表达什么,所以眼睛被称为“心灵的窗户”。眼睛是人机交互的研究方向之一,它的注视方向、注视时长、瞳孔扩张收缩以及眨眼频率等等都有不一样的解读。2012年由四个丹麦博士生创立的公司The Eye Tribe开发的眼动追踪技术,可以通过智能手机或者平板电脑的前置摄像头获取图像,利用计算机视觉算法进行分析。软件能定位眼睛的位置,估计你正在看屏幕的什么地方,甚至精确到非常小的图标。这项眼动追踪技术未来有望取代手指控制平板电脑或手机。

在人机交互上,眼动追踪技术将帮助计算机知道用户在看哪里,有助于优化整个应用、游戏的导航结构,使整个用户界面更加简洁明了。例如,地图、控制面板等元素在用户没关注时可被隐藏,只有当用户眼球查看边缘时才显示出来,从而增加整个游戏的沉浸式体验。专门研究眼动追踪技术的公司TobiiPro副总裁OscarWerner认为:“以眼动追踪为主的新一代PC交互方式,将会结合触摸屏、鼠标、语音控制和键盘等人机交互方式,进而显著提升计算机操作的效率和直观性。目光比任何物理动作都先行一步。在眼部追踪的基础上,肯定还会有更多更“聪明”的用户交互方式诞生。”对以沉浸式体验为核心的VR设备而言,眼动追踪技术是下一代VR头显的关键所在,刚刚提到的The Eye Tribe公司也已被Facebook收购,该技术将被用于Oculus上。

肢体动作是涉及认知科学、心理学、神经科学、脑科学、行为学等领域的跨学科研究课题,其中包含很多细节,甚至每根手指的不同位置都能传达不同的信息,因此让电脑读懂人类的肢体动作是一件棘手的事。

在肢体识别上,最出名的莫过于微软的3D体感摄影机Kinect,它具备即时动态捕捉、影像辨识、麦克风输入、语音辨识等功能。Kinect不需要使用任何控制器,它依靠相机就能捕捉三维空间中玩家的运动,可惜的是,微软在2017年已经确认停止生产新的Kinect传感器。

手势识别有两款很不错的硬件产品,一款是家喻户晓的Leap Motion,它能在150°视场角的空间内以0.01毫米的精度追踪用户的10根手指,让你的双手在虚拟空间里像在真实世界一样随意挥动。另外一款是MYO腕带,它通过检测用户运动时胳膊上肌肉产生的生物电变化,配合手臂的物理动作监控实现手势识别。MYO所具备的灵敏度很高,例如握拳的动作即使不用力也能被检测到。有时候你甚至会觉得自己的手指还没开始运动,MYO就已经感受到了,这是因为你的手指开始移动之前,MYO已经感受到大脑控制肌肉运动产生的生物电了。

卡内基梅隆大学机器人学院(CMU RI)的副教授Yaser Sheikh带领的团队正在研发一种可以从头到脚读取肢体语言的计算机系统,可以实时追踪识别大规模人群的多个动作姿势,包括面部表情和手势,甚至是每个人的手指动作。2017年6月和7月,这个项目在Github上相继开源了核心的面部和手部识别源代码,名称为OpenPose。OpenPose的开源已经吸引了数千用户参与完善,任何人只要不涉及商业用途,都可以用它来构建自己的肢体跟踪系统。肢体语言识别为人机交互开辟了新的方式,但整体的肢体语言理解过于复杂,计算机如何将肢体语言语义化并理解仍然是一个技术瓶颈。

通过信息载体传达信息

除了现场沟通,人类还会通过文字、图片、音频、视频这四种媒介与其他人沟通,而这四种载体承载的信息都属于计算机难以理解的非结构化数据。2018年百度AI开发者大会上,百度高级副总裁王海峰发布了百度大脑3.0,并表示百度大脑3.0的核心是“多模态深度语义理解”,包括数据的语义、知识的语义,以及图像、视频、声音、语音等各方面的理解。视觉语义化可以让机器从看清到看懂图片和视频,识别人、物体和场景,同时捕捉它们之间的行为和关系,通过时序化、数字化、结构化的方式,提炼出结构化的语义知识,最终结合领域和场景进行智慧推理并落地到行业应用。在人机交互上,计算机理解非结构化数据有助于计算机理解用户,从而优化个性化推荐和人机交互流程,提高产品整体的使用效率和体验。

总结

总的来说,现在的计算机设备能较好地看清用户的肢体动作以及听清用户的语言,但是仍然不能看懂、听懂并理解背后的语义是什么。当交互发生在三维的物理空间中时,由于上下文会随现场的任务以及任务背景而发生动态变化,导致同样的输入可能会有不同的语义。在短时间内弱人工智能无法很好地解决“语义”,而“语义”也将成为未来几年里人机交互领域绕不开的话题,设计师需要学会如何在人工智能面前更好地权衡并处理“语义”。

USB键盘鼠标失灵问题汇总

经常有人提出USB键鼠失灵的问题,而此类问题真正的源头到目前为止也真的没有一个标准的解决方案,可谓是林林总总。因此对于USB键鼠失灵的问题,只能从所有的可能性去考虑,能做的都做到,才可以避免同样的事情发生。笔者对于所有的USB键鼠失灵的可能性做一个汇总,其中有些是自己的经历和经验,有些则是在网友或者论坛那里收集来的,对大家作为一个帮助和经验的总结。

一、地线问题

地线是网吧静电排除的基础设备。很多网吧由于没有安装地线,导致客户机带有很大的静电,会导致USB设备暂时性失灵,严重可导致主板、显卡等硬件设备损坏。因此网吧必须要部署有效的地线。虽然有的网吧部署了地线,但是不一定是|“有效接地”,因此还是要找专业电工,保证地线完全生效,以便排除客户机静电。

二、USB键鼠本身产品问题

USB键鼠失灵,有的是键鼠产品本身存在问题,导致键鼠突然失灵,或者飘、顿卡等,建议多更换几种USB键鼠品牌种类来测试,以便排除产品本身问题。

三、USB3.0驱动问题

B75主板以后都集成USB3.0接口了,因此需要安装USB3.0驱动,但是有的就是USB3.0驱动在作祟。笔者曾经亲自碰到过USB3.0驱动导致的鼠标顿卡的问题。主板是技嘉B85-HD3,安装USB3.0驱动后,鼠标顿卡飞到屏幕一边,后来卸载USB3.0驱动后,问题解决。

四、USB3.0接口问题

键鼠随机失灵的问题,可以查看是否有问题的键鼠在USB3.0接口上,可以更换至2.0接口查看测试。

五、USB3.0接口模式(BIOS)导致双系统(__P+WIN7)切换系统后键鼠失灵。

卸载USB3.0驱动可以解决此问题,但是会遇到偶有掉电的情况,USB设备突然用不了,隔几秒又好了。__HCI一般都是默认smart auto改成auto(自动)就OK了。不过不同的主板好像也有不同。有的B85主板在__P下鼠标要重启两次电脑才可以识别,在BIOS中把__HCI MODE设置为DISABLED,问题解决。笔者碰到过技嘉主板B85M-D2V,双系统时候WIN7下无法识别USB键鼠。在BIOS中把__HCIHand-off设为DISABLED后,问题解决。如果无法解决,请联系主板厂商,一般都有针对此问题的最佳BIOS,笔者曾碰到过盈通B75主板有过此问题,调__HCI也无法解决,后来主板官方提供BIOS刷新后,问题解决。

六、主板问题

咨询主板厂商,刷新BIOS版本到最新版本,或者找官方要一款最佳BIOS来解决USB键鼠的问题。

七、电源问题

质量不好的电源,也会带来USB键鼠失灵的情况,此项也可以作为USB键鼠问题排查参考之一。

八、系统调整优化

1、取消USB设备节电选项

、将电源选项中的USB设置中“选择性暂停设置”调为禁用。

、重新做系统,不安装主板驱动。(如安装请禁用试下)

九、计费导致USB键鼠失灵

1、USB鼠标掉,不能自动识别,必须重启才能认到;确定为过滤王导致,把收费上的核心版降低一下版本,问题解决。

2、PS/2机器玩着玩着键盘就失灵了重插或者重启才能好;检查确定为恒信一卡通导致,删除c:\Program Files\hCard\PM\Kdb.sys

十、微软之USB相关提高性能补丁

微软在知识库文章KB2581464中说,Windows 7或者Windows Server 2008 R2系统用户如果安装了这个补丁,会将Usbstor.sys驱动程序中的最大传输尺寸值从默认的64KB增加到2MB,对某些USB存储设备来说能够因此带来性能上的提升。不过微软同时强调说,要想看到效果,前提之一是硬件厂商在设备驱动中提供了一个INF设备信息文件,并在其中设置了上述参数。

十一、天气干燥导致

在北方一般USB键鼠失灵比夏季更多更频繁。冬季天气寒冷,气候干燥,穿棉毛衣服摩托产生的静电过多,玩家起身或者挪动都会产生静电,导致USB键鼠瞬间失灵,此时观察电脑右下角会有硬件识别提示,稍后会恢复正常。这也是笔者亲身经历的一种原因。另外一种身体产生的静电还可以体现为皮质 的一体沙发式座椅比普通座椅产生的静电率要高得多,轻则导致USB键鼠失灵,严重的可以导致电脑重启。

十四、推荐使用PS/2标准键鼠

曾有不堪USB键鼠失灵问题困扰的网吧,直接更换为PS/2键鼠,之后则没有再次发生此问题,可谓究极大招!

鼠标键盘基础知识科普相关文章:

鼠标键盘基础知识大全有哪些

电脑鼠标知识

操作系统基础知识大全科普

启用鼠标键把键盘当鼠标使用方法

经典的鼠标键盘广告词

Win7键盘鼠标键如何启动?简单教程!

最受欢迎的键盘鼠标在这里!市场趋势如何?

关于鼠标键盘的广告词

怎样不用鼠标键盘也能控制ppt

有创意的鼠标键盘广告词

    上一篇:鼠标键盘冷门知识科普大全

    下一篇:键盘鼠标基础知识大全

    747750