学习啦>学习方法>通用学习方法>学习经验>

计算机该怎么学习

欣怡分享

  我们都知道当今社会是一个高速发展信息时代。在各行各业中都离不开信息的处理,这正是计算机被广泛应用于信息管理系统的环境原因。那么计算机的学习方法有哪些呢?下面是学习啦小编分享给大家的计算机入门学习方法的资料,希望大家喜欢!

  计算机入门学习方法

  一、学会使用搜索引擎

  如果有问题找书很麻烦,那就用百度和google(谷歌)吧,输入你的问题,应该会有很多解答的。你也可以搜索你想要的资料,比如:文章、视频教程、软件下载等。搜索引擎上的资料是及时的最新的,这是个很好的学习工具。 要善于使用搜索引擎。这将会帮你提高很大的学习效率。而且你的问题基本都能在百度里面找到答案,接下来就是自己去实践一下就好了!

  二、阅读电脑教程书籍

  如果你想更系统的学习电脑。购买一本电脑相关的书籍是一个不错的选择。书籍是为了补充更完整、更系统的知识,如果你想学习一门软件技术,例如PS等,看书籍可以做笔记,学的更扎实。

  三、电脑入门视频教程

  视频教程补充了书籍的不形象的缺点,让你看到各个步骤的操作,更加通俗易懂。但是学习周期比较长。

  四、敢于动手,敢于尝试

  正如文章开头说的,不要怕弄坏自己的电脑,大不了重装一下系统。电脑出问题了,先利用搜索引擎搜索答案,然后就去尝试网上给的答案,如果因为尝试出问题了,自己再重装一下系统就好了,一般的软件问题主要重装系统就能解决的,包治百病……

  五、不要三天打鱼两天晒网式的学习。

  做任何事情都要有始有终,不能半途而废。如果你今天学点。明天不学习,隔三差五的学习。那么你永远都是在这个水平。提高不了。学习了新的知识点就要花时间去巩固。真正的做到把知识掌握在手中。

  六、合理安排学习时间

  学习要讲究效率,合理分配时间,该做啥时就做啥。在合理的时候做合理的事情,不背道而驰。比如一天之中晚上花一个小时学习就可以了。

  七、加入学习电脑的QQ群或者关注微信公众号拓展自己的知识面

  多关注一些电脑相关的微信公众号,可以利用琐碎的时间学习,多读读别人写的相关文章。或者直接加入QQ交流群,可以直接与别人交流。

  学习过电脑知识和没有学过电脑知识的区别

  打个比方说:你正在看苍老师的作品,这时你爸突然闯进来,没有学习过电脑知识的人可能就会立马用鼠标去点关闭按钮,由于太紧张,可能拿鼠标的手都在抖,结果没有关闭成功,结果……(此处大概省略一万字),而学习过电脑知识的人,直接使用Alt+F4快捷键,播放器瞬间被秒杀了,这就是差别啊!

  计算机等级一级学习方法

  首先,就是学会电脑的基本操作,大家对这方面是精通的了。但为了保险起见,还是给大家介绍一下~

  计算机一级的基本操作题主要包括复制,粘贴,移动,更改属性,删除,重命名几个方面,点击鼠标右键就可以看到了。超级简单吧。

  第二个,就是文字处理了。计算机考试中的文字处理用的是Word文档,总共分为以下几点:

  1)字体的颜色,大小,字形,下划线等

  2)边框和底纹样式和颜色(文字和表格都常考)

  3)页面布局,比如分栏,纸张大小,页脚,页眉,页码等

  4)段落间距,行距,缩进等

  5)一般文字处理题都会有一段可以插入表格的文字,所以第一要插入表格,然后设置表格格式,包括列宽、行高、文字和表格居中,最重要的就是插入函数计算,一般这样的题都会考这一步,也很容易出问题。

  第三个,是电子表格。电子表格的考核主要分为以下几点。

  1)合并或拆分单元格,插入行或列

  2)更改表格格式,如表格套用格式

  3)使用函数,这一步最复杂,一定要多了解

  4)排序,筛选和进行分类汇总

  5)根据表格中的两列数据插入图表,插入标题,更改或删除图例

  6)插入数据透视表

  第四个,是演示文稿。小易觉得、同学们也许已经习惯了PPT,但大学计算机一级考试考试却不是用这个的,大家要熟悉以前中学时设计演示文稿的软件,虽然二者有些许不同,但内容也相差不大。

  1)更改它的版式或模板,还有就是调整幻灯片的背景颜色

  2)插入文本或图片,其中插入剪贴画比较有难度

  3)设置切换效果和动画效果

  4)新建、删除幻灯片,调换幻灯片顺序

  5)更改幻灯片的放映方式为观众自行浏览,这是常考的一点,千万要注意

  最后一项,是上网和发送或接收邮件。上网就是浏览和保存网页,这个大家一般都会。小易重点说一下发送或接收邮件时要注意的问题。

  1)一般在发送邮件时,都会让你添加文件。文件就在考生文件夹中,你要先新建一个文件夹,将要发送的附件放入其中,再压缩成一个压缩包这样才能添加进去。

  2)接收邮件时一般会让考生回复,你只要找答复这两个字就可以了。但是别忘了,这时候题目总会让你保存附件,这条可千万别忘了,根据学长学姐的血泪经验,同学们总忽略这一步,导致功亏一篑啊!

  计算机学习阅读理解的方法

  自然语言计算领域皇冠上的明珠

  如今,我们在图像识别、机器翻译和语音识别等研究领域已经看到了机器学习带来的显著成果。例如图像识别技术对癌细胞病理切片的识别能力已逐步超过人类,目前机器围棋棋手的棋力已经几乎无人能敌……在人工智能技术进步向人们展现了各种可喜的成果之后,大家将探寻的目光投向更远的未来,下一个人工智能技术的增长点在哪里?

  狂热过后,当我们重新审视人工智能这个问题时,一个最基本的问题可能尚未解决:计算机能够理解多少我们的语言了?

  一些人类学家认为,语言是构建人类文明的基石。在语言之上,我们构建了神话、宗教;构建了城邦,帝国;还构建了信任、信仰。计算机发明以来,层出不穷的编程语言都在教人们学会和计算机对话,而人们理想中的人工智能则是应该主动学习,掌握人类语言的奥义。为此微软提出了CaaP(Conversation as a Platform,对话即平台)战略,并将对话式人工智能作为微软在人工智能领域布局的重点。

  计算语言学协会(ACL, Association for Computational Linguistics)候任主席,微软亚洲研究院副院长周明博士认为:“自然语言处理的基本研究包括分词、断句、句法语义分析等等。而机器阅读理解就是自然语言计算领域皇冠上的明珠。”

  一般来说,人们在读完一篇文章之后就会在脑海里形成一定的印象,例如这篇文章讲的是什么人,做了什么事情,出现了什么,发生在哪里等等。人们能够很轻而易举地归纳出文章中的重点内容。机器阅读理解的研究就是赋予计算机与人类同等的阅读能力,即让计算机阅读一篇文章,随后让计算机解答与文中信息相关的问题。这种对人类而言轻而易举的能力,对计算机来说却并非如此。

  很长一段时间以来,自然语言处理的研究都是基于句子级别的阅读理解。例如给计算机一句话,理解句子中的主谓宾、定状补,谁做了何事等等。但长文本的理解问题一直是研究的一个难点,因为这涉及到句子之间的连贯、上下文和推理等更高维的研究内容。

  比如下面这段文本: The Rhine (Romansh: Rein, German: Rhein, French: le Rhin, Dutch: Rijn) is a European river that begins in the Swiss canton of Graubünden in the southeastern Swiss Alps, forms part of the Swiss-Austrian, Swiss-Liechtenstein border, Swiss-German and then the Franco-German border, then flows through the Rhineland and eventually empties into the North Sea in the Netherlands. The biggest city on the river Rhine is Cologne, Germany with a population of more than 1,050,000 people. It is the second-longest river in Central and Western Europe (after the Danube), at about 1,230 km (760 mi), with an average discharge of about 2,900 m3/s (100,000 cu ft/s). (大意:莱茵河是一条位于欧洲的著名河流,始于瑞士阿尔卑斯山,流经瑞士、 奥地利、列支敦士登、法国、德国、荷兰,最终在荷兰注入北海。莱茵河上最大的城市是德国科隆。它是中欧和西欧区域的第二长河流,位于多瑙河之后,约1230公里。)

  若针对该段内容提问:What river is larger than the Rhine?(什么河比莱茵河长?)人们可以轻易地给出答案:Danube(多瑙河)。但目前即使是最佳的系统模型R-NET给出的输出也并不尽人意,它的回答是:科隆,可见要让计算机真正地理解文本内容并像人一样可以对文字进行推理的难度是如此之大。在回答该问题时,计算机除了要处理文中的指代“it”,还需要算法和模型进一步对“larger than”和“after”这两个表述进行推理,从而得知Danube是正确答案。此外,由于文中并没有显式提到Danube是“river”,所以又加大了系统的推理难度。

  但大数据的发展让学者们看到了这一研究方向的曙光。可获取的越来越大的文本数据,加上深度学习的算法以及海量的云计算资源,使得研究者们可以针对长文本做点对点的学习,即对句子、短语、上下文进行建模,这其中就隐藏了一定的推理能力。所以,目前自然语言处理领域就把基于篇章的理解提上研究的议事日程,成为目前该领域的研究焦点之一。而针对上文提及的相关难点,微软亚洲研究院自然语言计算研究组正在进行下一步的研究和探索。

  做顶尖的机器阅读理解研究

  正如前文所说,机器阅读理解的研究之路始终充满着许多困难和挑战。

  首先是数据问题。目前基于统计方法(尤其是深度学习模型)的机器阅读理解的研究离不开大量的、人工标注的数据。在SQuAD数据集推出之前,数据集常常面临规模较小,或是质量不佳(因为多是自动生成)的问题,而SQuAD无论是在数据规模还是数据质量上都有一个很大的提升。在基于深度学习方法的研究背景下,数据量不够就很难做出有效、或是有用的模型,更难对模型进行合理、标准的测试。

  另一方面则是算法问题。之前自然语言处理在做阅读理解或者是自动问答研究的时候,会把这个研究问题视作一个系统的工程,因而把这个问题分成许多不同的部分。例如先去理解用户的问题;再去找答案的候选;再将候选答案进行精挑细选、互相比较;最后对候选答案进行排序打分,挑选出最可能的答案或者生成最终的答案。而这个繁复的过程中,似乎其中的每一步都是可以优化的。

  但它相应地也会带来一些问题。第一,当你分步去优化这其中的每一个过程的时候,你会去研究如何更好地理解这个问题,或是研究如何更好地把答案做对,这些分目标研究结果的整合未必能和“如何将阅读理解的答案正确找出来”这个目标完全吻合。第二,如果想做局部的优化,就意味着每一个局部过程都需要相应的(标注)数据,这使得阅读理解的研究进展缓慢。如果只使用问题-答案作为训练数据,中间模块的优化得到的监督信息不那么直接,因而很难有效。

  结合了上述问题,微软亚洲研究院自然语言计算研究组的机器阅读理解研究团队采用的则是一个端到端的深度学习模型的解决方案,区别于上述的每一个细化环节的具体优化过程,他们采取的方法是把中间环节尽可能的省去,使得整体的过程能够得到最优效果。

  实际上,SQuAD的挑战赛形式就是让系统在阅读完一篇几百词左右的短文之后再回答5个基于文章内容的问题。这个问题可能比大家熟知的高考英文阅读理解,或是托福阅读考试都要难得多。人们参加的这些考试往往是一个答案被限定住范围的选择题。

  但是在SQuAD的数据集中,问题和答案具有非常丰富的多样性。这五个问题中可能涉及文章中的某一个人,某一个地点,或是某一个时间等等实体;也有可能会问一些为什么(Why)、怎么样(How)的问题。后者的答案可能实际上是一句话,甚至是一小段话,因此解决这个问题只会更加棘手。

  另外,在SQuAD数据集中,除了问题的多样性之外,研究员们发现还有更多的挑战。比如语言(包括词级别和句子级别)的歧义性,对于同一个意思,问题和短文会用不同的词语或者句型表述(在标注指南中就明确要求标注者尽可能使用不同的表述)。另一个很有难度的挑战是对于有些问题,找到正确答案需要用到整篇短文中的不同句子的信息,进而对这些信息进行聚合和比较才能最终得出正确的答案。当然,也有一部分问题需要用到比较复杂的推理、常识和世界知识,面对这类问题就更是难以处理。下表是发布SQuAD数据集一文中给出的总结。

  R-NET: 基于深度神经网络的端到端系统

  为了研究机器阅读理解的问题,包括韦福如和杨南等在内的研究团队试图去建模人做阅读理解的过程。他们采用了R-NET,一个多层的网络结构,分别从四个层面对整个阅读理解任务的算法进行了建模。

  我们在做阅读理解的过程中,一个常见的顺序是这样的:首先阅读整篇文章,对文章有一个初步理解之后再去审题,从而对问题也有了一定认知。第二步,可能就需要将问题和文中的部分段落和内容做一些关联。例如题干中出现的某些关键已知信息(或证据)的,找出一些候选答案,举例来说:如果问题问的信息是时间,那么文中出现的与时间相关的信息就可能是候选答案。第三步,当我们将候选答案与问题进行对应之后,我们还需要综合全文去看待这些问题,进行证据的融合来辅证答案的正确性。最后一步,就是针对自己挑出的答案候选进行精筛,最终写下最正确的答案。

  有鉴于此,研究组提出的模型也就分为这样的四层。最下面的一层做表示学习,就是给问题和文本中的每一个词做一个表示,即深度学习里的向量。这里研究组使用的是多层的双向循环神经网络。第二步,就是将问题中的向量和文本中的向量做一个比对,这样就能找出那些问题和哪些文字部分比较接近。接下来,将这些结果放在全局中进行比对。这些都是通过注意力机制(attention)达到的。最后一步,针对挑出的答案候选区中的每一个词汇进行预测,哪一个词是答案的开始,到哪个词是答案的结束。这样,系统会挑出可能性最高的一段文本,最后将答案输出出来。整个过程就是一个基于以上四个层面的神经网络的端到端系统。

    3689654