对于人工智能好坏的议论文
人工智能的出现到底意味着什么呢?是好是坏?下面是学习啦小编为你整理的对于人工智能好坏的议论文,供大家阅览!
人工智能分为两类:强人工智能和弱人工智能
人工智能的一个比较流行的定义,也是该领域较早的定义,是由当时麻省理工学院的约翰·麦卡锡在1956年的达特矛斯会议上提出的:人工智能就是要让机器的行为看起来就像是人所表现出的智能行为一样。但是这个定义似乎忽略了强人工智能的可能性。另一个定义指人工智能是人造机器所表现出来的智能。总体来讲,目前对人工智能的定义大多可划分为四类,即机器“像人一样思考”、“像人一样行动”、“理性地思考”和“理性地行动”。这里“行动”应广义地理解为采取行动,或制定行动的决策,而不是肢体动作。
什么是人工智能?人工智能的利弊
强人工智能
强人工智能观点认为有可能制造出真正能推理(Reasoning)和解决问题(Problem solving)的智能机器,并且,这样的机器能将被认为是有知觉的,有自我意识的。强人工智能可以有两类:
1,类人的人工智能,即机器的思考和推理就像人的思维一样。,
2,非类人的人工智能,即机器产生了和人完全不一样的知觉和意识,使用和人完全不一样的推理方式。
目前以自然语言理解问题为突破口,以本源语义为对象,通过对“理解”与“智能”的界定研究,人类级别的人工智能研究已经取得进展。
弱人工智能
弱人工智能观点认为不可能制造出能真正地推理和解决问题的智能机器,这些机器只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识。
弱人工智能是可以控制的。因为弱人工智能是由一行行代码构成的,没有自我意识和思考能力。它能做的就是执行某段代码和进行数据的整合分析,并输出结果。它并不知道这段代码代表的含义是什么,所以它不会进行推理。没有意识和思考的弱人工智能并不会威胁到人类的生存,反而它会帮助人类解决现在所面临的问题。如现在的埃博拉疫情,只要我们输入正确的数据,弱人工智能就会很快帮助我们找到解决埃博拉疫情的办法。或是给弱人工智能接通机械手臂,让它自己进行试验提取相关数据,进而解决问题。弱人工智能能够给人类带来一个美好的未来。弱人工智能并不可怕,可怕的是被坏人利用。如恐怖分子利用它研制大规模杀伤性武器。
强人工智能是人类无法控制的,除非永远把它隔离在实验室当中(可能么?)。强人工智能的认知能力要远远高于地球历史上诞生的人类认知能力的总和。它如果想要建立自己的族群,必定会和人类争夺地球资源和空间,战争也许不可避免。在强人工智能的眼中,人类不过是高智商的地球生物中的一员,人类的活动已经严重的威胁到其他地球生物的生存,甚至有好多已经灭绝,强人工智能为了让地球的生态保持平衡,会把多余的人类XX掉,在强人工智能的眼中人类就是一种普通生物,就像我们眼中的黑猩猩和其他生物的区别一样,只不过智商高一点。
什么是人工智能?人工智能的利弊
强人工智能的研究目前处于停滞不前的状态下。人工智能研究者不一定同意弱人工智能,也不一定在乎或者了解强人工智能和弱人工智能的内容与差别。就现下的人工智能研究领域来看,研究者已大量造出看起来像是智能的机器,取得相当丰硕的理论上和实质上的成果,如2009年康乃尔大学教授Hod Lipson 和其博士研究生Michael Schmidt 研发出的 Eureqa电脑程序,只要给予一些数据,这电脑程序自己只用几十个小时计算就推论出牛顿花费多年研究才发现的牛顿力学公式,等于只用几十个小时就自己重新发现牛顿力学公式,这电脑程序也能用来研究很多其他领域的科学问题上。类人的人工智能寄希望于美国的人类大脑计划,研究大脑神经工作原理,从而制造出类人的人工智能。非类人的人工智能寄希望于新的数学逻辑算法。
不管怎样,真正的人工智能必定会诞生,谁都无法阻止它诞生的脚步。人工智能让我们走得更快更远,我现在所有的幻想都是依照现在的科技水平和认知能力进行的推理,并不代表以后真的会按照我们想象的走。也许不远的未来,人工智能帮助我们进化,身体的每一个细胞都用纳米技术替换,变得坚不可摧,不再吃饭不再喝水,而是以能量维持"生命"运转(这还是生命么?);也许我们不再是现在的样子,而是所有你想成为的样子;通过技术对大脑的改造,我们每个人都是强人工智能;我们完全可以在外太空“生活”。
到那时,是我们控制人工智能,还是人工智能控制我们?我们还叫人类么?到那时也许诞生一个人类的婴儿将会是一个超级新闻,也许不再会有人类诞生。我们还有必要留在地球么?如果答案是:不。我们会选择离开地球,因为地球还有足够的时间进化出下一个高智商生物。
猜你喜欢:
2.人工智能议论文