人工智能真的超越人类了吗

2024-05-07 15:10

1. 人工智能真的超越人类了吗

人工智能是人类的一部分,怎么会超越人类呢。人工智能在进步,也是人类在进步,人工智能技术提升就是人类智能的提升,只是,未来个人之力会相对于社会之力越来越差距大,人类社会整体和个体的差距也不再是加法法则了,而是指数法则。
如同以前我们人的力气很小,后来用牛马代替人,力气大了几倍,用汽车火车代替牛马又增加了几十倍,人工智能的进步会是成千上万倍的提升。然而不论怎么提升,都是人在用这些工具。
机器人可以比人更聪明,但是机器人提升的同时,人也在提升。未来的人工智能可以超越过去的人类,但是超越不了未来的人类。

人工智能真的超越人类了吗

2. 人工智能会超越人类智能吗????????????

人工智能会超越人类吗?它会成为世界的统治者吗?

3. 人工智能是否有可能超越人类?

按现在的科技这样发展下去,人工智能是有可能超越人类的。

1956年夏季,在美国达特茅斯学院举行的一次重要会议上,以麦卡赛、明斯基、罗切斯特和申农等为首的科学家共同研究和探讨了用机器模拟智能的一系列问题。
首次提出了“人工智能”这一术语,它标志着人工智能这门新兴学科的正式诞生。此后,人工智能在发展历史上经历了多次高潮和低潮阶段。
在1956年人工智能被提出后,研究者们就大胆地提出乐观的预言,达特茅斯会议的参与者之一赫伯特·西蒙(Herbert Simon)还做出了更具体的预测:10年内计算机将成为国际象棋冠军,并且机器将证明一个重要的数学定理。
西蒙等人过于自信,其预言没有在预测的时间里实现,而且远远没有达到。这些失败给人工智能的声誉造成重大伤害。
1971年,英国剑桥大学数学家詹姆士(James)按照英国政府的旨意,发表了一份关于人工智能的综合报告,声称“人工智能研究就算不是骗局,也是庸人自扰”。
在这个报告的影响下,英国政府削减了人工智能的研究经费,解散了人工智能研究机构。人工智能的研究热情第一次被泼了冷水。
20世纪90年代,以日本第五代机器人研发失败和神经网络一直没有突破为代表,人工智能进入了第二个冬天。
直到21世纪初,深度学习与互联网大数据结合才使人工智能又一次迎来新的春天。在阿尔法围棋等大量突破性成果涌现之后,人类对机器(AI)能否超越人类的问题又重新燃起了热情。狂热的情绪背后甚至产生了人工智能威胁论。
谷歌技术总监、《奇点临近》的作者雷·库兹韦尔(Ray Kurzweil)预言人工智能将超过人类智能。他在书中写道,“由于技术发展呈现指数级增长,机器能模拟大脑的新皮质。
到2029年,机器将达到人类的智能水平;到2045年,人与机器将深度融合,那将标志着奇点时刻的到来。”除此以外,支持人工智能威胁论的代表人物还包括著名物理学家霍金、微软创始人比尔·盖茨、特斯拉CEO马斯克等。
2014年12月2日,霍金在接受BBC采访时表示,运用人工智能技术制造能够独立思考的机器将威胁人类的生存。霍金说:“它自己就动起来了,还能以前所未有的超快速度重新设计自己。人类呢,要受到缓慢的生物进化的限制,根本没有竞争力,会被超越的。”
特斯拉CEO马斯克对待人工智能的态度比较极端,2014年8月,他在推特上推荐尼克·波斯特洛姆的著作《超级智能:路线图、危险性与应对策略》时写道:“我们需要重点关注人工智能,它的潜在危险超过核武器。”
2017年10月,日本著名风险投资人孙正义在世界移动大会2017上表示,他认为机器人将变得比人类更聪明,在大约30年的时间里,AI的智商将有望超过1万点。相比之下,人类的平均智商是100点,天才可能达到200点。
孙正义说:“奇点是人类大脑将被超越的时刻,这是个临界点和交叉点。人工智能和计算机智能将超越人类大脑,这在21世纪肯定会发生。我想说的是,无须更多的辩论,也无须更多怀疑。”
在人工智能威胁论热度日益高涨的情况下,人工智能领域的科学家对人工智能威胁论提出了反对意见。2014年4月,脸书人工智能实验室主任,纽约大学计算机科学教授杨立昆在接受《波普杂志》采访时发表了对人工智能威胁论的看法。
他认为人工智能的研究者在之前很长的一段时间都低估了制造智能机器的难度。人工智能的每一个新浪潮,都会经历这么一段从盲目乐观到不理智最后到沮丧的阶段。
杨立昆提出:很多人觉得人工智能的进展是个指数曲线,其实它是个S形曲线,S形曲线刚开始的时候跟指数曲线很像,但由于发展阻尼和摩擦因子的存在,S形曲线到一定程度会无限逼近而不是超越人类的智商曲线。
未来学家们却假设这些因子是不存在的。他们生来就愿意做出盲目的预测,尤其当他们特别渴望这个预测成真的时候,这可能是为了实现个人抱负。

人工智能是否有可能超越人类?

4. 人工智能可以超越人类吗

如果把智能定义成某种固定的逻辑运算,那么AI早就超越人类了,像象棋、国际象棋、跳棋、苹果棋这样的简单智力游戏,人都玩儿不过电脑(就是人类的冠军也玩儿不过)。

但
如果广义的谈智能,AI还差得多。比方说,找为兄弟,许给他钱,让他连着学俩月开车,然后给他辆车,在美国开60公里,满世界的走,一年不出车祸就可以拿
到奖金,我相信90%的人都轻易做到;可是对于机器,那就难了,Google Self-Driving Car花了大钱现在也只是勉强做到。
上述的例子只是人类智能最为简单的部分(有人训练过蟑螂,呢能达到开车的效果);人类复杂的抽象认知能力,如联想、推理、语言,才是高级的功能,人脑相关功能的工作机理,人类目前不是很清楚,随便在那个地方有突破都够诺贝尔奖+图灵奖了。
更为令AI沮丧的是,即便AI有了上述的学习、认知能力,离人还很远;还有Empathy(同理心),这点相信大家都不陌生,最近的大片普罗米修斯里的生化人虽然很牛,但是离真人还是有差距的,这个差距就体现在人类的情感方面。
有一番对话,对于AI与人工智能的关系有一定得启示作用:
A:金鱼经过奋斗对鱼缸中的方寸有了很深入的认识,但它能够认知鱼缸外的世界吗?
B:没准可以因为鱼缸是透明的,虽然出不去,但是总归可以看见,因此鱼至少能了解屋里
A:但屋子外的它看不到,就无法认知,也就是说它不知道鱼缸外的世界
B:鱼缸外的世界一定比鱼缸里复杂吗?认识了复杂的,就等于认识了简单的吗?

5. 人工智能若超越人类,会发生什么?

人工智能若超越人类,会发生什么?

一些人把人工智能看作是一种威胁,对人工智能有着深深的恐惧。但事实真的如此吗?让恐惧来指导我们,绝非明智之举。

特斯拉CEO埃隆·马斯克以及著名物理学家史蒂芬·霍金都担心在不远的未来,人工智能会对人类产生威胁,这种观点也在一些电影中有所体现。
关于人工智能,最为盛行的反乌托邦式的观点并不正确,原因在于这种观点是在将“智能”等同于“自主”。它所假设的是,一台电脑能够建立自己的目标、有自己的意愿、依靠自己更快速的处理能力以及强大的数据库来打败人类。也就是说,这种观点假设了人工智能拥有完全自由的智能,但智能和自主是两件完全不同的事。
要说人工智能能够完全为了自己的意愿做事情,就好像在说计算器能够自行计算一样。对于人类来说,计算器是让我们更快、更准确地处理数学问题的工具,类似的,人工智能能让我们更加得心应手地处理困难问题,诸如大规模的数据分析,持续进行医药研究等等。同计算器一样,人工智能需要人类的介入和指示。
如今,自主电脑程序已经存在,诸如电脑病毒、赛博武器等程序是非常可怕的,然而它们也并非是智能的。大多数智能软件都是高度专业化的,比如IBM的沃森电脑(Watson)能够在类似《危险边缘》(Jeopardy)(译者注:美国哥伦比亚电视台的一档益智问答类节目)节目中拔得头筹,但他们还是无意识的。正如哲学家约翰·希尔勒(John Searle)所说:“沃森电脑自己都不知道自己在《危险边缘》中赢了。”
反人工智能的论调一般都以一种假设性的说法表达出来,如同霍金所说:“人工智能的全面发展可能导致人类的灭绝”。假设说法的问题在于,它们忽视了现实——接下来四分之一个世纪,出现“全人工智能”的可能性,还不如小行星撞地球让人类灭绝的几率高。
“智能”与“自主”两个概念的混淆源于我们对于自己在世界上变得“越来越无关紧要”的恐惧。如果人工智能能够接替我们工作,那么作为一个物种,我们人类又能做什么呢?看了玛丽·雪莱的《弗兰克斯坦》,我们害怕“机械怪物”,读了艾萨克·阿西莫夫的机器人小说,我们可能会对机械怪物接近我们这件事变得更加畏惧,这也是所谓的“科学怪人情结”(Frankenstein Complex)。
机械怪物与计算器的例子都说明,科技既具有破坏性,也能给我们带来机遇。但没有科技呢?我们很难说世界会变得更好。对待新的科技,我们应该想的是它能带给我们什么好处,而不是害怕一旦它们遭到误用会怎样。对待人工智能,我们也该如此。
例如,研究者正致力于开发人工智能,让其成为能支持科学家、医生以及其他知识型员工的好帮手。得益于这些,全球的科学产出每九年就会翻番。我们需要的智能软件可以回答诸如“某种药物对于中年女性有哪些副作用?”之类的问题,或者至少能找到一些相关的论文。我们需要的软件可以搜寻最新的科研论文,标记其中的重要著作,而这一过程不用靠键盘,靠的是对于论文核心信息的一些理解。这些功能都是人工智能研究者们致力于完成的目标。
现在,我们还处于人工智能研究的早期阶段。而人工智能产品仍存在许多缺陷。我们仍有充满挑战性的工作要完成。而坦白说,无论是贩卖恐惧还是哗众取宠,都没有抓住人工智能的要点:哪怕是对于普通孩子们来说很简单的一件事情,对于人工智能软件来说都十分困难——而且需要很多年的努力才能实现。这么说来,我们人类比我们看上去的还要聪明得多呢!
如果我们对于人工智能抱有一种不公正的恐惧态度的话,我们可能会失去能够对人类益处多多——甚至能够拯救生命——的人工智能。让恐惧来指导我们,绝非明智之举。
(来源:译言网   译者:沈持盈   原作者:Oren Etzioni)

人工智能若超越人类,会发生什么?

6. 人工智能已经超越人类了吗?

首先,我更愿意用机器智能来替换人工智能这个术语。其实,人工智能是相对于人类智能(非人工的智能、自然的智能)来说的。通常的智能往往省略其执行体:人类。机器智能这个术语强调了其执行体是机器而非人类。而人工智能这个术语侧重于描述智能行为是如何来的(人工的而非“自然”的),所以,人工智能和(人类)智能这两个术语并不是在同一个层面上描述的一对概念,容易引起误解和混淆。所以,就会产生人工智能是否可以超越人类智能的这样似是而非的问题。如果问:机器智能是否可以超过人类智能,也许更加容易理解一些。

机器智能显然不能完全超过人类智能,即使是在AlphaGO完胜李世石的事实面前。但是,机器智能在某些方面已经超过人类智能,这是不争的事实。例如,机器可以飞快地计算出logx、sinx等等。所以,合理的问题应该是问:在哪些方面,机器智能可以超越人类智能;而在哪些方面,机器智能永远不能超过人类智能?

机器智能是通过人类来实现的。我们可以把机器体现的智能理解为对于机器给定输入,人类为其构造了一个反应器从而对机器的输入给出了一个输出的一种行为。这里面,就默认了一个大大的前提:机器智能的设计者和实现者认为,机器的输出行为完全由于其输入而定。相对地,人类本身具有无数的传感器,可以接受无数的感知信号。人类的(智能)行为,就是对感知信号的一种输出反应。所以,除非给机器实现了人类一样多的传感器,接受人类一样多的感知信号,否则机器就不可能产生完整的人类智能。因为,对于有些人类智能行为,我们自身都不确信它到底是由于哪些感知信号所决定的。这些人类智能行为,机器绝对不可能模仿,更不要说超越。

例如,机器的人脸图像识别,似乎可以模仿甚至超越了人类的图像识别能力。那是因为,我们确信,人类图像识别的行为,完全由眼睛所接受的像素信号所决定。所以,只要把这些像素信号也输入给机器,那么,机器就有可能模仿出人类的智能行为,甚至有可能做得更好。但是,如果这个前提不存在呢?如果我们根本不知道人类识别图像的能力除了需要像素信号外,还需要“鼻子闻到图像的味道、耳朵听到图像的声音”,那么,只把像素信号给机器,机器智能怎么可能超越人类智能呢?连模仿也是大问题啊!
人类智能的某些行为,到底是由哪些感知信号所决定的,这个问题不能回答,那么,机器模仿这些只能行为,则是永远超不过人类。人类智能的这类行为,多吗?当然多。至少哪些需要意识、情感推理得到的行为,到底是由哪些感知信号所决定的?这些感知信号能否与数字化的输入给机器的信号等价?这些问题远远得不到回答。
所以,在目前阶段,担心机器智能超越人类智能,似乎是杞人忧天罢了。哪怕提出这种担心的人是大牛还是大咖。

7. 人工智能是否有可能超越人类?

亲,人工智能并不可能超越人类,因为人工智能技术是由人类创造出来的【摘要】
人工智能是否有可能超越人类?【提问】
亲,人工智能并不可能超越人类,因为人工智能技术是由人类创造出来的【回答】
人工智能不管多精妙,都无法超越人类的智慧。除非人工智能长出心智,那么加上人工智能本身的技术,一定会超越人类。但人工智能是工业技术,不可能长出心智。【回答】

人工智能是否有可能超越人类?

8. 人工智能会超越人类吗

如果把智能定义成某种固定的逻辑运算,那么AI早就超越人类了,像象棋、国际象棋、跳棋、苹果棋这样的简单智力游戏,人都玩儿不过电脑(就是人类的冠军也玩儿不过)。

但
如果广义的谈智能,AI还差得多。比方说,找为兄弟,许给他钱,让他连着学俩月开车,然后给他辆车,在美国开60公里,满世界的走,一年不出车祸就可以拿
到奖金,我相信90%的人都轻易做到;可是对于机器,那就难了,Google Self-Driving Car花了大钱现在也只是勉强做到。
上述的例子只是人类智能最为简单的部分(有人训练过蟑螂,呢能达到开车的效果);人类复杂的抽象认知能力,如联想、推理、语言,才是高级的功能,人脑相关功能的工作机理,人类目前不是很清楚,随便在那个地方有突破都够诺贝尔奖+图灵奖了。
更为令AI沮丧的是,即便AI有了上述的学习、认知能力,离人还很远;还有Empathy(同理心),这点相信大家都不陌生,最近的大片普罗米修斯里的生化人虽然很牛,但是离真人还是有差距的,这个差距就体现在人类的情感方面。
有一番对话,对于AI与人工智能的关系有一定得启示作用:
A:金鱼经过奋斗对鱼缸中的方寸有了很深入的认识,但它能够认知鱼缸外的世界吗?
B:没准可以因为鱼缸是透明的,虽然出不去,但是总归可以看见,因此鱼至少能了解屋里
A:但屋子外的它看不到,就无法认知,也就是说它不知道鱼缸外的世界
B:鱼缸外的世界一定比鱼缸里复杂吗?认识了复杂的,就等于认识了简单的吗?