人工智能是否有可能超越人类?

2024-05-08 07:44

1. 人工智能是否有可能超越人类?

按现在的科技这样发展下去,人工智能是有可能超越人类的。

1956年夏季,在美国达特茅斯学院举行的一次重要会议上,以麦卡赛、明斯基、罗切斯特和申农等为首的科学家共同研究和探讨了用机器模拟智能的一系列问题。
首次提出了“人工智能”这一术语,它标志着人工智能这门新兴学科的正式诞生。此后,人工智能在发展历史上经历了多次高潮和低潮阶段。
在1956年人工智能被提出后,研究者们就大胆地提出乐观的预言,达特茅斯会议的参与者之一赫伯特·西蒙(Herbert Simon)还做出了更具体的预测:10年内计算机将成为国际象棋冠军,并且机器将证明一个重要的数学定理。
西蒙等人过于自信,其预言没有在预测的时间里实现,而且远远没有达到。这些失败给人工智能的声誉造成重大伤害。
1971年,英国剑桥大学数学家詹姆士(James)按照英国政府的旨意,发表了一份关于人工智能的综合报告,声称“人工智能研究就算不是骗局,也是庸人自扰”。
在这个报告的影响下,英国政府削减了人工智能的研究经费,解散了人工智能研究机构。人工智能的研究热情第一次被泼了冷水。
20世纪90年代,以日本第五代机器人研发失败和神经网络一直没有突破为代表,人工智能进入了第二个冬天。
直到21世纪初,深度学习与互联网大数据结合才使人工智能又一次迎来新的春天。在阿尔法围棋等大量突破性成果涌现之后,人类对机器(AI)能否超越人类的问题又重新燃起了热情。狂热的情绪背后甚至产生了人工智能威胁论。
谷歌技术总监、《奇点临近》的作者雷·库兹韦尔(Ray Kurzweil)预言人工智能将超过人类智能。他在书中写道,“由于技术发展呈现指数级增长,机器能模拟大脑的新皮质。
到2029年,机器将达到人类的智能水平;到2045年,人与机器将深度融合,那将标志着奇点时刻的到来。”除此以外,支持人工智能威胁论的代表人物还包括著名物理学家霍金、微软创始人比尔·盖茨、特斯拉CEO马斯克等。
2014年12月2日,霍金在接受BBC采访时表示,运用人工智能技术制造能够独立思考的机器将威胁人类的生存。霍金说:“它自己就动起来了,还能以前所未有的超快速度重新设计自己。人类呢,要受到缓慢的生物进化的限制,根本没有竞争力,会被超越的。”
特斯拉CEO马斯克对待人工智能的态度比较极端,2014年8月,他在推特上推荐尼克·波斯特洛姆的著作《超级智能:路线图、危险性与应对策略》时写道:“我们需要重点关注人工智能,它的潜在危险超过核武器。”
2017年10月,日本著名风险投资人孙正义在世界移动大会2017上表示,他认为机器人将变得比人类更聪明,在大约30年的时间里,AI的智商将有望超过1万点。相比之下,人类的平均智商是100点,天才可能达到200点。
孙正义说:“奇点是人类大脑将被超越的时刻,这是个临界点和交叉点。人工智能和计算机智能将超越人类大脑,这在21世纪肯定会发生。我想说的是,无须更多的辩论,也无须更多怀疑。”
在人工智能威胁论热度日益高涨的情况下,人工智能领域的科学家对人工智能威胁论提出了反对意见。2014年4月,脸书人工智能实验室主任,纽约大学计算机科学教授杨立昆在接受《波普杂志》采访时发表了对人工智能威胁论的看法。
他认为人工智能的研究者在之前很长的一段时间都低估了制造智能机器的难度。人工智能的每一个新浪潮,都会经历这么一段从盲目乐观到不理智最后到沮丧的阶段。
杨立昆提出:很多人觉得人工智能的进展是个指数曲线,其实它是个S形曲线,S形曲线刚开始的时候跟指数曲线很像,但由于发展阻尼和摩擦因子的存在,S形曲线到一定程度会无限逼近而不是超越人类的智商曲线。
未来学家们却假设这些因子是不存在的。他们生来就愿意做出盲目的预测,尤其当他们特别渴望这个预测成真的时候,这可能是为了实现个人抱负。

人工智能是否有可能超越人类?

2. 人工智能可以超越人类吗


3. 人工智能是否有可能超越人类?

亲,人工智能并不可能超越人类,因为人工智能技术是由人类创造出来的【摘要】
人工智能是否有可能超越人类?【提问】
亲,人工智能并不可能超越人类,因为人工智能技术是由人类创造出来的【回答】
人工智能不管多精妙,都无法超越人类的智慧。除非人工智能长出心智,那么加上人工智能本身的技术,一定会超越人类。但人工智能是工业技术,不可能长出心智。【回答】

人工智能是否有可能超越人类?

4. 人工智能会超越人类吗

如果把智能定义成某种固定的逻辑运算,那么AI早就超越人类了,像象棋、国际象棋、跳棋、苹果棋这样的简单智力游戏,人都玩儿不过电脑(就是人类的冠军也玩儿不过)。

但
如果广义的谈智能,AI还差得多。比方说,找为兄弟,许给他钱,让他连着学俩月开车,然后给他辆车,在美国开60公里,满世界的走,一年不出车祸就可以拿
到奖金,我相信90%的人都轻易做到;可是对于机器,那就难了,Google Self-Driving Car花了大钱现在也只是勉强做到。
上述的例子只是人类智能最为简单的部分(有人训练过蟑螂,呢能达到开车的效果);人类复杂的抽象认知能力,如联想、推理、语言,才是高级的功能,人脑相关功能的工作机理,人类目前不是很清楚,随便在那个地方有突破都够诺贝尔奖+图灵奖了。
更为令AI沮丧的是,即便AI有了上述的学习、认知能力,离人还很远;还有Empathy(同理心),这点相信大家都不陌生,最近的大片普罗米修斯里的生化人虽然很牛,但是离真人还是有差距的,这个差距就体现在人类的情感方面。
有一番对话,对于AI与人工智能的关系有一定得启示作用:
A:金鱼经过奋斗对鱼缸中的方寸有了很深入的认识,但它能够认知鱼缸外的世界吗?
B:没准可以因为鱼缸是透明的,虽然出不去,但是总归可以看见,因此鱼至少能了解屋里
A:但屋子外的它看不到,就无法认知,也就是说它不知道鱼缸外的世界
B:鱼缸外的世界一定比鱼缸里复杂吗?认识了复杂的,就等于认识了简单的吗?

5. 人工智能会超越人类吗?

 “2045年,当计算机智能超越人类。”在库兹韦尔著作《奇点临近》中译本的封页上写着这样一句话。这本书是2005年的畅销书,如今算来,离库兹韦尔预测的时间还有30年。 这一个预测结果得自库兹韦尔的加速回报定律 (LawofAcceleratingReturns),该定律认为人类 社会 是加速发展的,一个更加发达的 社会 本身具备的继续发展的能力也更强, 按照这条定律,2000年的发展速度是20世纪平均发展速度的5倍,人类在21世纪的进步又将是20世纪的1000倍。而这一切试图让人们相信奇点正在临近,技术将以近乎无限的速度发展。“从弱人工智能走向强人工智能可能需要几十年,从强走向超甚至有人预测是两年,最长的预测时间也是30年。大家都同意从强到超会变得非常快,如果失控,在强的阶段就会出现,到了超就彻底失控。《超体》虽然是幻想人脑的开发,但露西发展的过程恰恰是强人工智能到超人工智能过程的一个图解。一旦越过了界限,知识会迅速膨胀。这部电影跟现在关于脑科学、人工智能的想象关系非常密切。”上海交通大学 科技 史与科学文化研究院院长江晓原说。
   智能超越,的确会破坏人类的安全感,毕竟智能是人类站上食物链顶端的重要凭恃。江晓原和穆蕴秋博士刚刚翻译完成的《Nature杂志科幻小说选集》,其中有10来篇涉及人工智能,故事结局大多荒唐,字里行间透着隐忧。“ 西方做科幻与做前沿的人之间似乎形成一种不成文的规定,科幻专门用来对研究的内容质疑, 想象其发展所带来的一些不好的未来。在Nature上的小说作者都是很入流的,都是跟着西方现在的科幻潮流在写。”以此反观,对于人工智能的担忧似乎并非空穴来风。
   这种担忧,大概可以分为三个层面:第一层是技术上的滥用、技术缺陷对人类 社会 造成伤害;第二种是哲学层面的担忧,即人对技术过于依赖,把所有事情都交给计算机决策,人类丧失主体地位,更丧失生活的意义;第三层是最为可怕的,人工智能变坏,在意识的驱动下伤害人类,这更像是《终结者》中的场景。
      电影《终结者5》
   人工智能会超过人类智能吗?这种争论在学界一直存在。坚持人工智能不能超越人类的人不在少数,依据是人工智能是人造物,是在不断模拟人类,模拟者怎么会超越被模拟者?
   “这种想法的论据都是站不住脚的。”江晓原说,“没有任何一条定理证明被创造的东西不能超过造物主,现实生活中反而有很多相反的例子,比如孩子比父母聪明,就非常典型。虽然目前还在讨论人工智能能不能通过图灵测试,离超过人类还差得太远,但那种认为人工智能永远不能超过人类的想法我不赞成。”他认为,这类东西的问题在于技术的突破是不可知的,突破也有可能很快就到来。
   反驳“不会超越说”的一个重要依据是机器强大的升级能力,离我们生活最近的例子就是电子邮箱中根据收件人习惯,筛除垃圾邮件的程序。这一点曾是霍金提出警示的重要原因,他担心,一旦发展出相当于或者超越人类智慧的人工智能技术,它就会脱离控制,以不断加快的速度重新设计自己。但是人类受到缓慢生物进化的限制,无法与其竞争,甚至可能最终被超越。库兹韦尔也在书里写道:一旦人工智能达到人类的水平,它一定会很快超越人类水平,因为它会把人类智能的力量和非生物展现出来的智能(包括速度、内存容量、知识共享)结合在一起。机器学习是人工智能学习人类智能的重要方式,通过大样本的数据、信息让计算机从中发现学习知识经验、自动改进计算机算法。美国辛辛那提大学智能维护中心主任李杰认为人工智能的确有学习能力,但那属于程式里的学习,不会跳到程式之外,人工智能只能在指定领域升级。“不要忘了,人工智能里都有一个核心东西叫软件,软件不会自己思考,一定是人编程的。”
   目前人工智能在模拟人类智能上还存在诸多障碍,这让很多人相信终结者的出现还非常遥远。
   比如 现阶段让机器学习人类的知识就不容易。这种学习有个困境——计算机学到的知识未必是人类全部的知识。 李杰认为, 人在自身智慧的基础上学习别的智慧的功能,就不能被机器复制 。“比如人会因为某一条信息醍醐灌顶,人类称之为灵感,灵感是精神上的、无形的、不能编程的。我认为,机器可以取代知识,可以慢慢帮助人类做决策,但是灵感是其无法实现的,灵感是由人的智慧(wisdom)跟个人的精神所造成的一种很即时的冲击,无法量化描述,而机器是以目标为准。当以目标为准时,比如在打字速度、翻译速度、计算能力上,人脑的确竞争不过电脑,但当人以价值为准,道德价值、意识价值,电脑就不知如何与人相比。”
   难以数字化处理的并非只有灵感。 人有个特质在现象学上叫具身性——有身体、有感知,可以跟周边环境接触获得知识,这种知识与不跟外界接触、完全靠推理得来的知识不一样 ,打个比方,眼睛的转动可以帮注意力集中做出多种选择,这是人生活在世界上跟周边环境接触形成的,很难提炼出来放到计算机中去。再如两条腿走路,要在机器人身上实现并不容易,因为涉及人如何使用力气来抵抗地心引力,这是人上百万年来生物进化后自然而然的反应,要把这个技能加诸机器人身上,会涉及大量的计算,而且这种运转需要非常复杂的机电控制系统,保证它像人体四肢那样可靠地精密运转有很大挑战。概言之, 人的知识来自于 社会 和交往,这种知识很难形式化,知识的形式化边界至少在目前来看也是数字计算机的能力边界 ,人工智能缺乏具身性特征,难以从周边环境中获得这些不能形式化的知识。
   知识学习已经够复杂了,但这还不是人类智能的全部。前些年机器人“华生”参加美国答题节目,已经超越了最好的美国选手,它存储了很多词典、报纸,也可以做简单推理,已然是知识丰富了,但并没有人把它看作是一个完整的人。“人除了知,还有情和意,意是意志信仰,情跟人的群体有关,知情意是绑定一起的,很多知识的正确与否取决于情和意,比如宗教信仰和 社会 背景。 作为 社会 动物,人做出的决策并不完全是知识表达,有很多情和意的因素在里面,所以很难还原出一个算法来表现人类如何做决策 。”出身计算机专业的上海交通大学科学史在读博士陈自富,是个AI发烧友,他的这个观点与李杰相仿。在李杰看来,人类是团结的动物,人类的智慧来自于群体间的学习与成长,人类智慧不是一个单纯的机械,而是一个智能化集成技术。简而言之,智慧是智能化的结晶。人工智能可能在“单挑”中胜出,但是超出整个 社会 的人类智慧不太可能。
      “即便是最乐观的计算机科学家也认为人工智能在21世纪达到单个人的智力水平,这已经不错了,但其中不涉及情和意。”陈自富认为,知的方面,在未来30多年内,计算机可以达到一个很高的水平,人工智能大致能帮助普通个人做出不那么糟糕的决策,比如帮人计算存一笔钱是否划得来,存定期还是活期,买哪支股票。“对于确定的任务,人工智能可以做得到,而一些非确定性的任务则很难。说白了,机器只有不断进化,成为我们 社会 的一员,才能达到人类水平。”
    人工智能最终达到或超越人类智慧,必须要跨越机器与人的差别 。这种差别主要是理性、信仰和群体交往中的 情感 互动、文化基因。创造出有意识、有 情感 的人工智能,怀此愿望的科学家不在少数,阿森克特说过,我们能够实现让机器人像人类一样思考,但构建完美的机器人大脑需要很长时间。.
   蓝脑计划(BlueBrain)领军人物亨利·马克莱姆(HenryMarkram)2009年曾声称十年内推出人类意识的全息图,意图建立一套具有自我意识的人工智能。完成的方法是建立一个从突触到脑半球的完整人脑模型,并在一部超级计算机上模拟。尽管他的实验室已成功模拟小鼠单个脑皮层单元的活动,但是似乎距离还是很远。
   “西方人常说,生命是一个奇迹,那么脑更是一个奇迹,脑是生命里最高级的组成部分,人们并没有把这个奇迹的所有机制都搞清楚。”江晓原说,当人们说生命是一个奇迹,跟说苹果是一个奇迹,意思不一样,后者只是溢美之词,其构造运作机制都可以搞清楚,而前者是因为不知道生命里面到底发生了什么事,人脑也是一样。
   让我们看看把大脑神经元的工作原理弄清楚有多难。人脑是由连接着1000亿个神经元的100万亿个神经突触组成的网络,这些神经突触和神经元的状态每秒改变10到100次,而线虫只有302个神经元,人们尚且都搞不懂其机制。“大脑是个复杂的、开放的巨系统,跟外界一直有信息交换,用计算机模拟整个巨系统难度非常大,目前来讲还差十万八千里。”陈自富说,现在很多人通过计算机程序模拟神经单元,比如谷歌的一个项目大概可以实现10万到100万个大脑神经元的处理功能,这可能还达不到一只猫的智力水平,更何况它的算法是不是就是人脑中的算法,都没法判断。就连马克莱姆自己都无法对“模型建出来,能不能做思考”这个问题给出答案。
   事实上, 神经系统的计算方式和计算机有着本质的区别。计算机的状态转变完全由程序设定好,而神经系统从一个状态到另一个状态则非常依赖于当时的境况 。“人脑处理事情会做很多剪枝,当你端起杯子往外倒水,其实有多个分支,大脑会给出一个直接判断,把一些不必要的判断剪掉。但是机器人做这件事,就是对各个分支一个接一个地做可行性计算,这个叫做蛮力计算,所有的计算都要消耗能量。再者,从技术上来看,大脑神经元虽多,其运算速度是缓慢的,但对事情的处理是并行的。如果计算机实现10的10次方到12次方级别的大脑神经元处理功能,目前的技术条件下散热就是一个难以处理的问题。”陈自富认为,人工智能学习人类的这种缓慢的处理机制,需要认知科学的进步。但是搞清楚大脑的大部分原理就要数十年,甚至上百年。 可以说,以现实的技术路径来看,在模拟人类智能的路径上完成超越很难,终结者似乎还距离我们几个星系。 
   (节选自《人工智能是人类的“终结者”吗?》 刊2015年4月17日《文汇报·文汇学人》)
     *文汇独家稿件,转载请注明出处。

人工智能会超越人类吗?

6. 人工智能会超越人类智能吗

未来人工智能的智慧,的确会逐步的超越人类;因此,我们必须谨慎的发展这个很有可能摧毁我们的科技!人类历史上最伟大的发现是什么?小编认为,就是数千年前,柏拉图在思考中,构建的“科学”理论!经过了柏拉图,亚里士多德等多位哲学家,科学家的探索;
科学随着时间的推移蓬勃发展,一个又一个的科学家在历史长河中不断涌现,最终,才有了我们引以为傲,改变了地球的“现代科学”!时至今日,人类的智慧,似乎已经不能支撑日新月异的新需求了!

所以,世界各国都在紧锣密鼓的探索人工智能的奥秘!所谓的“人工智能”,就是具备深度学习能力的AI,目前来说,美国GOOGLE公司在该领域拥有着压倒性的优势!不过,据悉,中科院对人工智能科技的研究,最近也迎来了新突破;
我们和谷歌的差距,正在不断的缩小,甚至某些地方已经完成了超越!只不过,中国对科技的保密程度比较高,至今大众还被蒙在鼓里而已!

人工智能的智慧逐渐超越人类,这似乎已经成了一个板上钉钉的事情!二零一八年,我们最自信的“阵地”围棋,也被阿尔法狗无情夺走,自此宣布了人类的全线溃败!未来,或许科幻小说中的种种情形就会上演;
人工智能将会应用到生活的方方面面。但这真的是一个好消息吗?一些学者,给了否定的答案!比如说,美国加利福尼亚大学天文系教授韦恩,就认为人工智能的发展,已经走上了悬崖的边缘!

著名物理学家霍金,生前也曾经三令五申,呼吁我们停止开发人工智能。也许,这是一个能够毁灭我们文明的“潘多拉魔盒”,一定要谨慎的打开!

7. 人工智能将很快超越人类吗?

目前人工智能已经成了最热门的行业,引来了无数公司的追捧,有一种理论,说过人工智能不能取代人类的是人类的创造力,人工智能已经取代了我们太多的职业,比如开车、医疗诊断、产品加工等等。

报道称,中国相关人士表示,人工智能的发展前景确实不可限量,但所有科学技术包括人工智能,其发展都是非线性的,不会沿着一条直线永远快速向前,许多科学技术发展到一定程度就会遭遇瓶颈,在很长一段时间内停滞不前——人工智能一波三折的历史已经说明了这一点。

与此同时,科技的革新,也使劳动者与人工智能的分工愈加明显——重复性、简单性、危险性任务由人工智能完成,劳动者的创造力得以发挥,转向更多高质量的就业岗位,这意味着,人工智能在某种程度上不是冲击就业,而是升级了劳动者的“饭碗”。

分析人士称,在未来,集合了多种前沿分支技术的人工智能,确实会产生链式反应,给我们的生活、生产带来巨大的改变,天上不会掉馅饼,前景越美好,越需要清醒客观的判断和扎扎实实的努力;对于人工智能的机遇和挑战,无论走向任何领域,职场人都要把人工智能这个工具用好。

人工智能将很快超越人类吗?

8. 人工智能超越人类会怎样

按照一些专家的观点,机器人将沿着进化树逐渐攀升。今天它们像蟑螂一样聪明,在将来,就会像老鼠、兔子、狗和猫、猴子一样聪明,然后和它们的对手人类一 样聪明。这需要几十年缓慢的攀登,但机器在智力上超过我们只是时间问题。

  只是在具体的时间方面,专家们的意见存在分歧。科幻作家弗 诺·文奇表示,在30年内,我们将会遭遇超人的智力。在此后不久,人类的时代将结束。这个事件不会在2005年以前发生,但也不会推迟到2030年之后。 但在另一边,物理学家道格拉斯·霍夫斯塔特却说:“如果在下一个100年到200年出现任何这种遥远的事情,我都会非常惊讶。”他们都认同的是,这些事件 终究将会发生。
就像 《黑客帝国》中的世界。在那里,人类 甚至愚昧到发现不了机器已经将自己取而代之。他们进行着日常的工作和生活,把一切看成正常的,忘记了他们实际上是生活在一个虚拟的世界之中。人类的“存 在”仅仅是装在这些生活在营养舱里的人类大脑中的程序,由一个大型的计算机进行操作和管理,而机器需要这些人的唯一理由是要用他们作为生物电池。