冷弯机厂家
免费服务热线

Free service

hotline

010-00000000
冷弯机厂家
热门搜索:
技术资讯
当前位置:首页 > 技术资讯

人工智能距离消灭人类还有多远

发布时间:2020-03-23 12:19:52 阅读: 来源:冷弯机厂家

特斯拉汽车公司的创始人之一埃伦·马斯克最近患上了“科技恐惧症”,他在社交网络上连发两条耸人言论,正告人类要对人工智能特别当心,由于人工智能在未来极可能比核武器还要危险。埃伦·马斯克冷不丁地抛出这样的言论,是由于不久前看了1本名为《我们最后的发明:人工智能及人类时期的终结》的书,这本书的作者认为,人工智能的出现将会为人类带来灭顶之灾。

暂且不说这类可能性有多大,仅从目前来看,人工智能对待人类的态度还算友善。

比方说,前不久被微信列为不受欢迎名单的微软小冰,不久将以小冰二代的身份重返微信平台,而且还带来了一项特殊功能——控制智能家居,假设你在微信中对小冰下达关灯的指令,家中的智能电灯就能自动关闭。假设有一天小冰不高兴了,顶多不听你的指挥,谢绝开灯,尚不至于要了你的命。固然,如果未来你家的电锯也受小冰控制,那就不好说了。

所以,我说目前人工智能对待人类的态度还算友善,这句话还隐藏另外一个意思,就是即使它不友善,现在也还没到对人类生命构成威逼的时候。不过,埃伦·马斯克的耽忧也并不是杞人忧天,我认为人工智能哪怕具有以下四点中的一点,就足以对人类带来不可想象的后果。

1、通过图灵测试

著名的“图灵测试”说的是假设1台电脑能在5分钟内回答人类提出的一系列问题,且超过30%的答案让测试者误认为是人类所答,那末这台电脑就通过了测试,并被视为具有人类智能。

30%的说法是由英国人工智能之父阿兰·图灵提出的,这个标准现在愈发遭到人们质疑。图灵本人后来也否认自己曾为这项测试设定所谓标准,30%只是自己随口1说。说者无意听者成心,图灵去世后37年,美国科学家兼善士休·勒布纳把这项将这项测试办成了一年1届的赛事,这项赛事从1991年开始,直到2014年6月,主办方才宣布首台计算机通过测试。不过这次事件随后遭到媒体质疑,将其视为一次炒作。

我对此到有些不同的看法。计算机之所以能够通过测试,依托于强大的数据库作为支持。在接受测试之前,计算机已有了大量的人类知识作为储备,和人类为它精心编制的智能化程序。也就是说测试的实质是由作为人类的测试者提出问题,然后再由假装成人类的计算机说出人类为其设定好的答案作为回答。许多质疑者认为,这项测试表面上看是计算机与人类之间的较量,实际上只是人与人的博弈。我倒认为,测试的实质和结果其实不重要,重要的是它的的确确骗过了一些人。

如果拿人类本身来举例,一个孩子编造的谎言很难骗过一个成年人。这是由于成年人比孩子的生活经历更加丰富,辨别真伪的能力自然也更强一些。这么一想,那个假装成13岁男孩的计算机“尤金”之所以仅仅骗过了30%而不是更多的人,只是由于他的“经历”还不够丰富,也就是说如果他的数据储备足够强大,程序足够智能,让更多的人上当只是时间问题。而现在他已以一个13岁孩子的身份成功骗过了30%的成年人,也就是说相比13岁的人类,尤金明显更加智慧。

虽然目前人工智能还停留在对人类的低劣摹拟阶段,但随着人工智能技术的发展,有一天计算机将可以通过对性别、年龄、职业、生活习惯等方面的数据分析,进行智能化的摹拟,好比现在的新闻网站会根据你的阅读习惯进行智能化的推荐。那时,计算机将可以模仿任何人,坑蒙拐骗等犯罪行为将成为习以为常的事。

2、超出人类智慧

事实上,人工智能在数据计算、博弈系统、管理系统等许多领域已超出了人类智慧,Kiva智能仓储系统实现了仓储自动化运用、深蓝超级计算机在1997年克服了国际象棋冠军、沃森超级计算机在2011年的智力比赛中克服人类、由谷歌制造的无人驾驶汽车也行将成为现实。这意味着计算机在这些领域中已超出了人类智慧,由此引发的直接后果将是相干从业者将不能不面临失业的处境。

好比无人售票系统的投入使用致使售票员的失业,无人驾驶汽车的出现也将让司机这1职业成为历史。而在计算方面,人类几近已全部依赖于计算机,口算、心算和珠算等计算方式已被当作一种特殊能力,作为表演常常出现在电视节目里。更加贴近我们生活的例子是,人们在处理生活困难时也愈来愈依赖于计算机给出的经验和答案,而不是依托本身思考。比如我们中国人最为熟习的“百度一下,你就知道”。

人类在某些领域已愈来愈依赖于计算机,从而使得人类本身在这些领域逐步丧失了与计算机的竞争能力。换个角度说,人类正在逐步放弃自己的智能,而将这类智能赋予了计算机。如果说由此致使的失业问题会有一个按部就班的进程,而不至于引发人类恐慌,那末更严重的问题是,假设有一天计算机突然失去某些能力,或谢绝发挥某些能力,而人类本身已不具有这项能力,后果将会如何?

3、具有创造能力

机器与人类一样,都具有学习的能力,不同的是机器的学习依赖于经验的积累,其进程也就是不断地增加知识的储备量,和不断地从处理问题的进程中获得经验,从而在遇到同类问题时根据知识和经验解决问题,也就是我们通常所说的“举一反三”。而人类不同于机器之处在于,人类的学习除经验的积累以外,同时还具有创造力。

人类的这类创造力又被称为“跳跃型学习”,在某些情形下也被称为“灵感”或“顿悟”。一直以来,计算机最难学会的就是“顿悟”。或再严格一些来讲,计算机在学习和“实践”方面难以学会“不依赖于量变的质变”,很难从一种“质”直接到另一种“质”,或从一个“概念”直接到另一个“概念”。缺少创造力,也就意味着机器将很难突破本身知识储备的局限性,从而像人类一样完成自我进化和完善。

不过,人类在帮助计算机超出自己上向来绝不吝啬,听说,科学家们已研究出了一套新的数据分析方式,这套分析方法将为机器的具有创造力提供可能性。人类在计算能力上已远远落后与机器,如果在创造力上也失去优势,无异于将世界拱手让给机器。

4、具有人类感情

很明显,科学家们绝不会满足于1台智能化的仅限于进行处理人类作业的机器,而会进一步赋予机器以类似于人类的感情表达能力。现在智能聊天机器人已可以通过对人类文字的分析做出相应的搀杂有人类感情的回答,比如你对它说“我爱你”,它会做出“我也爱你”的回答。比如升级以后的微软小冰,会刻意与领养者构成一种主仆关系。这些都是机器做出的类似于人类的感情表达。

人类感情有喜怒哀乐等多种情势,作为对人类的模仿,机器自然也应具有这些能力,否则依照人类对人工智能的标准,就算不上是智能。这种情况就致使人类很容易与机器建立起类似于人类之间的情感关系。比如相互欣赏、相互信任或相互讨厌。假设与你相互信任的机器有一天突然感染某种病毒对你实行欺骗,你很有可能就会信以为真。这就要回到了机器利用摹拟人类的方式对人类实行犯罪行为的问题。

假设你与机器彼此之间产生了相互讨厌的情绪,那末机器就有可能因此而谢绝履行你下达的命令,乃至做出伤害你的行动。鉴于这类可能性,科幻小说家艾萨克?阿西莫夫在他的小说中为机器人设定了3大定律。1是机器人不得伤害人类,2是机器人必须服从于人类,3是在不违背第一第二法则的条件下,机器人必须保护自己。不过定律只是定律,制定出来就是用来违背的。

人工智能本身就是对人类的模仿,人分善恶,谁能保证机器的绝对无害呢?

广州最好的胸科医院

山东亮康眼科医院特色医疗

北京最好的肿瘤医院