但林灰觉得这些科技成果的疯狂涌现只是量变的积累罢了。
并没有产生质变。
为什么这样说呢?
前世人工智能方面的研究进展看似取得很多成果。
但这些研究成果大部分都属于弱人工智能。
最为典型的就是弱人工智能就是siri。
你与它的对话,实际上就是程序设计者在背后设计出一套相对应的流程。
然后在语音识别的基础上加了一套应对,使得大家都以为它能够听得懂你在说什么。
其实siri不过是走了一遍流程而已。
有弱人工智能,自然就有强人工智能!
“强人工智能”一词最初是约翰·罗杰斯·希尔勒针对电脑和其它信息处理机器创造的,其定义为:
“强人工智能观点认为计算机不仅是用来研究人的思维的一种工具;相反,只要运行适当的程序,计算机本身就是有思维的。”
强人工智能和弱人工智能最大的区别在于能不能具有不依赖于人的思维能力。
不止于此,还涉及到一些理念上的区别。
比如说弱人工智能观点认为不可能制造出能“真正”地推理和解决问题的智能机器。
从前世人工智能的发展情况来看,弱人工智能一派似乎是胜利了。
强人工智能一派一败涂地。
前世在很多人眼中人工智能进展早已突飞勐进,但实则不然。
诸如图像识别、影像识别、语言分析、棋类游戏等。
这些看似很高端大气上档次的人工智能实际上都处于非常原始的弱人工智能阶段。
这些机器只不过“看起来”像是智能的,但是并不真正拥有智能,也不会有自主意识。
之所以说这些东西原始,是因为这些人工智能的一举一动都是程序设计者在预测会出现的情况。
或许有人会说,人工智能一举一动都处在程序设计者预测的情况不才是正确的吗?
讲真,最近一直用看书追更,换源切换,朗读音色多,.. 安卓苹果均可。】
如果人工智能产生了什么设计者预测不到的情况岂不是意味着人工智能的失控吗?
这样说确实有道理。
但是换个角度想想,人们设计人工智能的初衷是什么呢?
人们是想要人工智能在诸如语言分析、棋类游戏上做的更游戏吗?
哪怕人工智能在这些方面做的再优秀也只能说明这些人工智能更适应规则而已。
而人类所期待的是人工智能可以打破规则。
只有人工智能打破规则才有可能在基础科学上有所助力。
听起来有点扯。
但事实如此,强人工智能的研究一向有志于此。
如2009年康乃尔大学教授hod lipson 和其博士研究生michael schmidt 研发出的 eureqa计算机程序,只要给予一些资料,这计算机程序自己只用几十个小时计算就推论出牛顿花费多年研究才发现的牛顿力学公式。
这等于只用几十个小时就自己重新发现牛顿力学公式。
但这种研究也仅仅到牛顿公式而已。
研究人员致力于此也是可以理解的。
基础科学才是决定人类科技真正上限的东西。
人工智能如果无助于基础科学的研究。
那现在多多少少都有点资源浪费的意味。
大概类似于换皮赛博朋克?
就算把概念炒出花来,本质上也只是虚假繁荣而已。
当所有领域都被弱人工智能铺开一遍。
那人工智能估计也就走到尽头了。
有的时候,林灰甚至会觉得涉及到人工智能很像是科技树点歪的结果。
深度学习的到来开启了人工智能的大门。
但开启了这扇大门之后,带来的直接后果是:
机器越来越聪明,人的作用在下降。
一些算法工程师甚至直接沦为机器的保姆。
一言难尽。
本站域名已经更换为www.adouyinxs.com 。请牢记。