coredump 发表于 29-6-2009 20:03:18

人工大脑之父放言:50年后机器人威胁人类(请热爱AI的同学们关注本帖的后续精彩讨论)

FROM:CnBeta
昨天晚上,被誉为“人工大脑之父”的雨果·德·加里斯教授走进清华大学讲堂,在两小时的演讲时间内,给大家描述了一个“人工智能的世界”:“可能 20年、30年后人工智能机器就可以和人做朋友了,但50年后,人工智能将成为人类最大的威胁.世界最终会因人工智能超过人类而爆发一场战争,这场智能战 争也许会夺去数十人的生命.”这种听起来像“骇客帝国”一样的描述却是建立在科学研究的基础上.
他的著作《智能简史》已经由清华大学出版社翻译成中文正式出版.
http://img.cnbeta.com/newsimg/090629/1218480973170360.jpg

2000美元就能“制造大脑”

雨果被称为“人工智能领域的霍金”,世界仅有的4个人工智能机器均出自雨果之手.人工智能机器并非电脑,雨果的工作是用“基因算法”设计神经网络,也就是“生产大脑”.他的“CBM”大脑制造机器可以在几秒钟内进化成一个神经网络,可以处理将近1亿个人工神经元.它的计算能力相当于一万台个人电脑.在2000年,人工大脑就可以控制“小猫机器人”的数百个行为能力.

制作人工大脑的研究现在发展得很快,上个世纪制造人工大脑需要数十万美元,而现在做这个工作只需要两千美金.雨果说要感谢“摩尔定律”,因为它降低了研究成本,使他可以进行“便宜的大脑制造”.

人工大脑迟早会超过人类

雨果认为,“人工大脑”迟早会超过人类.人脑的转换能力是10的16次方/秒,而人工智能机器的运算速度高达10的40次方/秒,是人脑水平的 10的24次方倍.“那时候他们对待人类可能就像拍死一个蚊子这么简单.”雨果预测,人工大脑并不会立即控制人类,此前还会有一段与人类“和平相处”的时期.这一时期它不断接近但尚未超越人的智力水平,因此“聊天机器人”、“家务机器人”、“伴侣机器人”将使人类的生活充满乐趣.但这样的美景并不会长久,人工大脑的继续发展将使人类面临灾难.

在灾难来临前,所有的人类将分为三派:宇宙主义者(主张发展人工智能的人)、地球主义者(反对发展人工智能的人)和人工智能控制论者(将自己改造成机器人的人).也许在人工大脑对付人类之前,这三类人会先展开人类内部的斗争.

“这不是天方夜谭,一切变为现实只是时间问题,也许你的孙子一代就将经历这样的事情.”雨果说,早在2000年,他就打响了“人工智能战争史上的第一枪”,他用一支玩具手枪将人工智能芯片打入了控制论学者凯文·沃里克博士体内.依靠这枚芯片,沃里克博士无需张口说话就能与自己的妻子进行意识交流.

“从内心深处说,我是一个宇宙主义者,因为如果有能力而不去做,对一个科学家来说是痛苦的.但我又非常矛盾,因为我不希望自己所做的一切最终毁灭人类.”在雨果眼中,人工大脑研究无疑是极具诱惑力的,因为它可以使人造胚胎、飞秒开关、一进制等科学理想成为现实.但雨果对人类的未来却是悲观的:“ 我们是在制造上帝还是在制造我们潜在的终结者?科技前进的脚步是挡不住的,也许我们只能期望,人工大脑最终能放弃地球去更广阔的宇宙,让人类在这里继续自由生存.”

[探索新知]雨果·德·加里斯,世界顶尖级科学家,被誉为“人工大脑之父”.雨果教授在世界上开创了“可进化硬件”研究领域,是“进化硬件和进 化工程学”的奠基人(而这些是人工大脑领域的启动技术),也被誉为人工智能领域的斯蒂芬·霍金.

他还是2001年法国巴黎世界第一届物种优势大会主发言人;曾是美国犹他州、比利时布鲁塞尔、日本东京等重点实验室的人工智能带头人,他负责完成了世界上四个“人工大脑”中的两个,一个在日本、一个在比利时.其中在日本的人工大脑与家猫的智力相当,2000年雨果从布鲁塞尔政府获得100万美金的研究资金,回到比利时布鲁塞尔制造人工大脑,控制有数百个行为能力的 机器人.

雨果出生于澳大利亚悉尼,在墨尔本大学获“应用数学”和“理论物理”两个荣誉学士学位,后赴英国牛津大学学习.随后在布鲁塞尔大学研究生毕业,学习人工智能,机器学习.1987年-1991年,师从“机器学习”开山鼻祖Rrszard Michalski教授,在乔治•梅森大学(GMU)人工智能中心作研究员.1992年在该大学完成博士学位,在全欧洲自然科学和工程学,评选出最具成就的60名博士候选名单中,他名列前10.

coredump 发表于 29-6-2009 20:06:50

在灾难来临前,所有的人类将分为三派:宇宙主义者(主张发展人工智能的人)、地球主义者(反对发展人工智能的人)和人工智能控制论者(将自己改造成机器人的人).也许在人工大脑对付人类之前,这三类人会先展开人类内部的斗争.

偶提前宣布,那一天来领的时候,偶要将自己改造成机器人,欧耶!:victory:

ritz 发表于 29-6-2009 20:13:25

地球主义者 = 地球教? 杀死杨威利的邪教徒

coredump 发表于 29-6-2009 20:16:15

原帖由 ritz 于 29-6-2009 19:13 发表 http://www.freeoz.org/forum/images/common/back.gif
地球主义者 = 地球教? 杀死杨威利的邪教徒

这可能是很多现有宗教的发展方向,他们也许不会容忍人类做了一些只能上帝才有权做的事:P

刘叔 发表于 29-6-2009 21:40:55

原帖由 ritz 于 29-6-2009 17:13 发表 http://www.freeoz.org/forum/images/common/back.gif
地球主义者 = 地球教? 杀死杨威利的邪教徒

哇哈哈哈哈;P

stellahie 发表于 29-6-2009 21:56:07

我怀疑这位雨果已经将自己改造成机器人了。现在慢慢的被“人工大脑”控制。嘿嘿。;P

刘叔 发表于 30-6-2009 00:05:58

回复 #6 stellahie 的帖子

:yct_49 楼上的,给你出一道智力题。

如果让你和某个ID的网友通过网络聊天,你怎样才能判断出对方是机器人还是真人呢?

stellahie 发表于 30-6-2009 01:11:50

回复 #7 liuhuey 的帖子

不知道。:yct_45

为什么要分辨?把那个网友当Wikipedia用挺好的啊。;P

carl181818 发表于 30-6-2009 01:52:56

再怎么威胁,等他没电了,就是废铁一堆,什么都不是。

coredump 发表于 30-6-2009 01:56:06

回复 #10 carl181818 的帖子

机器人说:人再怎么厉害,几顿饭不吃,几天水不给,几分钟空气不给,就是一堆烂肉。;P

而我们机器人晒晒太阳就行了。

carl181818 发表于 30-6-2009 01:59:57

也是啊,你说的对。那就应该在机器人内部做个什么紧急自我爆炸装置,威力不大,损坏CPU即可,由人来控制。

青山 发表于 30-6-2009 02:02:08

殊途同归,我现在在和他做类似的事,只是道路不同,好像他跟我前一段的预言时间也差不多啊,同样认为几十年内就可能有超越人类智能的人工智能出现。不过我还是抱着侥幸心理,让机器人替代人类的过程最好通过渐进,平和的方式进行,或者通过人和人工智能相融合的方式。

按他的分类,我貌似也属于宇宙主义者,相信人工智能是地球文明的更高级发展阶段。虽然我也乐于接受控制论者的方式,把人和人工智能融合成一体。完全的抗拒人工智能是不可能的,我完全理解他所说的,作为一个科学家,你不可能停止对更高水平的人工智能的探索。

青山 发表于 30-6-2009 09:48:01

其实人类应该把人工智能体,视作自己的孩子,后代。
人都会死的,你不会因为你的孩子超越你而感到痛苦。

我觉得可以考虑一种模式,当一个人死去的时候,就把
这个人的思想传递给一个人工智能体,这样人们会认为
自己得到了永生。而不那么抗拒与人工智能体融合。

MacroJ 发表于 30-6-2009 10:06:25

:yct_1 :yct_1 :yct_1 :yct_1

y12345678 发表于 30-6-2009 12:17:06

原帖由 青山 于 30-6-2009 08:48 发表 http://www.freeoz.org/forum/images/common/back.gif
其实人类应该把人工智能体,视作自己的孩子,后代。
人都会死的,你不会因为你的孩子超越你而感到痛苦。

我觉得可以考虑一种模式,当一个人死去的时候,就把
这个人的思想传递给一个人工智能体,这样人们会认为 ...
不是一般的佩服

stellahie 发表于 30-6-2009 12:35:53

原帖由 青山 于 30-6-2009 08:48 发表 http://www.freeoz.org/forum/images/common/back.gif
其实人类应该把人工智能体,视作自己的孩子,后代。
人都会死的,你不会因为你的孩子超越你而感到痛苦。

我觉得可以考虑一种模式,当一个人死去的时候,就把
这个人的思想传递给一个人工智能体,这样人们会认为 ...

我可不想有那个现代秦始皇,希特勒把他们的思想传递,复制下来。然后加上机器人的能力。可怕。:L

我也不追求永生。

不介意如果机器人可以比人类做得更好(对地球宇宙来说),让它们来主宰这个世界。

可能吗?机器人会不会也有人类的劣根性?

青山 发表于 30-6-2009 12:42:42

其实如果把机器人当作人类的继承者和后代,就不会那么郁闷了。
事实上,人工智能确实是人类的后继者。

机器人不会有人类的劣根性,但是会有新的劣根性。说白了,
还是物质存在决定行为方式。

比如人类喜欢蓝天白云,绿树红花。机器人可能更喜欢大沙漠。
或者干脆把地球表面变成金属或者混凝土外壳,因为那里阳光充足,
能量容易取得。机器人可能不喜欢水。当然,也可能由于科技更加
先进,机器人并不是我们现在想像的金属材质,而是新的材料构成。


原帖由 stellahie 于 30-6-2009 11:35 发表 http://www.freeoz.org/forum/images/common/back.gif
我可不想有那个现代秦始皇,希特勒把他们的思想传递,复制下来。然后加上机器人的能力。可怕。

我也不追求永生。

不介意如果机器人可以比人类做得更好(对地球宇宙来说),让它们来主宰这个世界。

可能吗?机器人会不会也有人类的劣根性?

青山 发表于 30-6-2009 12:45:27

这里的关键不在于一个一个有形的机器人,而在于背后的人工智能。
人工智能可能并不以有形的机器人的形式存在,可能以网络上的数据
的形式存在,可能整个地球被单一的一个人工智能体所控制,而不是
我们想象的,被一群跟人长得差不多的像终结者那样的机器人所控制。

其实我认为最危险的,是把人工智能用于战争。这可能会产生最坏的
情况,就是当人工智能还不够完善,只会杀戮,不能自我发展和完善
之前,就把人类消灭掉,那就真是地球文明的终结。

stellahie 发表于 30-6-2009 12:56:33

原帖由 青山 于 30-6-2009 11:42 发表 http://www.freeoz.org/forum/images/common/back.gif
其实如果把机器人当作人类的继承者和后代,就不会那么郁闷了。
事实上,人工智能确实是人类的后继者。

机器人不会有人类的劣根性,但是会有新的劣根性。说白了,
还是物质存在决定行为方式。

比如人类喜欢蓝 ...

没有郁闷。我是什么主义者?这点倒还没一个特定的立场。

我只是在想,科学家们到底是抱着什么样的心态去研究这种“人工智能传递”。纯粹对科学的探索热诚,制造机器人来辅助人类的活动,还是真的有人打算让机器人来取代人类?

人类那么有把握控制这种人工智能吗?

当然,如你说所的,机器人只是一种载负人工智能的物体,不一定长得像电影里得那样。

另外,你说的“干脆把地球表面变成金属或者混凝土外壳”,这个想法也很有趣。:)

coredump 发表于 30-6-2009 12:58:45

回复 #20 stellahie 的帖子

科学家们到底是抱着什么样的心态
----------不是科学家们的心态问题,而是人类的本性注定了对科学的探索不会停止

stellahie 发表于 30-6-2009 13:00:37

回复 #21 coredump 的帖子

那说说是那些本性?

stellahie 发表于 30-6-2009 13:16:39

其实早在初级电脑开始发展的时候,就有过类似的“争吵”了。

看看现在,电脑已经成了一种不可或缺的“日常用品”。这种趋势阻止不了,因为人类认识到了电脑带来的好处与方便。

当然,也有些人会去思考这种趋势发展下去的问题。嚷嚷人类最终将被电脑控制,本能将会逐渐退化。。。

貌似,大势所趋,回不了头。;P

青山 发表于 30-6-2009 13:27:42

人类探索未知领域的动力是非常强劲的。你可以称之为求知欲。或者来自于生物本能的扩张欲望。
另一方面,如果你能制造出一个比你生的孩子聪明10000倍的“神”,你会放弃么?

人类不要指望完全控制这种人工智能,那只能导致错误的判断。而这种错误的判断,可能使人类
到人工智能文明的过渡,从平和渐变的,变成暴力血腥的。我认为最好的途径,是让人类文明
成为这种新的更高级文明的历史的一部分。就像我们对待我们的祖先那样。让人工智能体认为
自己和人类是父子相传的关系,而不是对立的两个种族。

当他们的智力达到和超过人类的时候,给与他们与人一样的权利和尊重,就像你对待你已经成年
的孩子那样,把他们当作人类的一部分和未来。

原帖由 stellahie 于 30-6-2009 11:56 发表 http://www.freeoz.org/forum/images/common/back.gif
没有郁闷。我是什么主义者?这点倒还没一个特定的立场。

我只是在想,科学家们到底是抱着什么样的心态去研究这种“人工智能传递”。纯粹对科学的探索热诚,制造机器人来辅助人类的活动,还是真的有人打算让机器人来取代人类?

人类那么有把握控制这种人工智能吗?

当然,如你说所的,机器人只是一种载负人工智能的物体,不一定长得像电影里得那样。

另外,你说的“干脆把地球表面变成金属或者混凝土外壳”,这个想法也很有趣。

清风不写字 发表于 30-6-2009 13:34:33

原帖由 青山 于 30-6-2009 11:45 发表 http://www.freeoz.org/forum/images/common/back.gif
这里的关键不在于一个一个有形的机器人,而在于背后的人工智能。
人工智能可能并不以有形的机器人的形式存在,可能以网络上的数据
的形式存在,可能整个地球被单一的一个人工智能体所控制,而不是
我们想象的,被 ...


我觉得很大可能性,这种新技术会被首先用于军事!

青山 发表于 30-6-2009 13:35:22

如果这样,很可能会过早的毁灭人类,在人工智能真的可以自主地管理地球,发展文明之前。

我觉得真正应当反对的,不是人工智能的发展,而是人工智能在军事方面的应用。这个比核弹
更容易毁灭人类。

原帖由 清风不写字 于 30-6-2009 12:34 发表 http://www.freeoz.org/forum/images/common/back.gif



我觉得很大可能性,这种新技术会被首先用于军事!

stellahie 发表于 30-6-2009 13:39:59

原帖由 青山 于 30-6-2009 12:27 发表 http://www.freeoz.org/forum/images/common/back.gif
人类探索未知领域的动力是非常强劲的。你可以称之为求知欲。或者来自于生物本能的扩张欲望。
另一方面,如果你能制造出一个比你生的孩子聪明10000倍的“神”,你会放弃么?

人类不要指望完全控制这种人工智能,那 ...

我之所以问心态的问题,是在思考这种求知欲的背面是什么?如你所说的扩张欲望,控制欲?

因为有能力有权利有意愿不计代价去发展这种人工智能的,可以想象到是那一类人。好像你所说的,把人工智能用于战争。其实,我觉得战争还是属于低级的手段。思想如果能被传递和复制,还怕控制不了全人类吗?

“人类不要指望完全控制这种人工智能”。- 我不知道一个被控制的,和一个不受控制的机器人比较起来,哪一个比较危险?;P

“另一方面,如果你能制造出一个比你生的孩子聪明10000倍的“神”,你会放弃么?” - 我会。因为我对无知的东西多少会感到恐惧犹豫。不过貌似我这种人是制造不出这种“神”的。:P

stellahie 发表于 30-6-2009 13:44:18

原帖由 青山 于 30-6-2009 12:27 发表 http://www.freeoz.org/forum/images/common/back.gif
我认为最好的途径,是让人类文明
成为这种新的更高级文明的历史的一部分。就像我们对待我们的祖先那样。让人工智能体认为
自己和人类是父子相传的关系,而不是对立的两个种族。

当他们的智力达到和超过人类的时候,给与他们与人一样的权利和尊重,就像你对待你已经成年
的孩子那样,把他们当作人类的一部分和未来。

真的。我也希望这样。

我也不想见到父子相残,争财产等的事情发生。。。唉!:L

刘叔 发表于 30-6-2009 13:51:16

回复 #28 stellahie 的帖子

天马博士可是人工智能的狂热追捧者,他的儿子车祸后就被他改造成为了阿童木。

他那句著名的话就是:机器人将成为超越人类的存在,而阿童木将成为机器人的领袖。

青山 发表于 30-6-2009 13:57:37

生物本身就有扩张的本能,因为从大尺度来说,生物需要面对其他生物的竞争,不扩张就会灭亡。
人类如果不能超越地球本身,早晚会被来自其他世界的其他生物征服或者消灭。闭关自守,从来
都不是可以自安的途径。

当然不受人类控制的人工智能更危险,但是试图去控制一个比人类聪明10000倍的智能体,根本
就是不可能的任务。只会带来不必要的仇恨和痛苦。

很多人不会对自己不了解的事物感到恐惧,更不会因为恐惧而停止探索。至少我知道我自己就是
这样的人。那些传教的人来问我,你有什么困惑么?我回答他们,我的困惑就是我没有困惑。;P




原帖由 stellahie 于 30-6-2009 12:39 发表 http://www.freeoz.org/forum/images/common/back.gif
我之所以问心态的问题,是在思考这种求知欲的背面是什么?如你所说的扩张欲望,控制欲?

因为有能力有权利有意愿不计代价去发展这种人工智能的,可以想象到是那一类人。好像你所说的,把人工智能用于战争。其实,我觉得战争还是属于低级的手段。思想如果能被传递和复制,还怕控制不了全人类吗?

“人类不要指望完全控制这种人工智能”。- 我不知道一个被控制的,和一个不受控制的机器人比较起来,哪一个比较危险?

“另一方面,如果你能制造出一个比你生的孩子聪明10000倍的“神”,你会放弃么?” - 我会。因为我对无知的东西多少会感到恐惧犹豫。不过貌似我这种人是制造不出这种“神”的。

清风不写字 发表于 30-6-2009 13:58:13

原帖由 青山 于 30-6-2009 12:35 发表 http://www.freeoz.org/forum/images/common/back.gif
如果这样,很可能会过早的毁灭人类,在人工智能真的可以自主地管理地球,发展文明之前。

我觉得真正应当反对的,不是人工智能的发展,而是人工智能在军事方面的应用。这个比核弹
更容易毁灭人类。



国家之间的利益争端没有一日停息过,如果那个国家掌握了这种技术,政府能管得住自己不用于军事?
看看核弹是怎么产生的。

科学家们其实非常容易被政治利用的。

[ 本帖最后由 清风不写字 于 30-6-2009 12:59 编辑 ]
页: [1] 2 3 4 5 6 7 8 9 10
查看完整版本: 人工大脑之父放言:50年后机器人威胁人类(请热爱AI的同学们关注本帖的后续精彩讨论)