FreeOZ论坛

标题: 人工大脑之父放言:50年后机器人威胁人类(请热爱AI的同学们关注本帖的后续精彩讨论) [打印本页]

作者: coredump    时间: 29-6-2009 20:03
标题: 人工大脑之父放言:50年后机器人威胁人类(请热爱AI的同学们关注本帖的后续精彩讨论)
FROM:CnBeta
昨天晚上,被誉为“人工大脑之父”的雨果·德·加里斯教授走进清华大学讲堂,在两小时的演讲时间内,给大家描述了一个“人工智能的世界”:“可能 20年、30年后人工智能机器就可以和人做朋友了,但50年后,人工智能将成为人类最大的威胁.世界最终会因人工智能超过人类而爆发一场战争,这场智能战 争也许会夺去数十人的生命.”这种听起来像“骇客帝国”一样的描述却是建立在科学研究的基础上.
他的著作《智能简史》已经由清华大学出版社翻译成中文正式出版.

                               
登录/注册后可看大图


2000美元就能“制造大脑”

雨果被称为“人工智能领域的霍金”,世界仅有的4个人工智能机器均出自雨果之手.人工智能机器并非电脑,雨果的工作是用“基因算法”设计神经网络,也就是“生产大脑”.他的“CBM”大脑制造机器可以在几秒钟内进化成一个神经网络,可以处理将近1亿个人工神经元.它的计算能力相当于一万台个人电脑.在2000年,人工大脑就可以控制“小猫机器人”的数百个行为能力.

制作人工大脑的研究现在发展得很快,上个世纪制造人工大脑需要数十万美元,而现在做这个工作只需要两千美金.雨果说要感谢“摩尔定律”,因为它降低了研究成本,使他可以进行“便宜的大脑制造”.

人工大脑迟早会超过人类


雨果认为,“人工大脑”迟早会超过人类.人脑的转换能力是10的16次方/秒,而人工智能机器的运算速度高达10的40次方/秒,是人脑水平的 10的24次方倍.“那时候他们对待人类可能就像拍死一个蚊子这么简单.”雨果预测,人工大脑并不会立即控制人类,此前还会有一段与人类“和平相处”的时期.这一时期它不断接近但尚未超越人的智力水平,因此“聊天机器人”、“家务机器人”、“伴侣机器人”将使人类的生活充满乐趣.但这样的美景并不会长久,人工大脑的继续发展将使人类面临灾难.

在灾难来临前,所有的人类将分为三派:宇宙主义者(主张发展人工智能的人)、地球主义者(反对发展人工智能的人)和人工智能控制论者(将自己改造成机器人的人).也许在人工大脑对付人类之前,这三类人会先展开人类内部的斗争.

“这不是天方夜谭,一切变为现实只是时间问题,也许你的孙子一代就将经历这样的事情.”雨果说,早在2000年,他就打响了“人工智能战争史上的第一枪”,他用一支玩具手枪将人工智能芯片打入了控制论学者凯文·沃里克博士体内.依靠这枚芯片,沃里克博士无需张口说话就能与自己的妻子进行意识交流.

“从内心深处说,我是一个宇宙主义者,因为如果有能力而不去做,对一个科学家来说是痛苦的.但我又非常矛盾,因为我不希望自己所做的一切最终毁灭人类.”在雨果眼中,人工大脑研究无疑是极具诱惑力的,因为它可以使人造胚胎、飞秒开关、一进制等科学理想成为现实.但雨果对人类的未来却是悲观的:“ 我们是在制造上帝还是在制造我们潜在的终结者?科技前进的脚步是挡不住的,也许我们只能期望,人工大脑最终能放弃地球去更广阔的宇宙,让人类在这里继续自由生存.”

[探索新知]雨果·德·加里斯,世界顶尖级科学家,被誉为“人工大脑之父”.雨果教授在世界上开创了“可进化硬件”研究领域,是“进化硬件和进 化工程学”的奠基人(而这些是人工大脑领域的启动技术),也被誉为人工智能领域的斯蒂芬·霍金.

他还是2001年法国巴黎世界第一届物种优势大会主发言人;曾是美国犹他州、比利时布鲁塞尔、日本东京等重点实验室的人工智能带头人,他负责完成了世界上四个“人工大脑”中的两个,一个在日本、一个在比利时.其中在日本的人工大脑与家猫的智力相当,2000年雨果从布鲁塞尔政府获得100万美金的研究资金,回到比利时布鲁塞尔制造人工大脑,控制有数百个行为能力的 机器人.

雨果出生于澳大利亚悉尼,在墨尔本大学获“应用数学”和“理论物理”两个荣誉学士学位,后赴英国牛津大学学习.随后在布鲁塞尔大学研究生毕业,学习人工智能,机器学习.1987年-1991年,师从“机器学习”开山鼻祖Rrszard Michalski教授,在乔治•梅森大学(GMU)人工智能中心作研究员.1992年在该大学完成博士学位,在全欧洲自然科学和工程学,评选出最具成就的60名博士候选名单中,他名列前10.

作者: coredump    时间: 29-6-2009 20:06
在灾难来临前,所有的人类将分为三派:宇宙主义者(主张发展人工智能的人)、地球主义者(反对发展人工智能的人)和人工智能控制论者(将自己改造成机器人的人).也许在人工大脑对付人类之前,这三类人会先展开人类内部的斗争.


偶提前宣布,那一天来领的时候,偶要将自己改造成机器人,欧耶!
作者: ritz    时间: 29-6-2009 20:13
地球主义者 = 地球教? 杀死杨威利的邪教徒
作者: coredump    时间: 29-6-2009 20:16
原帖由 ritz 于 29-6-2009 19:13 发表
地球主义者 = 地球教? 杀死杨威利的邪教徒


这可能是很多现有宗教的发展方向,他们也许不会容忍人类做了一些只能上帝才有权做的事
作者: 刘叔    时间: 29-6-2009 21:40
原帖由 ritz 于 29-6-2009 17:13 发表
地球主义者 = 地球教? 杀死杨威利的邪教徒


哇哈哈哈哈
作者: stellahie    时间: 29-6-2009 21:56
我怀疑这位雨果已经将自己改造成机器人了。现在慢慢的被“人工大脑”控制。嘿嘿。
作者: 刘叔    时间: 30-6-2009 00:05
标题: 回复 #6 stellahie 的帖子
楼上的,给你出一道智力题。

如果让你和某个ID的网友通过网络聊天,你怎样才能判断出对方是机器人还是真人呢?
作者: stellahie    时间: 30-6-2009 01:11
标题: 回复 #7 liuhuey 的帖子
不知道。

为什么要分辨?把那个网友当Wikipedia用挺好的啊。
作者: carl181818    时间: 30-6-2009 01:52
再怎么威胁,等他没电了,就是废铁一堆,什么都不是。
作者: coredump    时间: 30-6-2009 01:56
标题: 回复 #10 carl181818 的帖子
机器人说:人再怎么厉害,几顿饭不吃,几天水不给,几分钟空气不给,就是一堆烂肉。

而我们机器人晒晒太阳就行了。
作者: carl181818    时间: 30-6-2009 01:59
也是啊,你说的对。那就应该在机器人内部做个什么紧急自我爆炸装置,威力不大,损坏CPU即可,由人来控制。
作者: 青山    时间: 30-6-2009 02:02
殊途同归,我现在在和他做类似的事,只是道路不同,好像他跟我前一段的预言时间也差不多啊,同样认为几十年内就可能有超越人类智能的人工智能出现。不过我还是抱着侥幸心理,让机器人替代人类的过程最好通过渐进,平和的方式进行,或者通过人和人工智能相融合的方式。

按他的分类,我貌似也属于宇宙主义者,相信人工智能是地球文明的更高级发展阶段。虽然我也乐于接受控制论者的方式,把人和人工智能融合成一体。完全的抗拒人工智能是不可能的,我完全理解他所说的,作为一个科学家,你不可能停止对更高水平的人工智能的探索。
作者: 青山    时间: 30-6-2009 09:48
其实人类应该把人工智能体,视作自己的孩子,后代。
人都会死的,你不会因为你的孩子超越你而感到痛苦。

我觉得可以考虑一种模式,当一个人死去的时候,就把
这个人的思想传递给一个人工智能体,这样人们会认为
自己得到了永生。而不那么抗拒与人工智能体融合。
作者: MacroJ    时间: 30-6-2009 10:06

作者: y12345678    时间: 30-6-2009 12:17
原帖由 青山 于 30-6-2009 08:48 发表
其实人类应该把人工智能体,视作自己的孩子,后代。
人都会死的,你不会因为你的孩子超越你而感到痛苦。

我觉得可以考虑一种模式,当一个人死去的时候,就把
这个人的思想传递给一个人工智能体,这样人们会认为 ...

不是一般的佩服
作者: stellahie    时间: 30-6-2009 12:35
原帖由 青山 于 30-6-2009 08:48 发表
其实人类应该把人工智能体,视作自己的孩子,后代。
人都会死的,你不会因为你的孩子超越你而感到痛苦。

我觉得可以考虑一种模式,当一个人死去的时候,就把
这个人的思想传递给一个人工智能体,这样人们会认为 ...


我可不想有那个现代秦始皇,希特勒把他们的思想传递,复制下来。然后加上机器人的能力。可怕。

我也不追求永生。

不介意如果机器人可以比人类做得更好(对地球宇宙来说),让它们来主宰这个世界。

可能吗?机器人会不会也有人类的劣根性?
作者: 青山    时间: 30-6-2009 12:42
其实如果把机器人当作人类的继承者和后代,就不会那么郁闷了。
事实上,人工智能确实是人类的后继者。

机器人不会有人类的劣根性,但是会有新的劣根性。说白了,
还是物质存在决定行为方式。

比如人类喜欢蓝天白云,绿树红花。机器人可能更喜欢大沙漠。
或者干脆把地球表面变成金属或者混凝土外壳,因为那里阳光充足,
能量容易取得。机器人可能不喜欢水。当然,也可能由于科技更加
先进,机器人并不是我们现在想像的金属材质,而是新的材料构成。


原帖由 stellahie 于 30-6-2009 11:35 发表
我可不想有那个现代秦始皇,希特勒把他们的思想传递,复制下来。然后加上机器人的能力。可怕。

我也不追求永生。

不介意如果机器人可以比人类做得更好(对地球宇宙来说),让它们来主宰这个世界。

可能吗?机器人会不会也有人类的劣根性?

作者: 青山    时间: 30-6-2009 12:45
这里的关键不在于一个一个有形的机器人,而在于背后的人工智能。
人工智能可能并不以有形的机器人的形式存在,可能以网络上的数据
的形式存在,可能整个地球被单一的一个人工智能体所控制,而不是
我们想象的,被一群跟人长得差不多的像终结者那样的机器人所控制。

其实我认为最危险的,是把人工智能用于战争。这可能会产生最坏的
情况,就是当人工智能还不够完善,只会杀戮,不能自我发展和完善
之前,就把人类消灭掉,那就真是地球文明的终结。
作者: stellahie    时间: 30-6-2009 12:56
原帖由 青山 于 30-6-2009 11:42 发表
其实如果把机器人当作人类的继承者和后代,就不会那么郁闷了。
事实上,人工智能确实是人类的后继者。

机器人不会有人类的劣根性,但是会有新的劣根性。说白了,
还是物质存在决定行为方式。

比如人类喜欢蓝 ...


没有郁闷。我是什么主义者?这点倒还没一个特定的立场。

我只是在想,科学家们到底是抱着什么样的心态去研究这种“人工智能传递”。纯粹对科学的探索热诚,制造机器人来辅助人类的活动,还是真的有人打算让机器人来取代人类?

人类那么有把握控制这种人工智能吗?

当然,如你说所的,机器人只是一种载负人工智能的物体,不一定长得像电影里得那样。

另外,你说的“干脆把地球表面变成金属或者混凝土外壳”,这个想法也很有趣。
作者: coredump    时间: 30-6-2009 12:58
标题: 回复 #20 stellahie 的帖子
科学家们到底是抱着什么样的心态
----------不是科学家们的心态问题,而是人类的本性注定了对科学的探索不会停止
作者: stellahie    时间: 30-6-2009 13:00
标题: 回复 #21 coredump 的帖子
那说说是那些本性?
作者: stellahie    时间: 30-6-2009 13:16
其实早在初级电脑开始发展的时候,就有过类似的“争吵”了。

看看现在,电脑已经成了一种不可或缺的“日常用品”。这种趋势阻止不了,因为人类认识到了电脑带来的好处与方便。

当然,也有些人会去思考这种趋势发展下去的问题。嚷嚷人类最终将被电脑控制,本能将会逐渐退化。。。

貌似,大势所趋,回不了头。
作者: 青山    时间: 30-6-2009 13:27
人类探索未知领域的动力是非常强劲的。你可以称之为求知欲。或者来自于生物本能的扩张欲望。
另一方面,如果你能制造出一个比你生的孩子聪明10000倍的“神”,你会放弃么?

人类不要指望完全控制这种人工智能,那只能导致错误的判断。而这种错误的判断,可能使人类
到人工智能文明的过渡,从平和渐变的,变成暴力血腥的。我认为最好的途径,是让人类文明
成为这种新的更高级文明的历史的一部分。就像我们对待我们的祖先那样。让人工智能体认为
自己和人类是父子相传的关系,而不是对立的两个种族。

当他们的智力达到和超过人类的时候,给与他们与人一样的权利和尊重,就像你对待你已经成年
的孩子那样,把他们当作人类的一部分和未来。

原帖由 stellahie 于 30-6-2009 11:56 发表
没有郁闷。我是什么主义者?这点倒还没一个特定的立场。

我只是在想,科学家们到底是抱着什么样的心态去研究这种“人工智能传递”。纯粹对科学的探索热诚,制造机器人来辅助人类的活动,还是真的有人打算让机器人来取代人类?

人类那么有把握控制这种人工智能吗?

当然,如你说所的,机器人只是一种载负人工智能的物体,不一定长得像电影里得那样。

另外,你说的“干脆把地球表面变成金属或者混凝土外壳”,这个想法也很有趣。

作者: 清风不写字    时间: 30-6-2009 13:34
原帖由 青山 于 30-6-2009 11:45 发表
这里的关键不在于一个一个有形的机器人,而在于背后的人工智能。
人工智能可能并不以有形的机器人的形式存在,可能以网络上的数据
的形式存在,可能整个地球被单一的一个人工智能体所控制,而不是
我们想象的,被 ...



我觉得很大可能性,这种新技术会被首先用于军事!
作者: 青山    时间: 30-6-2009 13:35
如果这样,很可能会过早的毁灭人类,在人工智能真的可以自主地管理地球,发展文明之前。

我觉得真正应当反对的,不是人工智能的发展,而是人工智能在军事方面的应用。这个比核弹
更容易毁灭人类。

原帖由 清风不写字 于 30-6-2009 12:34 发表



我觉得很大可能性,这种新技术会被首先用于军事!

作者: stellahie    时间: 30-6-2009 13:39
原帖由 青山 于 30-6-2009 12:27 发表
人类探索未知领域的动力是非常强劲的。你可以称之为求知欲。或者来自于生物本能的扩张欲望。
另一方面,如果你能制造出一个比你生的孩子聪明10000倍的“神”,你会放弃么?

人类不要指望完全控制这种人工智能,那 ...


我之所以问心态的问题,是在思考这种求知欲的背面是什么?如你所说的扩张欲望,控制欲?

因为有能力有权利有意愿不计代价去发展这种人工智能的,可以想象到是那一类人。好像你所说的,把人工智能用于战争。其实,我觉得战争还是属于低级的手段。思想如果能被传递和复制,还怕控制不了全人类吗?

“人类不要指望完全控制这种人工智能”。- 我不知道一个被控制的,和一个不受控制的机器人比较起来,哪一个比较危险?

“另一方面,如果你能制造出一个比你生的孩子聪明10000倍的“神”,你会放弃么?” - 我会。因为我对无知的东西多少会感到恐惧犹豫。不过貌似我这种人是制造不出这种“神”的。
作者: stellahie    时间: 30-6-2009 13:44
原帖由 青山 于 30-6-2009 12:27 发表
我认为最好的途径,是让人类文明
成为这种新的更高级文明的历史的一部分。就像我们对待我们的祖先那样。让人工智能体认为
自己和人类是父子相传的关系,而不是对立的两个种族。

当他们的智力达到和超过人类的时候,给与他们与人一样的权利和尊重,就像你对待你已经成年
的孩子那样,把他们当作人类的一部分和未来。


真的。我也希望这样。

我也不想见到父子相残,争财产等的事情发生。。。唉!
作者: 刘叔    时间: 30-6-2009 13:51
标题: 回复 #28 stellahie 的帖子
天马博士可是人工智能的狂热追捧者,他的儿子车祸后就被他改造成为了阿童木。

他那句著名的话就是:机器人将成为超越人类的存在,而阿童木将成为机器人的领袖。
作者: 青山    时间: 30-6-2009 13:57
生物本身就有扩张的本能,因为从大尺度来说,生物需要面对其他生物的竞争,不扩张就会灭亡。
人类如果不能超越地球本身,早晚会被来自其他世界的其他生物征服或者消灭。闭关自守,从来
都不是可以自安的途径。

当然不受人类控制的人工智能更危险,但是试图去控制一个比人类聪明10000倍的智能体,根本
就是不可能的任务。只会带来不必要的仇恨和痛苦。

很多人不会对自己不了解的事物感到恐惧,更不会因为恐惧而停止探索。至少我知道我自己就是
这样的人。那些传教的人来问我,你有什么困惑么?我回答他们,我的困惑就是我没有困惑。




原帖由 stellahie 于 30-6-2009 12:39 发表
我之所以问心态的问题,是在思考这种求知欲的背面是什么?如你所说的扩张欲望,控制欲?

因为有能力有权利有意愿不计代价去发展这种人工智能的,可以想象到是那一类人。好像你所说的,把人工智能用于战争。其实,我觉得战争还是属于低级的手段。思想如果能被传递和复制,还怕控制不了全人类吗?

“人类不要指望完全控制这种人工智能”。- 我不知道一个被控制的,和一个不受控制的机器人比较起来,哪一个比较危险?

“另一方面,如果你能制造出一个比你生的孩子聪明10000倍的“神”,你会放弃么?” - 我会。因为我对无知的东西多少会感到恐惧犹豫。不过貌似我这种人是制造不出这种“神”的。

作者: 清风不写字    时间: 30-6-2009 13:58
原帖由 青山 于 30-6-2009 12:35 发表
如果这样,很可能会过早的毁灭人类,在人工智能真的可以自主地管理地球,发展文明之前。

我觉得真正应当反对的,不是人工智能的发展,而是人工智能在军事方面的应用。这个比核弹
更容易毁灭人类。



国家之间的利益争端没有一日停息过,如果那个国家掌握了这种技术,政府能管得住自己不用于军事?
看看核弹是怎么产生的。

科学家们其实非常容易被政治利用的。

[ 本帖最后由 清风不写字 于 30-6-2009 12:59 编辑 ]
作者: 青山    时间: 30-6-2009 14:03
这个是没办法的,急着把人工智能军用,就相当于给你3岁的儿子一把ak47。
他可能打死所有人,最后自己饿死。能不能过这一关,就看人类的智慧和本性了。


原帖由 清风不写字 于 30-6-2009 12:58 发表


国家之间的利益争端没有一日停息过,如果那个国家掌握了这种技术,政府能管得住自己不用于军事?
看看核弹是怎么产生的。

科学家们其实非常容易被政治利用的。

作者: 清风不写字    时间: 30-6-2009 14:06
毁灭就毁灭吧,反正任何文明最终都会消亡。
作者: stellahie    时间: 30-6-2009 14:32
原帖由 青山 于 30-6-2009 12:57 发表
生物本身就有扩张的本能,因为从大尺度来说,生物需要面对其他生物的竞争,不扩张就会灭亡。
人类如果不能超越地球本身,早晚会被来自其他世界的其他生物征服或者消灭。闭关自守,从来
都不是可以自安的途径。

当然不受人类控制的人工智能更危险,但是试图去控制一个比人类聪明10000倍的智能体,根本
就是不可能的任务。只会带来不必要的仇恨和痛苦。

很多人不会对自己不了解的事物感到恐惧,更不会因为恐惧而停止探索。至少我知道我自己就是
这样的人。那些传教的人来问我,你有什么困惑么?我回答他们,我的困惑就是我没有困惑。


控制一个比人类聪明的智能体 -〉不可能
不受人类控制的人工智能 -〉危险

哈哈。果然是一个危险的探索呀。

我觉得人类无止境的扩张欲和探索欲也是很危险的。除非,人类能够控制自己的野心。一步一步来。懂得何时该走,何时该停。

但是要做到,很难。
作者: stellahie    时间: 30-6-2009 14:33
原帖由 清风不写字 于 30-6-2009 13:13 发表
毁灭就毁灭吧,反正任何文明最终都会消亡。


一段毁灭,另一段重生。
作者: 青山    时间: 30-6-2009 14:38
坦率地说,我认为这种想法是错的。人类如果闭关自守,偏安于地球,早晚会被更先进的文明像碾死蚂蚁一样消灭掉。
作为生物,发展和扩张是不能停止的,不进则退,宇宙中并不只有地球上的人类一种文明。

对于我来说,人类与其被来自遥远星球的生物灭掉,不如自己发展出人工智能文明,继承人类的文明。

如果30年后我能够知道如何制造可以在宇宙中扩张的人工智能体,那么在若干光年之外的另一个星球上的生物也一样
会知道。人类不去做,不代表另一个星球上的那些八条腿,也许16条腿的科学家们也不去做。

原帖由 stellahie 于 30-6-2009 13:32 发表
我觉得人类无止境的扩张欲和探索欲也是很危险的。除非,人类能够控制自己的野心。一步一步来。懂得何时该走,何时该停。

作者: stellahie    时间: 30-6-2009 15:06
标题: 回复 #36 青山 的帖子
我和你不一样。我不主张竞争。

我也相信宇宙中有千千万万的文明,当然也有比地球更先进的。其中,已经有了一个世界。懂得和平,宽容,互助,善良,聪明。

有一点天真。不要笑我。

我可以接受发展人工智能是一种阻止不了的趋势。不管最后变成什么样的武器,落在谁的手上都好,我没有太大的意见。我也希望是一个好的过渡,好的结果。如果不是,我也不会太意外。

回答那个传教士的问题。我会说:“我的困惑很多,但我从来不怎么去在乎它们。”

青山大哥,谢谢分享。
作者: 刘叔    时间: 30-6-2009 16:59
标题: 回复 #36 青山 的帖子
青山是一个有觉悟的人,是一个对人类前途和未来具有忧患意识的人。他的发言,从他作为人类一员的身份来看,是很难得的了。

但是跳出身为人类的思维模式,人类不过是自然界的物种之一。它的生存、发展乃至毁灭,也必将遵循着自然的规律。无论每一个个体的人是恐惧也好,逃避也好,奢侈浪费也好,绿色环保也好,都无法改变人类这一物种的局限性。今天你也许浪费了一吨水,也许节省了一升油,然而这不过是加速或减缓了发展的势头。换句话说,审判之日必将到来。人类即使有火箭或航天飞船,也只不过是比恐龙爬得更高一点罢了。猴子变的么,怎么会不更聪明、不爬得更高呢?

黑客帝国里面的Smith说过一句话,“人类并非哺乳动物,任何一种哺乳动物都会本能的发展自然平衡,与周围的环境交融在一起,可人类不是这样,人类每到一个地方就大量繁殖,直到那里的各种自然资源全都耗尽,人类生存唯一的出路,只能是扩散到别的地方去,地球上还有一种生物也喜欢这样做----病毒”。人类的天性就是这样,不断的掠夺、占有、消耗。有人会问,我们不也生产了么?看那些粮食和牲口,看那些汽车和飞机。然而人类所有的生产活动,都是为了自身满足而进行的。我们有像蜜蜂一样,采蜜的时候为鲜花授粉么?我们有像树木一样,进行光合作用的时候释放氧气了么?没有。

人类不过是为了消耗掉地球的资源,继恐龙之后而诞生的一种生物罢了。
作者: 刘叔    时间: 30-6-2009 17:09
标题: 回复 #38 liuhuey 的帖子
然而人类毕竟和恐龙还是有着本质的区别。

(占坑,等会儿写)
作者: 青山    时间: 30-6-2009 17:21
说实话,我觉得这句话,有点想当然了。人类只不过突破了哺乳动物的局限性而已。
事实上,这些“融入自然”的哺乳动物,正在被人类灭绝。这是他们进化速度不够快
的必然结果。如果人类学它们“融入自然”,最终的结局就是像它们一样,被更快速
进化的生物灭绝,或者圈在少数保留地或者动物园中。

另外,人类之所以看似掠夺性的开采地球,实际上,是因为人类的舞台不仅仅在地球。
就像人类历史上的古代民族一样,并不因为某个民族和平好客,与自然和谐相处,就会
免于被征服和消灭。恰恰是那些外向型的民族,占有了庞大的资源,才可以延续千年。
古埃及,古罗马,古中国,无一不是靠扩张建立了庞大的帝国。近现代的英国,美国
也是一样。我们现在会去追悼那些不知名的,可能连历史都没有留下的“融入自然”
的小民族,小部落么?

和平只存在于互相无法摧毁对方的前提下,如果在智能上有根本性的差别,那么弱肉强
食的法则是生物间关系的主流。追求和平的前提,是确保自己不会被对方消灭,没有这
个前提,捆住自己的手脚不发展,就没有和平。

原帖由 liuhuey 于 30-6-2009 15:59 发表
任何一种哺乳动物都会本能的发展自然平衡

作者: 刘叔    时间: 30-6-2009 17:25
标题: 回复 #40 青山 的帖子
所以说你思维的局限性,源自于害怕人类灭亡的恐惧。人类有识之士也大多如你,选择反抗而不是遵从自然规律的客观性。
作者: 青山    时间: 30-6-2009 17:27
自然规律的客观性,就是生物的扩张和竞争。这是天经地义的。如果让我在扩张和灭亡之间选择,我肯定会选择扩张而不是灭亡。人类并没有违反自然规律,也不可能违反自然规律。人类的扩张就是自然规律。人类如果不扩张,选择自我灭亡,那么就会有其它生物代替人类的位置,把人类从食物链的顶端排挤下去,继续扩张。停止扩张才是违反自然规律的。

原帖由 liuhuey 于 30-6-2009 16:25 发表
所以说你思维的局限性,源自于害怕人类灭亡的恐惧。人类有识之士也大多如你,选择反抗而不是遵从自然规律的客观性。

作者: stellahie    时间: 30-6-2009 17:35
标题: 回复 #42 青山 的帖子
你有没有想过。如果人类不是那么急于扩张,也不会这么快灭亡?

不用等到外星人或者其他高等生物来侵占地球。人类大量的繁殖,无止境的控制竞争占有欲,就已经把自己住的地方高度污染了。
作者: 青山    时间: 30-6-2009 17:41
任何发展都会有风险和代价。人类扩张未必会灭亡,不扩张必然灭亡。

地球不过是人类的摇篮,为了保护地球的环境而放弃发展,其实是舍本逐末。
何况谁知道500年以后,我们现在赖以生存的氧气和水,还是不是那时候的
人类或者人类的后继者所必需的呢?

我们现在考虑500年以后的环境问题,就像500年前的人类担心他们把猎物
都捕光了,现代人捕不到猎物,会饿死一样。

就象顶楼那本书里写的,即使我们知道未来会产生原子弹,是不是古人应
该保持刀耕火种,与野兽争食,停留在原始社会,而不发展物理学呢?

原帖由 stellahie 于 30-6-2009 16:35 发表
你有没有想过。如果人类不是那么急于扩张,也不会这么快灭亡?

不用等到外星人或者其他高等生物来侵占地球。人类大量的繁殖,无止境的控制竞争占有欲,就已经把自己住的地方高度污染了。

作者: 刘叔    时间: 30-6-2009 17:48
原帖由 青山 于 30-6-2009 14:27 发表
自然规律的客观性,就是生物的扩张和竞争。这是天经地义的。如果让我在扩张和灭亡之间选择,我肯定会选择扩张而不是灭亡。人类并没有违反自然规律,也不可能违反自然规律。人类的扩张就是自然规律。


你很狡猾嘛,存在即是合理。因为人类本身即是自然的一部分,人类的发展规律就是自然规律的一部分,所以不可能违反自然规律么?

好吧,我们把“试图违反自然规律”也当作遵守自然规律的一种表现。
作者: 清风不写字    时间: 30-6-2009 17:50
问题是现在都轮不到担心以后的环境问题,当前的环境问题已经对很多人造成严重影响了。
畸形的发展可能带来原本不愿意看到的后果。
作者: 青山    时间: 30-6-2009 17:51
这可不是狡猾。强者生存,弱者灭绝。这很残酷,但是在物种之间,这是自然界的基本准则。
我们无法改变这种自然规律。人类始终在顺应这种自然规律。


原帖由 liuhuey 于 30-6-2009 16:48 发表


你很狡猾嘛,存在即是合理。因为人类本身即是自然的一部分,人类的发展规律就是自然规律的一部分,所以不可能违反自然规律么?

好吧,我们把“试图违反自然规律”也当作遵守自然规律的一种表现。

作者: 青山    时间: 30-6-2009 17:52
我个人的观点是,相对于技术进步来讲,现在面临的环境问题,比如整天被人提及的全球变暖,水紧缺的问题,其实都是微不足道的。随着逐渐加速的技术进步,未来100年人类生存状况的改变,会远远大于这些环境问题对人类的影响。

事实上,顶楼这本书提出的问题,才是人类真正的挑战。人类如何面对自己的后代文明。这一天已经不那么遥远了。很可能如他所说的,在两三代人的时间内到来。人类文明在未来几百年的改变,可能会远远超过过去几十万年的改变。而绝大多数人现在并没有认识到这一点。

原帖由 清风不写字 于 30-6-2009 16:50 发表
问题是现在都轮不到担心以后的环境问题,当前的环境问题已经对很多人造成严重影响了。
畸形的发展可能带来原本不愿意看到的后果。

作者: 刘叔    时间: 30-6-2009 18:00
原帖由 青山 于 30-6-2009 14:41 发表
就象顶楼那本书里写的,即使我们知道未来会产生原子弹,是不是古人应
该保持刀耕火种,与野兽争食,停留在原始社会,而不发展物理学呢?



哈哈,其实我本来想讲,战争就是人类在扩张到外太空以前,适度减少人口数量、减缓灭亡的一种手段。原子弹不过是一种效率比较高的工具罢了。

但是现在有很多的和平爱好者,他们肯定会跳出来敲打我的。人性如何如何,战争残酷如何如何。

我说STOP!你说人性,为什么你不说动物性,不说植物性。食肉动物、食草动物,会根据食物多少自动控制族群一个平衡的数量。森林里的植物,也会根据阳光照射而呈现高低疏密的平衡。人类能这样做么?谁能够要求谁去牺牲?仅仅因为我们是人,所以我们可以比地球上其它生物多讲一个人性?

好象是这样。人是有心灵,讲感情的。这是我们与恐龙的区别,然而这也正是我们的弱点。
作者: 青山    时间: 30-6-2009 18:04
我觉得有一点你理解的不对。食草动物并不是主动地去自我控制族群的数量,而是由于他们没有能力获得更多的资源,从而被迫的,因为饥饿而损失族群的数量。

人类与他们的差别,并不在于本性的不同,只在于人类能够获取的资源比他们多,可以利用的资源种类比他们多,如此而已。

人类由于拥有了智能,从而不断地突破自身的局限,获取越来越多的资源,扩张,发展。也许人类会灭亡,但是那样,
地球上还会产生新的智能物种,走一条新路,直到突破地球这个摇篮的局限。


原帖由 liuhuey 于 30-6-2009 17:00 发表
我说STOP!你说人性,为什么你不说动物性,不说植物性。食肉动物、食草动物,会根据食物多少自动控制族群一个平衡的数量。森林里的植物,也会根据阳光照射而呈现高低疏密的平衡。人类能这样做么?谁能够要求谁去牺牲?仅仅因为我们是人,所以我们可以比地球上其它生物多讲一个人性?

作者: key    时间: 30-6-2009 18:33
标题: 吹下水而已
不必太认真

FPGA还是很强大的
不妨再弄一下Atom
装个embedded linux
作者: chinese    时间: 30-6-2009 18:34
不好意思打断一下,青山,问个题外话,你有孩子吗?
作者: 刘叔    时间: 30-6-2009 18:41
原帖由 青山 于 30-6-2009 14:52 发表
我个人的观点是,相对于技术进步来讲,现在面临的环境问题,比如整天被人提及的全球变暖,水紧缺的问题,其实都是微不足道的。随着逐渐加速的技术进步,未来100年人类生存状况的改变,会远远大于这些环境问题对人类的影响。

事实上,顶楼这本书提出的问题,才是人类真正的挑战。人类如何面对自己的后代文明。这一天已经不那么遥远了。很可能如他所说的,在两三代人的时间内到来。人类文明在未来几百年的改变,可能会远远超过过去几十万年的改变。而绝大多数人现在并没有认识到这一点。


歪得挺厉害的。还是回头来讲后代文明吧——无论是人工智能的机器人,或是其它什么克隆人。

面对后代文明,人类的第一反应就是恐惧。长江后浪冲前浪,前浪死在沙滩上么。后代文明出来了,咱们怎么办呢?它要是听话还好,要是有了自我意识,自认为是高一等级的生物,反过来要消灭人类,那怎么办呢?

这样的困惑和矛盾心理,在经典科幻电影《银翼杀手》里面体现的淋漓尽致。后来的片子么,《终结者》系列,《机器战警》,《Matrix》,《攻壳机动队》都没跳出这个框框。

这个故事的主题是银翼杀手Deckard在追捕人造人的过程中越来越丧失人性,而与此同时,人造人却逐渐显露出更加人性的一面。最后,Deckard必须扪心自问:我在做什么?我和他们之间的本质不同到底是什么?如果没有不同,那么我到底是谁?

“人的第一条法则是维护自己的生存”卢梭《论社会契约》。然而人类在维护自身生存的时候,对另一拥有自我意识的物种加以限制,比如机器人三大原则,甚至进行无情的毁灭,比如银翼杀手的追杀,那么,我们活着的丧失了人性的身体,还是人么?

人类要么完全彻底的灭亡,要么 物理意义上的生存+和哲学意义上的灭亡,就这两条路吧。
作者: 青山    时间: 30-6-2009 18:46
我看最可能的,是这两条之外的路,人在物理意义上灭亡,在精神层面被继承下去。

也许到了一个时代,人类不再生育后代,而已更有智慧的人工智能体替代。
当人类都去世以后,人工智能体文明就继承了人类的文明。

原帖由 liuhuey 于 30-6-2009 17:41 发表
人类要么完全彻底的灭亡,要么 物理意义上的生存+和哲学意义上的灭亡,就这两条路吧。

作者: 青山    时间: 30-6-2009 18:47
没有。不过我想我会有的。至少我是这么希望的。

原帖由 chinese 于 30-6-2009 17:34 发表
不好意思打断一下,青山,问个题外话,你有孩子吗?

作者: 刘叔    时间: 30-6-2009 18:55
原帖由 青山 于 30-6-2009 15:04 发表
我觉得有一点你理解的不对。食草动物并不是主动地去自我控制族群的数量,而是由于他们没有能力获得更多的资源,从而被迫的,因为饥饿而损失族群的数量。


是我没说清楚。食草食肉动物被迫的减员,植物被迫的死亡,都是遵从客观规律作用的结果。

如果遵从客观规律,地震、海啸的时候,动物是逃跑还是去相互救援呢?饥荒的时候,动物是把食物给老弱病残还是给最强壮的呢?缺水的时候,植物是统一分配还是拼命吸收呢?

想骂我的同志请打住,我并不是说救援人员和志愿者的坏话。

我想说的是,人性的光辉,是人类存续于世的理由。这光辉是照耀在人类自身身上的,对自身种族的关爱和照顾。正是这样的一点区别,将我们与可以配合攻击的狼群、可以使用工具的黑猩猩、可以语言交流的某些动物,相区别。

然而这光辉也预示了人类悲剧性谢幕的必然性,因为这光辉仅仅照耀在我们自身身上。作为一个种族,我们惟有不断的扩张才能满足自身的需求,即便我们能够开拓一千一万个地球,又如何呢?审判之日必将到来。

(思维有点跳跃,改了一下)

[ 本帖最后由 liuhuey 于 30-6-2009 16:05 编辑 ]
作者: 青山    时间: 30-6-2009 19:01
这个也不是人类独有的,所有营社会生的动物都会,蚂蚁,蜜蜂,都在某种程度上有互助协作。
你没看狮子攻击水牛,其它水牛还过来帮忙赶走狮子呢。人类在这方面和他们没什么不同。
唯一的不同就是对资源的利用和占有。人类发展下去,未必就是悲剧性的,也可能是一个高级
文明刚刚开始酝酿。有很多不确定性,要看人类能否度过这个大关了。

原帖由 liuhuey 于 30-6-2009 17:55 发表
是我没说清楚。食草食肉动物被迫的减员,植物被迫的死亡,都是遵从客观规律作用的结果。

如果遵从客观规律,地震、海啸的时候,动物是逃跑还是去相互救援呢?饥荒的时候,动物是把食物给老弱病残还是给最强壮的呢?缺水的时候,植物是统一分配还是拼命吸收呢?

想骂我的同志请打住,我并不是说救援人员和志愿者的坏话。

我想说的是,人性的光辉,是人类存续于世的理由,同时也预言了人类悲剧性谢幕的必然性,因为这光辉是仅仅照耀在人类自身身上的。

作者: 刘叔    时间: 30-6-2009 19:19
原帖由 chinese 于 30-6-2009 15:34 发表
不好意思打断一下,青山,问个题外话,你有孩子吗?


Chinese这话问得很好。可以回击你说的话

我看最可能的,是这两条之外的路,人在物理意义上灭亡,在精神层面被继承下去。


没有你的血脉,而在你的抚养和教育下长大的孩子,你认可是自己的孩子吗?

甚至这个孩子都不是人类,是克隆人呢?又或者是阿童木?又或者是一条非常聪明、甚至能说话的狗呢?

所谓精神的继承,完全是将死之人的垂死挣扎。你看那些个主义、思想、路线、代表,不都是这样么!(版主别删我帖子哈
作者: 青山    时间: 30-6-2009 19:25
这个现在不好说,没有事到临头,谁也不知道自己会如何选择。而且不同的人会有不同的选择。
在一个有你自己血脉,却资质平平的人类,和一个虽然不是生物意义上的人类,却拷贝了你几乎全部思想,
有着超越人类的智力的人工智能体之间,你选择哪一个,真的不好说。但是至少会有一部分人选择后者。

现在当没有选择的时候,还有很多人选择不要孩子呢,虽然我不属于他们之中的一员,但是我相信
当面临选择的时候,人们的决定会是多样的。

原帖由 liuhuey 于 30-6-2009 18:19 发表
没有你的血脉,而在你的抚养和教育下长大的孩子,你认可是自己的孩子吗?

甚至这个孩子都不是人类,是克隆人呢?又或者是阿童木?又或者是一条非常聪明、甚至能说话的狗呢?

所谓精神的继承,完全是将死之人的垂死挣扎。你看那些个主义、思想、路线、代表,不都是这样么!(版主别删我帖子哈 )

作者: stellahie    时间: 30-6-2009 20:02
原帖由 青山 于 30-6-2009 18:01 发表
人类发展下去,未必就是悲剧性的,也可能是一个高级
文明刚刚开始酝酿。有很多不确定性,要看人类能否度过这个大关了。


我不反对扩张与进步,只是要看这个权力放在谁的手里,谁来主导这个步伐。

就好像你所说的,有很多不确定性。但是这条路总归还是要走下去的。

来说说你所谓的“度过这个大关”,到底要有什么条件?
作者: fredku    时间: 30-6-2009 20:22
真的假的??
未来几十年内就能实现这种技术吗?
作者: ubuntuhk    时间: 30-6-2009 20:33
强帖留名

我正在搭建一个小Linux集群,看看能不能搞点人工大脑DNA出来
作者: 青山    时间: 30-6-2009 20:43
度过这个大关,要看人类如何看待这个问题。如果简单的把人工智能体当作其他种族,甚至像某些人说的那样,希望永远把他们当作奴隶来驱使,我估计就很难能够平稳过渡了。如果人类的爱心可以超越狭义的物种的限制,把新的,拥有更高智能的存在当作自己的后代和未来,也许可以平稳过渡,让他们继承人类的文明和历史。

另外还有就是一些很大的不确定性,比如人工智能的发展速度,早期人工智能的故障,人类是不是会在人工智能不成熟的阶段,过早地用于军事和暴力,这都不好说。总的来说,这个过程恐怕不会是很顺利的。不要说人工智能替代人类,同样是人类之间,特权阶层不仍然为了自己那点既得利益,而不顾越来越大的火药桶?

原帖由 stellahie 于 30-6-2009 19:02 发表


我不反对扩张与进步,只是要看这个权力放在谁的手里,谁来主导这个步伐。

就好像你所说的,有很多不确定性。但是这条路总归还是要走下去的。

来说说你所谓的“度过这个大关”,到底要有什么条件?

作者: 刘叔    时间: 30-6-2009 20:56
标题: 回复 #58 liuhuey 的帖子
嘿嘿,既然牵涉到那个了,不说觉得心痒痒。各位看官请带好眼镜入场,禁止交头接耳,看不明白自己回家想去。

话说有个人得了癌症,身上癌细胞扩散。

化疗也没用,因为这个癌细胞非常厉害,与一般的癌细胞大不一样。

为啥不一样呢?一般的癌细胞,也就是由正常细胞变异、靠自身分裂增长而来,它们与正常的细胞争夺养分,而且面临被白细胞攻击的危险。

可是这个人身上的癌细胞,不仅控制着白细胞,还完全控制了养分的分配。正常细胞组成的身体,通过进食消化吸收得来的养分,首先得由这群癌细胞来决定如何分配。看你顺眼,就多给你点;用得上你了,就给你加点。怎么,你不服?大团的白细胞就围上来直接把你给干掉。白细胞说你是变异细胞,你都没地儿申冤去。

癌细胞聪明着呢,各个器官、组织都有它们的点,明的暗的都有。一是通风报信,二是发展更多的癌细胞。正常细胞呢,只要你通过一个仪式表示愿意成为癌细胞,就算入伙了,当然也会有一段时间的考察期。

癌细胞与正常细胞的本质区别,那就是它不从事生产活动,所有的需求都是来自于掠夺。它们疯狂的掠夺和占有,越是资历深的癌细胞就能占得越多。

癌细胞与正常细胞也会有冲突和矛盾,有时候还搞得挺大的。毕竟癌细胞只是少数,还指望着正常细胞的工作来获得养分呢。这种情况下癌细胞就会一边出动白细胞,一边拿出养分,把冲突和矛盾化解掉。对于引起事件的那一小撮过火的癌细胞,当然能保护还是要保护的,谁叫大家都是一伙的呢。最多闹得不可调和的时候,选出几个作为替死鬼,处理一下以平息事态。

当然癌细胞们也懂得扩张,它们明白这个宿主已经越来越不行了。现在神经网络这么发达,细胞间发个电信号,光一般的速度就到了。万一那天正常细胞们集体罢工,它们就没得玩。所以资深一点的细胞都带上多年积蓄的养分,扩展疆土,到其它宿主身上去了。到了那边就不能太嚣张了,它们都装成普通细胞的样子,一边低调的过日子,一边回忆以前要淋巴细胞提供特殊服务的事,回忆着从前坐着红细胞在血管里飚车的事.........

你说,这个人癌症已经晚期了,他还有救么?
作者: 刘叔    时间: 30-6-2009 20:58
标题: 回复 #64 liuhuey 的帖子
版主你别删啊,咱只不过在软件技术的版块里面扯了一点生物医学的东西。

癌细胞就是比喻人类;那个癌症患者呢,就是比喻咱们的地球;正常细胞,就是比喻身边为我们服务的动物、植物、空气、水什么的。

呵呵

[ 本帖最后由 liuhuey 于 30-6-2009 18:02 编辑 ]
作者: 刘叔    时间: 30-6-2009 21:00
标题: 回复 #64 liuhuey 的帖子
癌细胞也是人类的一部分,不是么?

人类的本性,在癌细胞身上体现的淋漓尽致。所以我在前面的帖子里说,人类必将被新的物种代替。

癌细胞也是一样
作者: 青山    时间: 30-6-2009 21:06
这个比喻不恰当,人类之于地球,顶多算是病毒,而显然不是癌细胞。
人类会通过某些途径,传播到其它星球,而不是死守地球。

原帖由 liuhuey 于 30-6-2009 20:00 发表
癌细胞也是人类的一部分,不是么?

人类的本性,在癌细胞身上体现的淋漓尽致。所以我在前面的帖子里说,人类必将被新的物种代替。

癌细胞也是一样

作者: 刘叔    时间: 30-6-2009 21:12
标题: 回复 #67 青山 的帖子
真不是我打击你,加加林1961年进太空,阿波罗1969年登月。到现在了,还有载人太空活动超过这两者的吗?都40年了哦!
作者: stellahie    时间: 30-6-2009 21:17
原帖由 liuhuey 于 30-6-2009 20:12 发表
真不是我打击你,加加林1961年进太空,阿波罗1969年登月。到现在了,还有载人太空活动超过这两者的吗?都40年了哦!


40年算什么?看远点。。。
作者: 刘叔    时间: 30-6-2009 21:18
标题: 回复 #67 青山 的帖子
如果说我是悲观的宿命论者,你就是乐观的机会主义者。

你一定相信在不远的将来,人类能够实现自由的太空航行,而且能够突破超光速飞行、和人体超低温冷冻保存并复原这两大技术难题!
作者: 青山    时间: 30-6-2009 21:24
我没说现在属于动物界的人类能够自由的太空旅行。
但是人工智能体可以相对容易得多的来做这个工作,作为人类的后继者,把人类文明传播到更远的星球。

这也是为什么我相信,也许人工智能体是一种生物文明发展到一定阶段的必然。因为只有他们,才可能
离开地球这个摇篮,成为真正的宇宙文明。

原帖由 liuhuey 于 30-6-2009 20:18 发表
如果说我是悲观的宿命论者,你就是乐观的机会主义者。

你一定相信在不远的将来,人类能够实现自由的太空航行,而且能够突破超光速飞行、和人体超低温冷冻保存并复原这两大技术难题!

作者: 刘叔    时间: 30-6-2009 21:26
原帖由 青山 于 30-6-2009 17:43 发表
如果人类的爱心可以超越狭义的物种的限制,把新的,拥有更高智能的存在当作自己的后代和未来,也许可以平稳过渡,让他们继承人类的文明和历史。


单凭爱心,无法突破面对灭亡的恐惧。

还是一部分一部分的进化吧,比如先植入部分电子脑、电子眼。

给青山出个题,你觉得那些部位被替换了,心肝肺脑等,人就不是人,变成另外一个物种了?

保留所有的记忆、情感、自我意识信息,而躯干不复存在,人还是人么?
作者: 刘叔    时间: 30-6-2009 21:28
原帖由 青山 于 30-6-2009 18:24 发表
我没说现在属于动物界的人类能够自由的太空旅行。
但是人工智能体可以相对容易得多的来做这个工作,作为人类的后继者,把人类文明传播到更远的星球。



好家伙,你偷换概念!

刚才才说人类会扩张到其它星球,现在碰到技术难题了,就说由人类的后继者——也就是另一物种——把人类文明传播出去。


作者: fredku    时间: 30-6-2009 21:28
乱说!一相情愿! 人工智能凭什么要死守着人类的躯体和精神? 它们完全可以寻找甚至制造出更强悍的生物或者机械存在形态做寄主,完全就不需要人类了!
作者: stellahie    时间: 30-6-2009 21:38
原帖由 liuhuey 于 30-6-2009 20:28 发表


好家伙,你偷换概念!

刚才才说人类会扩张到其它星球,现在碰到技术难题了,就说由人类的后继者——也就是另一物种——把人类文明传播出去。



青山,你要说清楚。我是因为你的那句“爱心”才支持你的。

你不要打着爱心的旗号,去侵略其他的星球。那跟癌细胞/病毒没什么两样。
作者: stellahie    时间: 30-6-2009 21:39
原帖由 fredku 于 30-6-2009 20:28 发表
乱说!一相情愿! 人工智能凭什么要死守着人类的躯体和精神? 它们完全可以寻找甚至制造出更强悍的生物或者机械存在形态做寄主,完全就不需要人类了!


如果是这样,你觉得如何呢?
作者: 青山    时间: 30-6-2009 21:39
说实话,如果我一个人的话,只要保留记忆,自我意识,其他的都不重要。

原帖由 liuhuey 于 30-6-2009 20:26 发表
单凭爱心,无法突破面对灭亡的恐惧。

还是一部分一部分的进化吧,比如先植入部分电子脑、电子眼。

给青山出个题,你觉得那些部位被替换了,心肝肺脑等,人就不是人,变成另外一个物种了?

保留所有的记忆、情感、自我意识信息,而躯干不复存在,人还是人么?

作者: 青山    时间: 30-6-2009 21:40
对我来讲,没什么本质不同。

原帖由 liuhuey 于 30-6-2009 20:28 发表


好家伙,你偷换概念!

刚才才说人类会扩张到其它星球,现在碰到技术难题了,就说由人类的后继者——也就是另一物种——把人类文明传播出去。


作者: 青山    时间: 30-6-2009 21:41
我还是那观点,不扩张,就灭亡。

原帖由 stellahie 于 30-6-2009 20:38 发表


青山,你要说清楚。我是因为你的那句“爱心”才支持你的。

你不要打着爱心的旗号,去侵略其他的星球。那跟癌细胞/病毒没什么两样。

作者: 青山    时间: 30-6-2009 21:42
我从没说过人工智能体要保持人类的躯体和精神。他们可以继承人类的历史和文明,但是肯定会发展出他们自己的文明。

原帖由 fredku 于 30-6-2009 20:28 发表
乱说!一相情愿! 人工智能凭什么要死守着人类的躯体和精神? 它们完全可以寻找甚至制造出更强悍的生物或者机械存在形态做寄主,完全就不需要人类了!

作者: stellahie    时间: 30-6-2009 21:51
原帖由 青山 于 30-6-2009 20:41 发表
我还是那观点,不扩张,就灭亡。



那我先不要支持你好了。

再观察观察。。。

刘叔说的那个癌细胞是不是指你啊?我的意思是指你所谓的扩张行为? 挑拨一下 ~
作者: coredump    时间: 30-6-2009 22:01
我就知道一发这个帖子,就会成为青山的布道场。
作者: freshfish    时间: 30-6-2009 22:28
比较赞同青山的观点........
作者: chinese    时间: 30-6-2009 23:06
青山,人类的文明是什么?如果人类不存在了,人类的文明传播的意义何在?靠人工智能来传播人类文明,就好像现在人根据壁画来判断远古文明一样,我们理解不了,就算理解了,对于现在的人类,又有什么意义呢?只是徒增感慨,原来曾经有这么一个$^%&^&^的文明存在过。那和这个文明从来就没有出现过,有何区别?
我赞成青山说的人类的侵略本性,但是我不赞同人工智能是人类的延续的看法,人类是要吃饭的,即使是类人猿,那也是摄取同一种养分,这是人类与其他物种的区别之一。人工智能摄取“养分”和人类的是一样的吗?如果不是,人工智能就绝对不是人类的延续,他们对于人类的文明连基本的理解都做不到,更别说尊重和传承。
所以,人工智能的发展,必然是对人类的侵略,即使你对它友好,它也不会对你友好,因为它要求它的生存空间,就如你所说,钢筋混凝土是它们的梦想家园,人类要求的大自然可能才是它们最欲毁之的。
作者: 青山    时间: 30-6-2009 23:34
第一,人类文明,就是人类的历史和文化。人类作为动物体,局限性是非常大的。让人类肉体限制地球文明的长期发展,是没有意义的。

第二,猿人也不存在了,难道高度进化的人类对于猿人没有意义么?猿人虽然跟人类摄取同一种养分,但是现在人类的生活,却与猿人相去甚远。猿人肯定不喜欢我们钢筋水泥的城市。但这又有什么关系呢?

第三,人工智能文明可以继承全部的人类文明的历史和记忆,包括各种知识,这本身就是对人类文明的传承。人类文明之于继承的文明,就像尧舜禹汤之于现代中国人。虽然他们都已经不存在了,但是历史和精神遗产还在。

第四,人类该退出历史舞台的时候,就退出历史舞台,把这个舞台让给更高级的生命形式,就像我们死去,我们的孩子走向未来那样,没有什么不好。我所追求的,就是两点,和平过渡,还有历史的继承。其他的,就由继任文明自己去发展和书写了。

其实对于我来说,一个能够理解和继续我思想的人工智能体,比一个我亲生的却没有继承我文化思想的香蕉人,对我来说可能意义更大。
不用担心人工智能体不能理解人类,当他们智力高度发达的时候,理解人类的想法并不是难事,尤其当人类主动把思想导入他们的时候。


原帖由 chinese 于 30-6-2009 22:06 发表
青山,人类的文明是什么?如果人类不存在了,人类的文明传播的意义何在?靠人工智能来传播人类文明,就好像现在人根据壁画来判断远古文明一样,我们理解不了,就算理解了,对于现在的人类,又有什么意义呢?只是徒增感慨,原来曾经有这么一个$^%&^&^的文明存在过。那和这个文明从来就没有出现过,有何区别?
我赞成青山说的人类的侵略本性,但是我不赞同人工智能是人类的延续的看法,人类是要吃饭的,即使是类人猿,那也是摄取同一种养分,这是人类与其他物种的区别之一。人工智能摄取“养分”和人类的是一样的吗?如果不是,人工智能就绝对不是人类的延续,他们对于人类的文明连基本的理解都做不到,更别说尊重和传承。
所以,人工智能的发展,必然是对人类的侵略,即使你对它友好,它也不会对你友好,因为它要求它的生存空间,就如你所说,钢筋混凝土是它们的梦想家园,人类要求的大自然可能才是它们最欲毁之的。

作者: 青山    时间: 30-6-2009 23:37


原帖由 coredump 于 30-6-2009 21:01 发表
我就知道一发这个帖子,就会成为青山的布道场。

作者: 刘叔    时间: 1-7-2009 00:19
标题: 回复 #85 青山 的帖子
忙着陪儿子玩,先挖个坑,明天再来回你
作者: 刘叔    时间: 1-7-2009 00:21
原帖由 coredump 于 30-6-2009 19:01 发表
我就知道一发这个帖子,就会成为青山的布道场。


开心,俺是来砸场子的
作者: key    时间: 1-7-2009 00:23
标题: 工具而已
我们现在展望40年,400年后的人类科技,
相当于40年前,400年人的人来想象现在的科技。

40年前的电子管计算机与当前的互联网科技比较,的确能超乎人们的想象,
而400年前,牛顿的三大定律和微积分堪称天下第一,但和现在的物理学又根本不能比较。

然而,无论人类怎样发展,虽然我们的环境有一定的保坏;但人类科技发展始终能为人服务,
说穿了,就是工具的发展。

人工智能的发展已经很多年了。一个依靠FPGA做所谓的人工大脑实验的科学家,对于未来
科技的展望,没有必要引来未来新的智能物体的恐惧;也不能佐证人工智能就能飞越“工具”的范畴。
就目前而言,人工智能还只是一些高速运算单元对于逻辑化,或可逻辑化的命题进行快速运算,
这只是我们手上一个工具。别说制造一个象人这样独立思考还会灌水的机器暂时未有可能,
就算做一只有狗的智慧,能自己找地方吃喝拉撒的机器都暂时没有可能。

至于机器在某些方面比人类更有优势,这是必然的;数万年前我们的祖先拿起石头来做工具,
就是因为石头比我们的手掌、指甲更有优势。某一天我们,或我们的子孙有可能会入大脑植入一些
芯片,以帮助我们记忆、计算、搜索,这都只是一些工具。我们现在也有不少人做手术,往关节加入
支撑物件,这又有什么呢?至于所谓改造人,怎样怎样,同学,你现在开个汽车,相对于几百年前
骑马的人来说也是改造人啦。

至于科技是否会让人类互相XX;这个问题在几万年前,我们的祖先拿起石头来砸坚果的时候就可能
人要在考虑:把石头的边缘磨得锋利,那是多么危险的一件事呀。。。。

工具而已;更何况,这些工具远未达到让我们恐慌的地步。
作者: 青山    时间: 1-7-2009 00:45
工具?你没明白当一个个体智力超过人类甚至大幅超过人类以后,你是不可能把他当作工具的。
这是一个量变到质变的过程。

原帖由 key 于 30-6-2009 23:23 发表
我们现在展望40年,400年后的人类科技,
相当于40年前,400年人的人来想象现在的科技。

40年前的电子管计算机与当前的互联网科技比较,的确能超乎人们的想象,
而400年前,牛顿的三大定律和微积分堪称天下第一,但和现在的物理学又根本不能比较。

然而,无论人类怎样发展,虽然我们的环境有一定的保坏;但人类科技发展始终能为人服务,
说穿了,就是工具的发展。

人工智能的发展已经很多年了。一个依靠FPGA做所谓的人工大脑实验的科学家,对于未来
科技的展望,没有必要引来未来新的智能物体的恐惧;也不能佐证人工智能就能飞越“工具”的范畴。
就目前而言,人工智能还只是一些高速运算单元对于逻辑化,或可逻辑化的命题进行快速运算,
这只是我们手上一个工具。别说制造一个象人这样独立思考还会灌水的机器暂时未有可能,
就算做一只有狗的智慧,能自己找地方吃喝拉撒的机器都暂时没有可能。

至于机器在某些方面比人类更有优势,这是必然的;数万年前我们的祖先拿起石头来做工具,
就是因为石头比我们的手掌、指甲更有优势。某一天我们,或我们的子孙有可能会入大脑植入一些
芯片,以帮助我们记忆、计算、搜索,这都只是一些工具。我们现在也有不少人做手术,往关节加入
支撑物件,这又有什么呢?至于所谓改造人,怎样怎样,同学,你现在开个汽车,相对于几百年前
骑马的人来说也是改造人啦。

至于科技是否会让人类互相XX;这个问题在几万年前,我们的祖先拿起石头来砸坚果的时候就可能
人要在考虑:把石头的边缘磨得锋利,那是多么危险的一件事呀。。。。

工具而已;更何况,这些工具远未达到让我们恐慌的地步。

作者: stellahie    时间: 1-7-2009 00:49
标题: 回复 #89 key 的帖子
那么,你不同意人工大脑之父说的,50年后机器人将威胁人类?
作者: key    时间: 1-7-2009 00:53
原帖由 coredump 于 29-6-2009 19:03 发表
雨果被称为“人工智能领域的霍金”,世界仅有的4个人工智能机器均出自雨果之手.人工智能机器并非电脑,雨果的工作是用“基因算法”设计神经网络,也就是“生产大脑”.他的“CBM”大脑制造机器可以在几秒钟内进化成一个神经网络,可以处理将近1亿个人工神经元.它的计算能力相当于一万台个人电脑.


我有点不明白这一万台个人电脑是怎样算出来。
FPGA的确很快,门电路的特点来的,但一定要说相当于一万台pc,那就有点夸张了。

这里雨果同学有一段话不错,值得学习:
问:有人说你是划时代的天才?

  答:我不是天才,我是教授,我喜欢我的工作。我足够聪明来阅读天才的著作,我足够聪明来理解真正的天才用他们的思想来做什么,他们发明了什么。他们有完美的体系,天才创造出学科。全世界也许只有200个是天才。我不能如他们般创造出伟大的体系。

从他的经历来说,我也觉得他不能算是天才,但他有这样的认识,以及态度,很值得尊敬。
作者: key    时间: 1-7-2009 00:54
原帖由 青山 于 30-6-2009 23:45 发表
工具?你没明白当一个个体智力超过人类甚至大幅超过人类以后,你是不可能把他当作工具的。
这是一个量变到质变的过程。



我拿把菜刀在手上战斗力都大大超过你啦,更不用说西瓜刀
作者: key    时间: 1-7-2009 00:59
原帖由 stellahie 于 30-6-2009 23:49 发表
那么,你不同意人工大脑之父说的,50年后机器人将威胁人类?


人家吹下水而已,不必太当真。
你见过有死几十人的战争?
美国打Iraq,美方死的都不是几十人啦。

至于机器人是否威胁人类,把人字删去都行啦。
现代机器,从工业革命开始,就一直威胁着人类。这有什么奇怪呢?
至于近代的粒子技术,随便一小块就可以让你死一万次。我们难道还想着清兵手上那些冷兵器?

但我不认同“人工智能”变成“人的智能”,这不是一个简单的转变,
至少在我可以看到的未来,
这种转变都不会成为现实。
作者: key    时间: 1-7-2009 01:03
原帖由 stellahie 于 30-6-2009 23:49 发表
那么,你不同意人工大脑之父说的,50年后机器人将威胁人类?


另外,所谓人工大脑之父,这说话有点……怎么说呢,全世界共4台“人工大脑”,就这位同学一个人搞出来的。
我尊敬他是一个有创造力的学者,但对于人工大脑本身,我相信在学术阶的认同程度还不是太高,
不然,以全球这么多顶尖的人工智能实验室,要搞几个FPGA遗传算法实现应该不难吧?
作者: 刘叔    时间: 1-7-2009 01:06
原帖由 key 于 30-6-2009 21:23 发表
工具而已;更何况,这些工具远未达到让我们恐慌的地步。


机器人的觉醒也许还有时日,但是克隆人的出现也许就在明天。

我反对将它们视为工具。

这不是它们是否能让我们恐慌的问题,而是一种基本尊重,就如同西方人对狗的尊重一样。
作者: 刘叔    时间: 1-7-2009 01:08
原帖由 key 于 30-6-2009 21:59 发表

人家吹下水而已,不必太当真。
你见过有死几十人的战争?
美国打Iraq,美方死的都不是几十人啦。

至于机器人是否威胁人类,把人字删去都行啦。
现代机器,从工业革命开始,就一直威胁着人类。这有什么奇怪呢?
至于近代的粒子技术,随便一小块就可以让你死一万次。我们难道还想着清兵手上那些冷兵器?

但我不认同“人工智能”变成“人的智能”,这不是一个简单的转变,
至少在我可以看到的未来,
这种转变都不会成为现实。


非也非也,“人工智能”和“人的智能”完全就是两回事,不能转变的。

当然,如果有同学说自己通过辛勤劳动,人工造出了具有人的智能的人,那也是符合自然规律的一件事情。


作者: key    时间: 1-7-2009 01:14
原帖由 liuhuey 于 1-7-2009 00:06 发表


机器人的觉醒也许还有时日,但是克隆人的出现也许就在明天。

我反对将它们视为工具。

这不是它们是否能让我们恐慌的问题,而是一种基本尊重,就如同西方人对狗的尊重一样。


其实什么是克隆人呢?克隆人并不是说把人从实验室由一个个细胞制造出来,而是通过从非性细胞的培植,最后进入一个胚胎阶段而成人。
这不是一个计算科学的范畴,而是生物学的胚胎培植与生殖范畴。所以,用克隆技术来类比计算科学是不恰当的,没有可类比性。

至于克隆人引来的恐慌,是由于单个人的组织能最后形成下一代,使有性生殖系统,以及由此建立起来的一系列道德规范全部失效。
作者: 刘叔    时间: 1-7-2009 01:17
原帖由 青山 于 30-6-2009 21:45 发表
工具?你没明白当一个个体智力超过人类甚至大幅超过人类以后,你是不可能把他当作工具的。
这是一个量变到质变的过程。



青山啊青山,量变到质变说得没错,但是你没把质变说出来啊。

这个质变就是自我意识的产生。

面对具有自我意识的个体,是给予它平等尊重的地位,还是采取暴力征服的手段,这是人类必须作出的选择。
作者: key    时间: 1-7-2009 01:18
原帖由 liuhuey 于 1-7-2009 00:17 发表


青山啊青山,量变到质变说得没错,但是你没把质变说出来啊。

这个质变就是自我意识的产生。

面对具有自我意识的个体,是给予它平等尊重的地位,还是采取暴力征服的手段,这是人类必须作出的选择。


你们俩去写科幻小说吧
作者: 刘叔    时间: 1-7-2009 01:22
原帖由 key 于 30-6-2009 22:14 发表

其实什么是克隆人呢?克隆人并不是说把人从实验室由一个个细胞制造出来,而是通过从非性细胞的培植,最后进入一个胚胎阶段而成人。
这不是一个计算科学的范畴,而是生物学的胚胎培植与生殖范畴。所以,用克隆技术来类比计算科学是不恰当的,没有可类比性。

至于克隆人引来的恐慌,是由于单个人的组织能最后形成下一代,使有性生殖系统,以及由此建立起来的一系列道德规范全部失效。


抱歉,克隆人是我在某段表述中引入的,不自觉用到现在。

但是我真的没有用克隆技术来类比计算科学,我也不打算讨论克隆人引起的道德规范问题。

我把克隆人和机器人都视为对自然人类这一物种的挑战。自然人类如何应对挑战,以及挑战中所涉及的人性问题,才是我想讨论的。

为了避免混淆,以下我们就不提克隆人了。这样我也可以不用说自然人类这个词了。




欢迎光临 FreeOZ论坛 (https://www.freeoz.org/bbs/) Powered by Discuz! X3.2