雨果被称为“人工智能领域的霍金”,世界仅有的4个人工智能机器均出自雨果之手.人工智能机器并非电脑,雨果的工作是用“基因算法”设计神经网络,也就是“生产大脑”.他的“CBM”大脑制造机器可以在几秒钟内进化成一个神经网络,可以处理将近1亿个人工神经元.它的计算能力相当于一万台个人电脑.
我有点不明白这一万台个人电脑是怎样算出来。
FPGA的确很快,门电路的特点来的,但一定要说相当于一万台pc,那就有点夸张了。
这里雨果同学有一段话不错,值得学习:
问:有人说你是划时代的天才?
答:我不是天才,我是教授,我喜欢我的工作。我足够聪明来阅读天才的著作,我足够聪明来理解真正的天才用他们的思想来做什么,他们发明了什么。他们有完美的体系,天才创造出学科。全世界也许只有200个是天才。我不能如他们般创造出伟大的体系。
从他的经历来说,我也觉得他不能算是天才,但他有这样的认识,以及态度,很值得尊敬。 原帖由 青山 于 30-6-2009 23:45 发表 http://www.freeoz.org/forum/images/common/back.gif
工具?你没明白当一个个体智力超过人类甚至大幅超过人类以后,你是不可能把他当作工具的。
这是一个量变到质变的过程。
我拿把菜刀在手上战斗力都大大超过你啦,更不用说西瓜刀 原帖由 stellahie 于 30-6-2009 23:49 发表 http://www.freeoz.org/forum/images/common/back.gif
那么,你不同意人工大脑之父说的,50年后机器人将威胁人类?
人家吹下水而已,不必太当真。
你见过有死几十人的战争?
美国打Iraq,美方死的都不是几十人啦。
至于机器人是否威胁人类,把人字删去都行啦。
现代机器,从工业革命开始,就一直威胁着人类。这有什么奇怪呢?
至于近代的粒子技术,随便一小块就可以让你死一万次。我们难道还想着清兵手上那些冷兵器?
但我不认同“人工智能”变成“人的智能”,这不是一个简单的转变,
至少在我可以看到的未来,
这种转变都不会成为现实。 原帖由 stellahie 于 30-6-2009 23:49 发表 http://www.freeoz.org/forum/images/common/back.gif
那么,你不同意人工大脑之父说的,50年后机器人将威胁人类?
另外,所谓人工大脑之父,这说话有点……怎么说呢,全世界共4台“人工大脑”,就这位同学一个人搞出来的。
我尊敬他是一个有创造力的学者,但对于人工大脑本身,我相信在学术阶的认同程度还不是太高,
不然,以全球这么多顶尖的人工智能实验室,要搞几个FPGA遗传算法实现应该不难吧? 原帖由 key 于 30-6-2009 21:23 发表 http://www.freeoz.org/forum/images/common/back.gif
工具而已;更何况,这些工具远未达到让我们恐慌的地步。
机器人的觉醒也许还有时日,但是克隆人的出现也许就在明天。
我反对将它们视为工具。
这不是它们是否能让我们恐慌的问题,而是一种基本尊重,就如同西方人对狗的尊重一样。 原帖由 key 于 30-6-2009 21:59 发表 http://www.freeoz.org/forum/images/common/back.gif
人家吹下水而已,不必太当真。
你见过有死几十人的战争?
美国打Iraq,美方死的都不是几十人啦。
至于机器人是否威胁人类,把人字删去都行啦。
现代机器,从工业革命开始,就一直威胁着人类。这有什么奇怪呢?
至于近代的粒子技术,随便一小块就可以让你死一万次。我们难道还想着清兵手上那些冷兵器?
但我不认同“人工智能”变成“人的智能”,这不是一个简单的转变,
至少在我可以看到的未来,
这种转变都不会成为现实。
非也非也,“人工智能”和“人的智能”完全就是两回事,不能转变的。
当然,如果有同学说自己通过辛勤劳动,人工造出了具有人的智能的人,那也是符合自然规律的一件事情。
;P 原帖由 liuhuey 于 1-7-2009 00:06 发表 http://www.freeoz.org/forum/images/common/back.gif
机器人的觉醒也许还有时日,但是克隆人的出现也许就在明天。
我反对将它们视为工具。
这不是它们是否能让我们恐慌的问题,而是一种基本尊重,就如同西方人对狗的尊重一样。
其实什么是克隆人呢?克隆人并不是说把人从实验室由一个个细胞制造出来,而是通过从非性细胞的培植,最后进入一个胚胎阶段而成人。
这不是一个计算科学的范畴,而是生物学的胚胎培植与生殖范畴。所以,用克隆技术来类比计算科学是不恰当的,没有可类比性。
至于克隆人引来的恐慌,是由于单个人的组织能最后形成下一代,使有性生殖系统,以及由此建立起来的一系列道德规范全部失效。 原帖由 青山 于 30-6-2009 21:45 发表 http://www.freeoz.org/forum/images/common/back.gif
工具?你没明白当一个个体智力超过人类甚至大幅超过人类以后,你是不可能把他当作工具的。
这是一个量变到质变的过程。
青山啊青山,量变到质变说得没错,但是你没把质变说出来啊。
这个质变就是自我意识的产生。
面对具有自我意识的个体,是给予它平等尊重的地位,还是采取暴力征服的手段,这是人类必须作出的选择。 原帖由 liuhuey 于 1-7-2009 00:17 发表 http://www.freeoz.org/forum/images/common/back.gif
青山啊青山,量变到质变说得没错,但是你没把质变说出来啊。
这个质变就是自我意识的产生。
面对具有自我意识的个体,是给予它平等尊重的地位,还是采取暴力征服的手段,这是人类必须作出的选择。
你们俩去写科幻小说吧 原帖由 key 于 30-6-2009 22:14 发表 http://www.freeoz.org/forum/images/common/back.gif
其实什么是克隆人呢?克隆人并不是说把人从实验室由一个个细胞制造出来,而是通过从非性细胞的培植,最后进入一个胚胎阶段而成人。
这不是一个计算科学的范畴,而是生物学的胚胎培植与生殖范畴。所以,用克隆技术来类比计算科学是不恰当的,没有可类比性。
至于克隆人引来的恐慌,是由于单个人的组织能最后形成下一代,使有性生殖系统,以及由此建立起来的一系列道德规范全部失效。
抱歉,克隆人是我在某段表述中引入的,不自觉用到现在。
但是我真的没有用克隆技术来类比计算科学,我也不打算讨论克隆人引起的道德规范问题。
我把克隆人和机器人都视为对自然人类这一物种的挑战。自然人类如何应对挑战,以及挑战中所涉及的人性问题,才是我想讨论的。
为了避免混淆,以下我们就不提克隆人了。这样我也可以不用说自然人类这个词了。;P 原帖由 key 于 30-6-2009 22:18 发表 http://www.freeoz.org/forum/images/common/back.gif
你们俩去写科幻小说吧
别跑,有你一角色呢。
青山:银河帝国第三集团军之军团长,记忆和心灵都已注入机器身躯,为人严谨不苟言笑。
刘叔:自由行星同盟第二舰队提督,完全自然人身体,脸有伤疤,喜饮酒抽雪茄。
Key:神秘的第二基地负责人,性别年龄相貌未知,乃是解决未来人类存亡问题的钥匙。
;P
谁会代替人类成为主导物种:智能简史
看了这本书的几篇摘要。有空去找完整的来看看。:happy:关于key提到的时间问题。雨果先生有这样的看法:
========================================================
我赞同你的主要观点。我把这点重新表述为——“如果电子大脑(人工智能)以(快速的)指数速度进化发展,也就是说在未来几十年内达到或超越人类的智慧级别,那么将没有足够的时间产生地球主义者-宇宙主义者的冲突,人工智能战争也不会产生。”我确实认为人工智能是以指数速度进步的,但是不至于如此的迅速以至于没有足够的时间产生人工智能的辩论和发起人工智能战争。
我认为其中的原因是由于制造真正人工智能的任务是非常困难的,并且可能需要几十年的时间来完成。在目前,我们对于人脑的工作原理、记忆的本质是什么、思维是什么、我们是如何推理等所知甚少。在人脑内有千万亿个神经键(神经元之间的联系),清楚地表明人脑结构是如何的超级复杂。我猜想,关于人类在神经科学研究领域的进步最现实的情景就是,从现在开始将至少需要50年的时间来在人工大脑制造上取得真正的进展,但之后的进展将相对缓慢(虽然也是指数级别的)。
我认为,早期的人工智能机器所表现出来的智慧足以引起地球主义者的警觉。像我这样的一些人将会提醒大众某些事情即将发生,但是我认为之后的进展将不会非常迅速,因为对于大众来说,反应的时间将非常有限。当公众从他们的家用产品中看到智能的真正迹象时,将不需要很多年的时间来反应。我认为对于公众和政府来说,如果他们真正地察觉到对于他们的物种支配甚至生存存在着真正的和强烈的威胁时,5到10年的时间将足够让事情有所进展。
同样,当那些有意识的大脑制造者们认为实验室内的进展证实威胁确实存在的时候,他们将毫不迟疑地警示大众。例如,我,倾向于让公众清楚地了解世界上人工智能的发展现状,即使它们目前还处于比较原始的状态。大脑研究制造者们处于这样的一个位置,能够第一个知道正在发生些什么,因为正是他们在制造这些东西。
我认为从道德上来说,我们有一种义务来告诉公众正在发生着的某些事,以便公众有时间来反应,来防止如此的情况发生,即人工智能的指数级别的智慧增长曲线比大脑制造者的预计还要迅速。我同样认为大脑制造者们应该现在就警示公众,而不是等待人工智能机器拥有真正智慧的第一个征兆出现。这样就可以给予公众更多的时间来反应,但是当然,如果公众看不到真正智慧的证据,那么,他们会认为研究者们是在喊狼来了,且因此忽视他们。
========================================================
大脑制造者们需要告诉公众指数曲线的特征,那就是在水平轴上每一单位的增长对应垂直轴上高度的两倍增长。这样的曲线可以开始得非常缓慢并且在低水平上保持很长的时间,然后突然快速增长。举个例子,考虑下面的“倍增”曲线图,它列举了对于水平轴上每一单位在垂直轴上的高度—— 0.1,0.2,0.4,0.8,1.6,3.2,6.4,12.8,(都是小值,但是……)25.6,51.2,102.4,204.8,409.6, (开始攀升)819.2,1 638.4,3 276.8,6 553.6,(开始暴增)…104 857.6,209 715.2,419 430.4,(爆炸性的数字)…(无穷大!!)
如果介于a)人工智能的最初迹象和 b)爆炸性指数级别的人工智能增长之间(称作“爬升阶段”)只是几年的时间,那么,将不存在人工智能的辩论和人工智能战争(除非是爆发了人类和人工智能机器的物种主导之战)。但我认为,由于大脑制造本身的复杂性,这段时间,即所谓的“爬升阶段”,将有几十年之久。这对于公众来说将有足够的时间来反应、来辩论,并且形成宇宙主义和地球主义的分化。
========================================================
看来50年也好,500年也好,应该利用这段时间来好好辩论和思考人工智能这个问题。
就当成科幻小说来辩也不错。;P 写到这里,忍不住拜一拜阿西莫夫老人家。:'(
回复 #103 stellahie 的帖子
我来问你一个问题:你猜猜extreme和emilydear 对所谓的人工智能会怎么想?:yct_49 自我意识的产生没什么神秘的,我现在就在思考这个问题,而且已经有些心得了,不过我需要用实验去证明。
原帖由 liuhuey 于 1-7-2009 00:17 发表 http://www.freeoz.org/forum/images/common/back.gif
青山啊青山,量变到质变说得没错,但是你没把质变说出来啊。
这个质变就是自我意识的产生。
面对具有自我意识的个体,是给予它平等尊重的地位,还是采取暴力征服的手段,这是人类必须作出的选择。 原帖由 青山 于 30-6-2009 22:46 发表 http://www.freeoz.org/forum/images/common/back.gif
自我意识的产生没什么神秘的,我现在就在思考这个问题,而且已经有些心得了,不过我需要用实验去证明。
你才有点心得啊?我都已经实现了。
U版也已经实现很久了,你自己去问他吧。 你这个说法,只能体现你对人工智能毫无了解。
你只说你不了解,不相信。我不知道跟你说什么。
原帖由 key 于 30-6-2009 23:54 发表 http://www.freeoz.org/forum/images/common/back.gif
我拿把菜刀在手上战斗力都大大超过你啦,更不用说西瓜刀
回复 #108 青山 的帖子
确实我也不知道他在自言自语啥菜刀、西瓜刀的 :yct_41 原帖由 liuhuey 于 1-7-2009 00:48 发表 http://www.freeoz.org/forum/images/common/back.gif你才有点心得啊?我都已经实现了。
U版也已经实现很久了,你自己去问他吧。
哈哈哈。。。。 你实现什么了?我现在的研究课题就是这个。如果你实现了,就是大牛了。
原帖由 liuhuey 于 1-7-2009 00:48 发表 http://www.freeoz.org/forum/images/common/back.gif
你才有点心得啊?我都已经实现了。
U版也已经实现很久了,你自己去问他吧。
回复 #111 青山 的帖子
;P ;P ;P 你如果实现了,就可以自称XX之父什么的了。原帖由 liuhuey 于 1-7-2009 01:07 发表 http://www.freeoz.org/forum/images/common/back.gif
;P ;P ;P
回复 #113 青山 的帖子
U版真的没有告诉过你他的成果么?我一直觉得你们关系貌似挺好的嘛 :o
你有什么问题,还是直接问他本人吧。不好意思。 原帖由 liuhuey 于 1-7-2009 00:48 发表 http://www.freeoz.org/forum/images/common/back.gif
你才有点心得啊?我都已经实现了。
U版也已经实现很久了,你自己去问他吧。
你到底实现了什么?:o :loveliness: :loveliness: :loveliness: :loveliness: 他的最新成果我还真不知道。:P
你问清楚没有?
原帖由 liuhuey 于 1-7-2009 01:13 发表 http://www.freeoz.org/forum/images/common/back.gif
U版真的没有告诉过你他的成果么?
我一直觉得你们关系貌似挺好的嘛 :o
你有什么问题,还是直接问他本人吧。不好意思。 原帖由 liuhuey 于 1-7-2009 00:48 发表 http://www.freeoz.org/forum/images/common/back.gif
你才有点心得啊?我都已经实现了。
U版也已经实现很久了,你自己去问他吧。
拜托,我的Linux集群还没搞好呢,而且也准备搞的也只是DNA而已,离什么自我意识(到底是什么意思啊?:L :L )差了没有十万也有8千里:lol :lol :lol 原帖由 key 于 30-6-2009 23:54 发表 http://www.freeoz.org/forum/images/common/back.gif
我拿把菜刀在手上战斗力都大大超过你啦,更不用说西瓜刀
这句话我看了20次。真的不明白。但是我真的知道。。。:yct_45
可以解释一下吗? 我觉得大家想到的在星际之门里面都全部提到了,古代人和复制人的战争,最终将复制人流放到一个星球上利用他们制造这些复制人的优势,在复制人身上留下了一些BUG,当然复制人本身是可以进化的,所以BUG也终归不会是BUG,最终复制人追求人类的灵魂。。。
我觉得假如机器大脑最终要超越人脑必将会引起人类基因的大进化,一面失衡的世界是不存在的,人类控制了机器人的能源,机器人控制了人类的食物,打架人类使用工具或者超能力(生物电波或者是控制自然的能力),机器人使用蛮力,貌似 这个部分如何和机器打架在变形金刚里面也有提到。
所以真到了那么一天,我觉得人类会表现比较理智,我们看那么多年的科幻电影还有小说,已经很有心理准备了。 是啊, 自我意识和计算程序有什么本质区别呢?对我们业外人来说,能让"程序"?产生自我意识,简直太神秘了。