机器人埃尔伯特成功地让3 位测试员觉得它是真人,人工智能领域内的权威科学家库兹威尔认为,人工智能跨越“奇点”已经为时不远 |
原帖由 coredump 于 19-12-2008 23:42 发表
我还是倾向于赞同大脑是个高度并行的智能体集合。意识的本质(http://www.tianyabook.com/zhexue/linghun/004.htm)是搜索和排序。自然语言理解应该是意识活动的一种。
自由意志杂谈(http://www.xys.org/xys/ebooks/others/science/misc/freewill.txt)我很赞同这个作者的观点,如果还是采用冯诺伊曼结构的计算机的话,最有可能实现人工智能的应该是象Google那样的超大规模集群。
忘记在哪里看到的了,Google的创始人就认为AI的本质就是搜索。
原帖由 black_zerg 于 20-12-2008 09:37 发表
差的远了而且也没必要。现在就多搞搞自动化技术就好了,就让这些电脑带着满世界的机器跑,已经足够了。
要达到人脑的水平又不作弊的话,在来几千年都未可知。
原帖由 someonehappy 于 20-12-2008 10:38 发表
前段时间也对AI很感兴趣,可惜没学过啥理论。
不过貌似现在现实中的所谓的AI,还是人在设计一个死的程序,这个程序虽然会表现出来远超出一般程序的所谓智慧的部分,但我感觉和真正的人工智还是两码事。
图灵测试 ...
原帖由 Linus 于 20-12-2008 16:46 发表
我表示怀疑,如果真的能达到,不等于说可以间接的理解为我们大家不过是一群比较复杂一些的机器吗??每个人不过是一台台高级的运算机器而已??------- 还有很多问题没有想象的那么简单。
原帖由 Linus 于 20-12-2008 16:46 发表
我表示怀疑,如果真的能达到,不等于说可以间接的理解为我们大家不过是一群比较复杂一些的机器吗??每个人不过是一台台高级的运算机器而已??------- 还有很多问题没有想象的那么简单。
原帖由 青山 于 20-12-2008 16:49 发表
说实话,我觉得人脑的思维,和机器并没有什么本质的区别。就是一个电化学系统。
差别只在结构和复杂性上,并没有质的差别。
人的很多行为,都很严重地受体内各种激素的控制。
自由意志错觉可以分为两个方面:外观和内省。外观是指我们观察他人时感
觉别人是具有自由意志的,内省是指我们观察自身的思考过程也会感到自己是具
有自由意志的。实际上自由意志错觉的根源是内省,对其他人的观察是其行为方
式与我们自己相似,从而推断出他人也和自己一样具有自由意志。但是这种推己
及人的方式并非总是有效的,例如当我们考虑其他动物时就会出现不同意见。笛
卡尔认为人是有灵魂的,而其他动物只是自动机器。更有人总结说:养过狗的哲
学家都认为狗有灵魂,而没养过狗的哲学家则认为狗没有灵魂。但是对于昆虫这
一级的动物,大概多数人会认为它们没有自由意志。
现在我们还没有凭借外部观察判断人或动物有没有自由意志的可靠判据。通
常认为人有自由意志的直观感觉来自一些我们认为与之相关的其它特征,例如复
杂性、多变性、合目的性、非重复性、非机械性等等。但是,这些特征未必能够
成为自由意志的根据。例如,普通的国际象棋规则看起来非常简单,王、后、车、
相、马、兵各有固定的走法。我们可以给它加上一条简单规则,创造出新的国际
象棋。
这条规则是这样的:棋盘上有64个位置,每个位置有棋子定义为“1”,没
有棋子定义为“0”,那么每个棋局就得到一个64位的二进制数,称之为“棋局
数”,再将“棋局数”代入哈希函数,求出“哈希数”,取“哈希数”的最后两
位再加一,可以得到从1到4的一个整数,称之为“偏移量”。然后按照“偏移量”
对每个棋子(除了“王”以外)进行“变脸”操作:每个棋子变成“偏移量”之
后的棋子。例如,按照“后、车、相、马、兵”的顺序,当“偏移量”为1时,
后变成车,车变成相……兵变成后,当偏移量为2时,后变成相,车变成马,……
兵变成车。依此类推。这种新的国际象棋每走一步都会出现新的棋局,算出新的
偏移量,进行一次棋子变脸。当然,让人来下这种变脸象棋恐怕太累了,但是让
机器来下,增加的计算量并不多,可以考虑让两台计算机来下变脸象棋,人们坐
下来旁观。
这时候我们看到的两位计算机棋手的行为相当复杂、多变、合目的(取胜)、
不重复、不机械,但是说它们具有自由意志还是根据不足,至少编制下棋程序的
人知道程序是完全决定论的。
所以自由意志错觉实际上主要产生于内省过程。虽然弗洛伊德的精神分析方
法被波普尔说成是伪科学,但是弗洛伊德关于下意识的学说至今是得到承认的。
现在我们认为,通过内省可以看到的思维活动,或曰可以被意识到的大脑活动只
是大脑全部活动的极小部分,只是冰山的一角。人脑的绝大部分活动是在意识之
外的,所以内省产生错觉丝毫也不奇怪。
原帖由 Linus 于 21-12-2008 22:02 发表
我认为问题还是没有解决
"人脑的绝大部分活动是在意识之外的"------这句话我很喜欢!
可问题是:------- 为什么只是部分活动是在意识之外的,为什么不能是全部在意识之外的??-------既然是一台机器在运转,理应 ...
原帖由 青山 于 21-12-2008 22:10 发表
你的自我意识,其实是激素和电信号营造的一种效果罢了。
只要调节你的激素水平和脑电信号,就会给你不同的效果。
这就是为什么吸毒的人,可能出现幻觉。
举个最简单的例子,痛觉。这是你自我意识的一部分吧?
...
原帖由 Linus 于 21-12-2008 23:28 发表
意识根本不能被列为一种感觉,意识的功能是意识到感觉。
意识可以意识到听觉,视觉,触觉,味觉,甚至是吸毒时的幻觉。。。。。这是意识的功能。就如眼睛能看到颜色,但你不能眼睛其实是一种颜色。舌头可以尝出味道 ...
强人工智能观点认为有可能制造出真正能推理(Reasoning)和解决问题(Problem_solving)的智能机器,并且,这样的机器能将被认为是有知觉的,有自我意识的。强人工智能可以有两类:
* 类人的人工智能,即机器的思考和推理就像人的思维一样。
* 非类人的人工智能,即机器产生了和人完全不一样的知觉和意识,使用和人完全不一样的推理方式。
弱人工智能观点认为不可能制造出能真正地推理和解决问题的智能机器,这些机器只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识。
强人工智能的研究目前处于停滞不前的状态下。人工智能研究者不一定同意弱人工智能,也不一定在乎或者了解强人工智能和弱人工智能的内容与差别。就现下的人工智能研究领域来看,研究者已大量造出看起来像是智能的机器,取得相当丰硕的理论上和实质上的成果。
有的哲学家认为如果弱人工智能是可实现的,那么强人工智能也是可实现的。比如Simon Blackburn在其哲学入门教材 Think 里说道,一个人的看起来是“智能”的行动并不能真正说明这个人就真的是智能的。我永远不可能知道另一个人是否真的像我一样是智能的,还是说她/他仅仅是看起来是智能的。基于这个论点,既然弱人工智能认为可以令机器看起来像是智能的,那就不能完全否定这机器是真的有智能的。Blackburn 认为这是一个主观认定的问题。
需要指出的是,弱人工智能并非和强人工智能完全对立,也就是说,即使强人工智能是可能的,弱人工智能仍然是有意义的。至少,今日的计算机能做的事,像算术运算等,在百多年前是被认为很需要智能的。
原帖由 black_zerg 于 22-12-2008 22:19 发表
我总之是认为还差的远,也许几百年内能造出来甚至一般人分辨不出来的反应外观一模一样的机器人(硬编程,模仿到非常像),几千年能造出来会自己学习的机器人。但是很遗憾,人和机器还是会不一样。人的主观意识也许永远会是一个迷,就像我永远没法理解我为什么生来就在这个躯壳里一样。 而且我总觉得去把人类想成机器去分析是很伤心的一件事情。
原帖由 Linus 于 23-12-2008 14:26 发表
不过还是有件好奇的事,当这种“模拟智能”出现的时候,它应该是像软件一样可以复制销售的吧?那么这种复制出来“智能”会是各自有个性的呢?还是全部都是一样的呢?如果全部都一样,怎么去说服消费者这是一种“智能 ...
原帖由 Linus 于 23-12-2008 20:58 发表
那到时候怎么控制“产品质量”呢?既然是学习,就有的学好,有的学坏,学坏的话就后果不堪设想。看来到时候会有一批人专门从事智能教育,办个智能教育学校什么的,也能赚不少钱。当这些“智能们”各项考试合格了,才发给毕业证,走向社会,竞争上岗。考分高的可以卖的价钱高一些,考分低的只有卖得低一些。考不及格的只有失业了。。。。。。看来当个“智能”也不容易啊!
撤的有点远了,玩笑而已,既然已经不遥远了,我们拭目以待吧
原帖由 black_zerg 于 24-12-2008 15:19 发表
我以前总琢磨自己是什么这个问题,假设这么一个试验: 首先clone一个完全一样的你(假设复制技术已经完美了)
然后把你劈成两半,把克隆人劈两半,然后你的左边接他的右边,右边接左边。就还是两个人。在外人看来,两 ...
原帖由 青山 于 24-12-2008 15:24 发表
我觉得人的“意识”是依附于大脑这个器官的。就算可以复制所有的内容。
你还是移不到新的载体中去,尽管新的复制品认为,它就是你,只不过换了一个躯壳。
但是你可以完全相信它,会向你一样思考和做事。你们两个会 ...
原帖由 Linus 于 24-12-2008 18:28 发表
在我们用“一种新型的高级生物”解释这个问题的时候,是很难有说服力的。
我们制造一群低等的机器昆虫,它们一样是一种新生物。它们一样有可能毁灭人类,占领这个星球。甚至我们只要制造一些病毒,它们一样可能毁灭人类,占领地球。但是很难看出“ 智能”体现在哪里?“高级”在哪里?这是一种进步吗?
为什么说我们比昆虫要智能?并不是因为我们比他们“狡猾”!而是因为我们能根据自己所建立的不同价值观,对同一件事做出不同的选择和价值判断。(甚至于在生死这件事情上,我们每个人都会做出不同的判断。在生的机会有限的情况下,有人选择自己活下来,有人会选择牺牲自己,让别人活下来)而昆虫无法产生这样的差异,他们只能根据最生物的本能去判断。而做出来的判断都通常是简单而直接的。
我们人类现在已经认识到不应该随意去伤害动物,随意去伤害其他生命,这样的价值观已经建立起来,有人甚至愿意用自己的生命去维护它!----------人类,并不再只是从动物本能去判断价值,我认为,这才是我们这些智能高级的地方。
然而前面所提到的“高级智能”,看上去只是一群只能从生存本能做判断,一切行为方式也和昆虫无异。这种所谓的“智能”的出现,究竟是进步还是倒退?它们的“高级”体现在哪里??体现在它们智商更高?更狡猾??--------它们甚至都不能建立于生物本能对抗价值观。这和细菌病毒消灭了人类,占领了地球有什么分别?制造这样一种“智能”出来,和制造一种能毁灭人类的病毒出来有什么分别?这样做有什么意义呢?
如果人类灭绝了,这个世界变得更美好了到也罢了,而如果世界退回到更低级的阶段了,那我们真是死的不值得啊!
原帖由 black_zerg 于 24-12-2008 20:31 发表
问题是你自己到那里去了?还有我上面的例子,并不是说从外界看是怎么样(显然是两个一摸一样的你),而是你自己会怎么觉得,你的所谓'灵魂'在那里。
还可以设计一个实验就是 每次切你的一小片脑组织。一片片的替换, ...
原帖由 青山 于 24-12-2008 20:46 发表
你“自己”还在你的大脑里。切成小片你就醒不过来了。
如果把你的大脑直接移植过去,那你就在新的躯壳里了。
不过说实话,我觉得完全复制人的大脑,这个我觉得可见的将来不可能实现。
这个比高级人工智能 ...
原帖由 Linus 于 24-12-2008 21:16 发表
我的观点可能是被曲解了,并不是说要从道德的层面在人和其它物种之间比较出哪一个更“善良”,哪一个更“邪恶”。
我的观点是:
1.如果我们造出的“人工智能”,只知道消灭人类的话,它们看上去并不见得有比我们更高级的智慧,-------------人工智能的成就被明显夸大了!----------我们很可能只是造出了一堆捣乱的病毒或者机器昆虫而已,人工智能的研究并没取得什么比现在更了不起的成就。
2.如果我们真的造出我们认为的那种“高智慧”的话,可能我们的担心显得有些多于。也许它们根本不削于从事我们现在能想像到的那些“为利是图”勾当。他们有更高尚的价值观,它们对生命可能有比我们更深刻的理解。---------------到那时再宣称人工智能研究到达了质的飞跃也不迟。
原帖由 青山 于 24-12-2008 21:40 发表
说了半天邪恶,善良,其实我要说的是,新的人工智能体不论怎么做,都与道德无关,他们的道德不可能是人类的道德。他们不会专杀人类,但可能像我们不是专门杀牛一样。 他们怎么做,并不受人类的道德标准的影响。
...
原帖由 Linus 于 24-12-2008 23:44 发表
先重申一下,我并没有从道德上去评价,更没有从善恶上去评价整件事情。我关心的只是真实的情况是否被夸大了?
另外,我不赞成我们应该去阻止任何的研究,不能阻止人们去探求真理。而且我们也无法阻止,就如所说的“无法阻挡”。
至于说风险,人们不会因研究一个技术而导致我们的毁灭,只会因为滥用一个技术而导致我们毁灭。
我们已经研究了核能,研究了病毒,研究了克隆,。。。。这些研究并没有导致我们灭亡。然而所有这些研究一旦被滥用都会导致我们的灭亡。
研究人工智能不会导致我们灭亡,当我们研究的这种“智能”成功了,真的出现了,我们要考虑如何不被滥用的时候才是风险评估最中要的时机。那要由当时人类的智慧来决定。
而现在,这种研究的成果都还没出现,就来想退路,其实也没有多少意义。
现在,这种研究甚至还没有进行到那一步,更
研究人工智能不会导致我们灭亡
原帖由 coredump 于 25-12-2008 01:07 发表
说说看现在做机器学习方面的研究需要哪些知识基础, 我对这方面也比较感兴趣。在计算机专业本科能力加N年实际软件开发工作之上需要再补充哪些知识才能进入AI的research门槛。
原帖由 someonehappy 于 25-12-2008 02:46 发表
我也做了很多年程序员,最近一直在打算读个研究生,对ai也挺有兴趣。不过确实貌似research主要靠数学,写论文,不知道如果有机会真的做了,会不会不是我喜欢的。
原帖由 Linus 于 26-12-2008 09:22 发表
科学需要猜想,但猜想不是科学。
如果这种“智能”出现了没有人可以认为“冲突一定可以避免”,而是说想通过分析灭亡和不灭亡这两种猜想来说明我们可能夸大了现阶段的认识,其结果可能是 -----------以我们现在所认识的这些因素,这种“智能”根本就还造不出来。只不过我们以为能造出来而已。他们都不出现,冲突如何产生??
原帖由 Linus 于 26-12-2008 10:53 发表
其实不是说智力比人类高,道德就比人类高。我没有这样推理。
充分的交流可以避免冲突。寻求双赢的解决途径。
而是说如果他们是我们造出来的高智力,而却连和我们交流的会有问题的话,我们却为什么要夸口说以现在的技术,让它们会思考,会独立学习,加入感情也根本不成问题呢?-------- 这不是夸大是什么呢??
问题的始终并没有涉及道德。
原帖由 青山 于 20-12-2008 12:02 发表
我现在就在研究自然语言理解。你说的基本上路子是对的。通过建立一个模型,赋予计算机自学习的能力,构建其语言处理能力。
我觉得离实质性突破,并不遥远。就算我这几年搞不出来,其他人也能在不远的将来搞出来。
...
原帖由 dover 于 20-4-2009 12:59 发表
AI这一块含义很广,但实质上的东西却很相近。AI现在说得最多的可能是机器学习,它是很多应用的基础,比如data mining, pattern recognition,语义分析也是机器学习的范畴。机器学习的核心是分类。具体地说分类又可分成supervised和unsupervised等。再具体就是很多模型,像HMM, SVM, neural Network等等非常多。大家不要把AI认为是让电脑和人一样聪明或思考,现阶段AI本质是对训练样本进行归纳总结,得到一个分类函数或所说的分类器。它和所谓的独立思考是两回事。如果有一天机器能理解自然语言,那将会是一个伟大的成就,但也只能说电脑可以提炼出句子结构像主,谓,宾语等,并能将它们与训练样本中的意义做匹配。那也不是思维。不要被一些科普的噱头吓住,有一点是现在的计算机是可控的,只有模糊概念才会产生不可控情况,而现在的电脑从根本上不识别模糊概念,所以代替人类的思维很难,除非有全新结构的计算机产生。
原帖由 清风不写字 于 20-4-2009 13:22 发表
这种研究即使成功了,不可避免的要被先应用于军事领域,估计每个国家都想掌握这种能力吧,制造比星战里面的机器人更聪明的军团。
最终搞的就像核武器一样,难道最后再来个 《人工智能不扩散条约》?
反正人类就是 ...
原帖由 清风不写字 于 20-4-2009 13:22 发表
这种研究即使成功了,不可避免的要被先应用于军事领域,估计每个国家都想掌握这种能力吧,制造比星战里面的机器人更聪明的军团。
最终搞的就像核武器一样,难道最后再来个 《人工智能不扩散条约》?
反正人类就是 ...
原帖由 black_zerg 于 24-12-2008 22:57 发表
我举的例子是说明人身本身智慧的复杂性,心理,动机,存在感等等。如果连人类智慧本身都没有弄明白,谈什么超越?
我的观点还是:从进化,抽象理论系统的掌握,文化艺术,情感欲望等一系列上,起码几千年内机器不能 ...
原帖由 青山 于 7-5-2009 23:47 发表
心心理,动机,存在感等等,这些都不是最难的。人工智能体的心理,动机,存在感跟人肯定不同,但是同类的活动并不难理解。
我目前研究的过程中就有一个猜想——存在感来源于一个被顺序激活的神经元组成的环路。就是一个群神经元,互相有因果关系,然后逐一被激活,重复地被激活。说白了,存在感来源于神经元的一个运动状态。你睡着了,这个环路不存在了,你也就失去存在感了。你苏醒的过程,就是重建这个环路的过程。
动机就更容易解释了。比如你的笔记本电脑电池快没电了,如果它是个机器人,就会去找地方充电。这就是动机。
原帖由 coredump 于 25-12-2008 00:07 发表
说说看现在做机器学习方面的研究需要哪些知识基础, 我对这方面也比较感兴趣。在计算机专业本科能力加N年实际软件开发工作之上需要再补充哪些知识才能进入AI的research门槛。
原帖由 coredump 于 25-12-2008 00:24 发表
转个和本话题有关的wiki条目:遗传编程 Genetic programming
FROM: http://zh.wikipedia.org/w/index.php?title=遗传编程
http://en.wikipedia.org/wiki/Genetic_programming
遗传编程,或称 ...
原帖由 青山 于 25-12-2008 08:54 发表
确实,research主要是写论文。我现在通过实验的方法做研究,也是承受着我导师的不小的压力的。
这种方法并不被目前多数学院派的研究者所喜爱。不过压力归压力,我该怎么做还是怎么做。
我个人认为,AI这边的研究主 ...
欢迎光临 FreeOZ论坛 (https://www.freeoz.org/ibbs/) | Powered by Discuz! X3.2 |