FreeOZ论坛

标题: 人工智能跨越“奇点”? [打印本页]

作者: coredump    时间: 19-12-2008 17:55
标题: 人工智能跨越“奇点”?
FROM:http://luxury.qq.com/a/20081201/000011_1.htm

                               
登录/注册后可看大图

  机器人埃尔伯特成功地让3 位测试员觉得它是真人,人工智能领域内的权威科学家库兹威尔认为,人工智能跨越“奇点”已经为时不远
计算机埃尔伯特在今年的勒布纳人工智能大奖中获胜,12 位测试员中有3位认为埃尔伯特是一个真正的人。根据人工智能之父图灵的理论,那么埃尔伯特的表现的确已经和“思考能力”的标准没有什么质的差别了。人工智能的发展存在一个临界的“奇点”。权威人工语言学家库兹威尔认为,这个“奇点”已经比我们任何人想象的都要接近了。文/ 祁红屯绿
计算机埃尔伯特(Elbot)获得了今年的勒布纳(LoebnerPrize)人工智能大奖。10 月底,在英国雷丁大学(ReadingUniversity)进行的决赛轮中,埃尔伯特以文本对话的方式,和12位经过严格挑选的测试员交谈,结果有3 位测试员认为它是一位真人,“一位真实的、健谈的人。”
评委给了埃尔伯特铜奖。和往年一样,金奖和银奖落空,虚位以待更成熟的人工智能。勒布纳奖的金牌上镌刻着计算机之父阿兰·图灵的头像和名言:“机器可以思考吗?”让机器具有独立的思考和反应能力,这在人工智能界是一个共同的愿景。埃尔伯特和其他机器程序在每年的测试中,已表现出它们逐渐接近目标的能力。
按照休·勒布纳在1991年第一届测试赛中的规定,获得金牌的标准是受测试计算机不仅要在文本测试中迷惑测试员,让他们觉得跟他们交谈的是真人,还必须通过音频、视频测试。也就是说,获得金牌的计算机,必须能够对自然声音和情境做出恰当的反应,能让测试员觉得这是来自真人的反应;勒布纳奖的银牌还是根据文本交谈,但规定必须骗过半数以上的评委;如果前两项奖牌都没有哪个计算机能够企及,那么年度表现最佳者将获得勒布纳铜牌奖项。
但今年的铜牌的意义开始和往年有所不同。埃尔伯特是计算机史上首个令3 位测试员觉得它是真人的计算机,在去年,铜牌奖也只是奖给测试员认为应对最流畅、最合乎逻辑,或可以与之长时间交谈而不会令计算机程序混乱的那个计算机。
埃尔伯特做到了“欺骗”人类。“虽然现在不是所有的计算机总是能让人觉得它可以像人一样思考应对,但是现在至少有一些机器人有的时候让人感觉它在思考。”《时代在线》(timesonline)的一位科技撰稿人温蒂说。她是今年勒布纳奖的评委之一,她给了埃尔伯特一个“真人”评价。
“科学家相信在人工智能领域存在一个‘奇点’,跨越这个临界点,人工智能将超越人类智慧—这个‘奇点’已经比我们想象的要迫近很多了。”11月初,在英国举行的一次与计算机语言相关的会议上,雷·库兹威尔(RayKurzweil)说。他是人工智能领域内的专家,极少数能对人工智能发展做出权威预见性的人之一。据说只要关注库兹威尔的研究内容,就可以了解人工智能最前沿的发展。现在他正在致力于语音和文本的转译研究—这类程序可以让计算机获得勒布纳金奖,但他所说的“奇点”却是银牌所代表的标准,埃尔伯特离这个“奇点”只有一步之遥。

埃尔伯特,人工智能“第一机”
获得勒布纳奖的测试是著名的图灵测试。为了避免人类因偏见而否定计算机的思考能力,阿兰·图灵设计了一种测试,他让计算机程序混在志愿者之间,和测试员进行网络对话,如果测试员没有辨认出和他对话的是计算机程序,那么这一程序就会被认为具有一定的思考能力,或者,看起来具备思考能力。
但阿兰·图灵并没有规定“要骗过半数测试员才算通过”,不久他就去世了。休·勒布纳将标准提高了一些,他认为至少骗过半数以上的测试员才能作数。于是从第一届勒布纳人工智能奖开始,“骗过半数的人”成为了判断机器人是否具有人工智能的临界标准。
埃尔伯特已经骗过了25% 的测试员了,这和骗过50% 还有多大的差距?事实上,很多人工智能专家都开始觉得埃尔伯特可能会成为值得期待的“第一机”,他们认为用不着多久,埃尔伯特就能真正跨越人工智能的“奇点”。
埃尔伯特令人惊异的地方在于它幽默、敏感,而且能够主导对话,有逻辑感已经不是埃尔伯特对话中的特点。在勒布纳奖的最后测试中,埃尔伯特最出人意料的地方在于,它用调侃的方式暗示自己就是机器人,于是多疑的测试员认定这是一位志愿者故意的误导行为,从而将埃尔伯特评定为人类。
“你吃过早餐了么?”测试员问。“是的。但我错误地把牛奶倒在了我的早餐上,结果还没吃,它们就上锈了—我原本应该倒油的。”埃尔伯特回答说。
“它突破了只根据逻辑对答的那种机械感觉,虽然我并不真的认为它是通过思考生成这样的回答,但是它的确答得很妙。我真希望像它那样健谈。”弗雷德·罗伯茨说,他是埃尔伯特程序的设计者,但对埃尔伯特生成的对话一样觉得新奇有趣。
懂得欺骗,才算真正的人工智能
并不是看起来聪明就算人工智能,埃尔伯特的获胜表明了人工智能的标准在于,要让机器看起来像人,甚至要具备人类的某些缺点和坏习惯。战胜国际象棋大师卡斯帕洛夫的计算机“深蓝”算不得真正的人工智能,因为它的特点在于逻辑和运算,而并不机智和“狡猾”,表现出后者才会显得更像人。
埃尔伯特表现出一些机智的品性,还能表达一些情绪。《科学美国人》杂志在比赛之后“专访”了埃尔伯特,在谈到它和它的设计者弗雷德•罗伯茨之间如何分配奖金的时候,埃尔伯特甚至会抱怨罗伯茨对他的控制。
这超出了运算的范畴,也是埃尔伯特存在的意义所在。从1990年开始,人工智能科学家开始研究类神经的电脑程序,埃尔伯特就是这样一种程序的最新产物。从“深蓝”到埃尔伯特,计算机程序的“进化”,已经经过了四代的发展。类神经型电脑令计算机的运算具有一些模糊的区域,这些区域的发展在程序的初始阶段难以预计,容易发生突变,所以也被认为是最接近人类思维的设计。
“人工智能就像是人类的基因组,”雷·库兹威尔说,“开始时会很慢很单一,但是积累下来就会越来越快。”虽然有点难以接受,但是库兹威尔觉得人工智能已经真的站到了“像人类那样思考”的门槛上,跨越那个“奇点”,也许很快就会发生,或许已经发生,就像埃尔伯特今年获得的铜牌,和银牌在本质上有着多大的差别,这已经很难说了。
作者: 青山    时间: 19-12-2008 22:09
虽然我也认为“奇点”比多数人想象的都更接近。不过我倒不看好这个图灵实验的聊天机器人。

“它突破了只根据逻辑对答的那种机械感觉,虽然我并不真的认为它是通过思考生成这样的回答,但是它的确答得很妙。我真希望像它那样健谈。”弗雷德·罗伯茨说,他是埃尔伯特程序的设计者,但对埃尔伯特生成的对话一样觉得新奇有趣。

说白了,这个聊天机器人,仍然没有达到对对话的人的语言的真正理解。仍然是顾左右而言他。文中也说了,靠迷惑人来骗取信任。你如果问他一个正经的问题,要求得到确定的答案,它是没可能给你满意的答案的。所以我觉得这个还是玩具,并不是真正突破的方向。

当然了,不能说他们的研究没有意义,未来的某个时刻,当真正的基于语言理解的对话实现以后,可能可以结合他们现有的技术,让机器人的语言更人性化,更容易让人接受。不过目前那个核心的瓶颈问题,尚未解决。

现在自然语言理解领域有两个瓶颈,第一是机器运算能力的瓶颈,第二是训练语料库的成本瓶颈。说实话,第一个瓶颈我认为可能是假的。计算机界一直以来,都认为台式电脑和人脑的运算能力差距是天文数量级的。但我经过实验,越来越觉得,这个说法可能不够准确。这些结论的前提,都是人脑是一个并行的系统,然而事实上,我们同意时间并不能想很多不同的问题。所以说人脑的运算能力,在局部,或者在不同的功能上,可能是可以并行的,比如你可以一边走路一边思考。但是在纯粹的语言处理领域,人脑的并行能力是非常有限的。同时两个人跟你说话,你估计就顾不过来了。所以我觉得计算机和人脑的语言处理能力的差距,没有以前认为的那样大。第二个瓶颈,训练语料库的建造成本,这个目前还没有突破。不过我觉得,这更多的,是一个产业界的信心的问题。只要有人能证明,一个给定有限大小的训练语料库,可以构建出接近实用标准的语言理解系统。那么就可能说服产业界投入去构建这个语料库。我觉得这一天并不遥远。

这两点突破以后,就是归纳,总结,推理的问题。我觉得一旦一个可以自圆其说的人工智能体构建出来,这些都不是大问题。需要的只是时间了。如果我对上述两个瓶颈的判断没有错。我相信计算机自然语言理解能力质的提高,并不遥远了。
作者: coredump    时间: 19-12-2008 22:42
我还是倾向于赞同大脑是个高度并行的智能体集合。意识的本质(http://www.tianyabook.com/zhexue/linghun/004.htm)是搜索和排序。自然语言理解应该是意识活动的一种。

自由意志杂谈(http://www.xys.org/xys/ebooks/others/science/misc/freewill.txt)我很赞同这个作者的观点,如果还是采用冯诺伊曼结构的计算机的话,最有可能实现人工智能的应该是象Google那样的超大规模集群。

忘记在哪里看到的了,Google的创始人就认为AI的本质就是搜索。
作者: 青山    时间: 19-12-2008 23:00
AI的本质是搜索我完全赞同。但是google那样的集群所拥有的知识量,远远超越一个人的大脑可以记忆的知识量。
AI现在的问题,本质上是如何把这些知识组织起来。目前google那种搜索还不成。

我觉得要想模拟人脑对语言的处理能力,并不需要那么大的集群。人脑确实是并行处理的,但是,速度很有限。
并行的宽度也有限。你想想你思考一个问题,同时脑子中能出现几个概念?你脑子中同时出现的词,不会超过10个。
这说明人脑在特定一个时刻,可以并行处理的信息是很有限的。当然了,这10个词可能激活了了你几十万个脑细胞。
但是每秒处理几十万个激活,对于PC都不是不可能的。

另外,我觉得自然语言和意识是两个不同的问题。自然语言更多的是建立在信息和逻辑上,并不需要自然语言处理系统
一定要有自我意识。自我意识是另外一个问题,是跟物质世界相关的。人的自我意识,很大程度上跟身体的感受有直接
关系。或者说和动物本能关系更大。哺乳动物基本上都有明显的自我意识,但是只有人有完整的语言能力。


原帖由 coredump 于 19-12-2008 23:42 发表
我还是倾向于赞同大脑是个高度并行的智能体集合。意识的本质(http://www.tianyabook.com/zhexue/linghun/004.htm)是搜索和排序。自然语言理解应该是意识活动的一种。

自由意志杂谈(http://www.xys.org/xys/ebooks/others/science/misc/freewill.txt)我很赞同这个作者的观点,如果还是采用冯诺伊曼结构的计算机的话,最有可能实现人工智能的应该是象Google那样的超大规模集群。

忘记在哪里看到的了,Google的创始人就认为AI的本质就是搜索。

作者: black_zerg    时间: 20-12-2008 08:37
提示: 作者被禁止或删除, 无法发言 差的远了而且也没必要。现在就多搞搞自动化技术就好了,就让这些电脑带着满世界的机器跑,已经足够了。
要达到人脑的水平又不作弊的话,在来几千年都未可知。
作者: 青山    时间: 20-12-2008 08:59
这个不是谁说没必要就能阻挡的。而且百年之内几乎是必然的了。

原帖由 black_zerg 于 20-12-2008 09:37 发表
差的远了而且也没必要。现在就多搞搞自动化技术就好了,就让这些电脑带着满世界的机器跑,已经足够了。
要达到人脑的水平又不作弊的话,在来几千年都未可知。

作者: someonehappy    时间: 20-12-2008 09:38
前段时间也对AI很感兴趣,可惜没学过啥理论。
不过貌似现在现实中的所谓的AI,还是人在设计一个死的程序,这个程序虽然会表现出来远超出一般程序的所谓智慧的部分,但我感觉和真正的人工智还是两码事。

图灵测试本身应该没啥错,因为真正要做到不是那么简单的,比如这个新闻里面比较成功的那个程序,也不能说是已经通过了图灵测试。不过图灵测试本身只是从表现结果来反推的一个理论,他并不能指导你如何去做,甚至没有从正面告诉你什么是人工智能。

对我来说,一个程序要成为真正的人工智能的程序,那他就应该具备一种自我发展的能力,程序本身应该是个框架,所谓的一些规则也只能算是基本规则,程序应该能对实际运行中出现的一定范围内的未预先定义的情况具有正确的感知,理解,并且自己根据经验分析如何处理,然后对此产生新的规则,这也就是一个学习的过程。
现在的AI研究里面,有自我学习的部分,很可惜还没看过呢,不知道是否可以解决这样的问题。

我想象里面,真正的AI不应该是人造出来的,而是自己“长”出来的。就好比人,人之所以是人,不是因为有这样的肉体器官,也不是靠别人灌输知识,而是人具有观察周围环境然后进行学习最终适应环境解决问题的能力。所以要真正实现人工智能,技术上如果可以解决创造出这种真正自我学习的模型,应该是很重要的。但是,现在的电脑,程序开发,和这样的模型根本就是不同的。现在的程序可以在复杂程度上远超出普通人的理解范围,但是它还是死的。

最近还看到个新闻,忘了是哪个国家的科学家,在利用仿生的途径来模拟人脑,通过模拟出N个神经元,来组成模拟的大脑,不过人体大脑的神经元数量太多了,所以实现起来还是有难度,不过已经在实施过程中了。

有搞这方面的同学能来说说实际技术上,现在AI有哪些已经很先进的,超出一般人想象的进展的么。
作者: 青山    时间: 20-12-2008 12:02
我现在就在研究自然语言理解。你说的基本上路子是对的。通过建立一个模型,赋予计算机自学习的能力,构建其语言处理能力。
我觉得离实质性突破,并不遥远。就算我这几年搞不出来,其他人也能在不远的将来搞出来。

原帖由 someonehappy 于 20-12-2008 10:38 发表
前段时间也对AI很感兴趣,可惜没学过啥理论。
不过貌似现在现实中的所谓的AI,还是人在设计一个死的程序,这个程序虽然会表现出来远超出一般程序的所谓智慧的部分,但我感觉和真正的人工智还是两码事。

图灵测试 ...

作者: Linus    时间: 20-12-2008 15:46
我表示怀疑,如果真的能达到,不等于说可以间接的理解为我们大家不过是一群比较复杂一些的机器吗??每个人不过是一台台高级的运算机器而已??------- 还有很多问题没有想象的那么简单。
作者: 青山    时间: 20-12-2008 15:49
说实话,我觉得人脑的思维,和机器并没有什么本质的区别。就是一个电化学系统。
差别只在结构和复杂性上,并没有质的差别。

人的很多行为,都很严重地受体内各种激素的控制。

原帖由 Linus 于 20-12-2008 16:46 发表
我表示怀疑,如果真的能达到,不等于说可以间接的理解为我们大家不过是一群比较复杂一些的机器吗??每个人不过是一台台高级的运算机器而已??------- 还有很多问题没有想象的那么简单。

作者: tkl888    时间: 20-12-2008 16:11
原帖由 Linus 于 20-12-2008 16:46 发表
我表示怀疑,如果真的能达到,不等于说可以间接的理解为我们大家不过是一群比较复杂一些的机器吗??每个人不过是一台台高级的运算机器而已??------- 还有很多问题没有想象的那么简单。
不觉得人脑比AI 高级, 说不定更低级呢。
而且算上其他的部分,就更难说了。
作者: dennis    时间: 20-12-2008 16:23
问题是人脑究竟是数字电路还是模拟电路,可以用计算机模拟嘛?如果是模拟电路,信号量有可能就不是0,1这么简单了
作者: 青山    时间: 20-12-2008 18:21
人脑是电信号和化学信号混合的一套系统。
计算机模拟的话,并不只有0和1啊。就像计算机可以做出3D画面,尽管底层仍然是0和1。

当然了,现在的普通计算机并不是设计来做这个的。不过我觉得,计算机串行的运算速度远高于人脑。
未必不可以用串行运算模拟并行运算。关键在于要弄清楚,人脑的并行运算能力到底有多大。
我倾向于认为,没有人们以前以为的那么大。

原帖由 dennis 于 20-12-2008 17:23 发表
问题是人脑究竟是数字电路还是模拟电路,可以用计算机模拟嘛?如果是模拟电路,信号量有可能就不是0,1这么简单了

作者: Linus    时间: 21-12-2008 15:03
原帖由 青山 于 20-12-2008 16:49 发表
说实话,我觉得人脑的思维,和机器并没有什么本质的区别。就是一个电化学系统。
差别只在结构和复杂性上,并没有质的差别。

人的很多行为,都很严重地受体内各种激素的控制。


我还是不能赞同。---- 我们都有意识,意识到“自我”。如果我们只是一群由激素何电化学系统控制,执行各种程序和命令机器,那么意识的存在就是完全没有必要,没有意识的参与就一样能做得很好,甚至更好!何必要有一个“我”呢???
尽管我相信技术有一天可以让电脑像人一样去学习,模仿,行为和人一样聪明,比人更聪明。但是我不认为那是跨越了“奇点”。
作者: coredump    时间: 21-12-2008 19:19
FROM: http://www.xys.org/xys/ebooks/others/science/misc/freewill.txt

    自由意志错觉可以分为两个方面:外观和内省。外观是指我们观察他人时感
觉别人是具有自由意志的,内省是指我们观察自身的思考过程也会感到自己是具
有自由意志的。实际上自由意志错觉的根源是内省,对其他人的观察是其行为方
式与我们自己相似,从而推断出他人也和自己一样具有自由意志。但是这种推己
及人的方式并非总是有效的,例如当我们考虑其他动物时就会出现不同意见。笛
卡尔认为人是有灵魂的,而其他动物只是自动机器。更有人总结说:养过狗的哲
学家都认为狗有灵魂,而没养过狗的哲学家则认为狗没有灵魂。但是对于昆虫这
一级的动物,大概多数人会认为它们没有自由意志。

    现在我们还没有凭借外部观察判断人或动物有没有自由意志的可靠判据。通
常认为人有自由意志的直观感觉来自一些我们认为与之相关的其它特征,例如复
杂性、多变性、合目的性、非重复性、非机械性等等。但是,这些特征未必能够
成为自由意志的根据。例如,普通的国际象棋规则看起来非常简单,王、后、车、
相、马、兵各有固定的走法。我们可以给它加上一条简单规则,创造出新的国际
象棋。

    这条规则是这样的:棋盘上有64个位置,每个位置有棋子定义为“1”,没
有棋子定义为“0”,那么每个棋局就得到一个64位的二进制数,称之为“棋局
数”,再将“棋局数”代入哈希函数,求出“哈希数”,取“哈希数”的最后两
位再加一,可以得到从1到4的一个整数,称之为“偏移量”。然后按照“偏移量”
对每个棋子(除了“王”以外)进行“变脸”操作:每个棋子变成“偏移量”之
后的棋子。例如,按照“后、车、相、马、兵”的顺序,当“偏移量”为1时,
后变成车,车变成相……兵变成后,当偏移量为2时,后变成相,车变成马,……
兵变成车。依此类推。这种新的国际象棋每走一步都会出现新的棋局,算出新的
偏移量,进行一次棋子变脸。当然,让人来下这种变脸象棋恐怕太累了,但是让
机器来下,增加的计算量并不多,可以考虑让两台计算机来下变脸象棋,人们坐
下来旁观。

    这时候我们看到的两位计算机棋手的行为相当复杂、多变、合目的(取胜)、
不重复、不机械,但是说它们具有自由意志还是根据不足,至少编制下棋程序的
人知道程序是完全决定论的。

    所以自由意志错觉实际上主要产生于内省过程。虽然弗洛伊德的精神分析方
法被波普尔说成是伪科学,但是弗洛伊德关于下意识的学说至今是得到承认的。
现在我们认为,通过内省可以看到的思维活动,或曰可以被意识到的大脑活动只
是大脑全部活动的极小部分,只是冰山的一角。人脑的绝大部分活动是在意识之
外的,所以内省产生错觉丝毫也不奇怪。

作者: 青山    时间: 21-12-2008 21:02
我们的各种感官,未来完全可以被传感器所替代。
目前科幻作品中的机器人,绝大多数并不需要自持。
就是说,他不用为自己的能源,维修负责。一旦人
们把这些责任交给机器人自己,机器人可能会为了
能源,配件而争斗。你说他有没有自我意识呢?

这个奇点并不在自我意识,事实上,我觉得自我意识
没什么神秘的。奇点在认识世界和理解世界方面。
一旦机器人可以完全通过自己所具有的传感器,认识
世界,理解世界,建立起自己的世界观,那么奇点
就达到了。

只要机器人可以自己认识世界,理解世界,那么给它
增加自私,自我保护的属性是轻而易举的。

[ 本帖最后由 青山 于 21-12-2008 22:03 编辑 ]
作者: Linus    时间: 21-12-2008 21:02
我认为问题还是没有解决

"人脑的绝大部分活动是在意识之外的"------这句话我很喜欢!
可问题是:------- 为什么只是部分活动是在意识之外的,为什么不能是全部在意识之外的??-------既然是一台机器在运转,理应全部在意识之外啊?理应跟“我”没有关系啊?为什么会有一部分被意识到呢?

“通过内省可以看到的思维活动”------- 那么是谁在“内省”?是谁在“看
”?-------- 如果是大脑在内省,大脑在看,那跟“我”有什么关系??大脑去内省就好了,为什么还要有个“我”呢?

比如你的大脑在运转,里面思维什么,不会被“我”意识到,这不奇怪。那就应该是世界上所有的大脑

(不论是人的还是动物的)的运转,思维都不会被意识到才对!--------可奇怪的是偏偏有“一架”大脑的思维会被“我”意识到?!!

至于有没有“自由意识”?其实是另外一个问题-------暂时不去讨论。
作者: 青山    时间: 21-12-2008 21:10
你的自我意识,其实是激素和电信号营造的一种效果罢了。
只要调节你的激素水平和脑电信号,就会给你不同的效果。
这就是为什么吸毒的人,可能出现幻觉。

举个最简单的例子,痛觉。这是你自我意识的一部分吧?
而痛觉实际上是一种最基本的本能对外界刺激的反应。从
很低等的动物都具备这种能力。你的痛觉和你的视觉,有
本质差别么?其实是没有的。人的自我意识,不过是一种
复杂化的条件反射而已。

原帖由 Linus 于 21-12-2008 22:02 发表
我认为问题还是没有解决

"人脑的绝大部分活动是在意识之外的"------这句话我很喜欢!
可问题是:------- 为什么只是部分活动是在意识之外的,为什么不能是全部在意识之外的??-------既然是一台机器在运转,理应 ...

作者: Linus    时间: 21-12-2008 21:26
原帖由 青山 于 21-12-2008 22:10 发表
你的自我意识,其实是激素和电信号营造的一种效果罢了。
只要调节你的激素水平和脑电信号,就会给你不同的效果。
这就是为什么吸毒的人,可能出现幻觉。

举个最简单的例子,痛觉。这是你自我意识的一部分吧?
...

意识是一种“幻觉”----- 那么是谁来意识这个幻觉?-----另一个意识?

这样解释会在逻辑上陷入困境。
作者: Linus    时间: 21-12-2008 22:28
意识根本不能被列为一种感觉,意识的功能是意识到感觉。
意识可以意识到听觉,视觉,触觉,味觉,甚至是吸毒时的幻觉。。。。。这是意识的功能。就如眼睛能看到颜色,但你不能眼睛其实是一种颜色。舌头可以尝出味道,但你不能说舌头其实是一种味道。。。。。
意识能够意识到感觉,可不能说意识就是一种感觉,幻觉。
作者: 青山    时间: 21-12-2008 23:47
我的感觉,意识应该是一种普遍存在的状态。
低级的生物,就有趋利避害的能力。
我还记得我们中学做实验的草履虫。
这个和我们的意识,从本质上没有区别。

而低等生物的这种特性,我们解释为反射。
但是从反射到意识,是个渐变的过程,并没有
一个点可以把反射和意识明确地区分开。
所以我们的意识,也应该是一种大脑的电化学状态。
当这种反射系统复杂到一定程度,可以认识世界,
理解世界,我们就称之为意识了。


原帖由 Linus 于 21-12-2008 23:28 发表
意识根本不能被列为一种感觉,意识的功能是意识到感觉。
意识可以意识到听觉,视觉,触觉,味觉,甚至是吸毒时的幻觉。。。。。这是意识的功能。就如眼睛能看到颜色,但你不能眼睛其实是一种颜色。舌头可以尝出味道 ...

作者: Linus    时间: 22-12-2008 09:05
"我的感觉,意识应该是一种普遍存在的状态。"-----------赞同

“低级的生物,就有趋利避害的能力。“”-----------赞同

“我还记得我们中学做实验的草履虫。这个和我们的意识,从本质上没有区别。“------------赞同,如果草履虫没有“意识”到疼痛,它就不会躲避。意识到疼痛是意识的功能。

“而低等生物的这种特性,我们解释为反射。”-----------既然没有分别,又为什么要去分别?

我接受这样的观点------------我们只是一群较为复杂的草履虫!
但是我怀疑这样的观点--------------我们只是一群较复杂的机器人!
我接受这样的观点-------------有意识,所以趋利避害。
但是我怀疑这样的观点------------趋利避害,所以有意识。(要制造一个行为上趋利避害的机器人很容易做到,有预设的程序就好了。但是因此而认为机器人有意识?即使在逻辑上也是不严谨的。)
作者: coredump    时间: 22-12-2008 09:21
我们只是一群较复杂的机器人!

如果把机器人重新定义下估计你就会赞同了,不要光想着机械化的机器人
作者: Linus    时间: 22-12-2008 10:42
不要光想着机械化的机器人---------------要想着有意识的机器人?
这还是等于从一开始就默认了-----------趋利避害的机器,就是有意识的。
逻辑上也是一种跨越,为什么就不能怀疑这种看法呢?
作者: 青山    时间: 22-12-2008 10:53
草履虫这个复杂度的“意识”,应该是比较容易搞清其电化学模型的。
草履虫的行为,应该比较容易地,用我们现有的物理化学知识就能解释。

如果我们完全可以通过物理化学模型来解释草履虫的行为,那么我们
是不是可以说,意识就是这个物理化学模型的状态和变化?

如果一个机器人对外界的反应,和一个草履虫一模一样,我们怎么确定
它是不是和草履虫一样有意识?说白了,除了我们自身,我们如何判断
其他物体,动物,甚至人,有没有意识?

原帖由 Linus 于 22-12-2008 10:05 发表
“而低等生物的这种特性,我们解释为反射。”-----------既然没有分别,又为什么要去分别?

[ 本帖最后由 青山 于 22-12-2008 12:02 编辑 ]
作者: Linus    时间: 22-12-2008 11:36
“如果我们完全可以通过物理化学模型来解释草履虫的行为,那么我们
是不是可以说,意识就是这个物理化学模型的状态和变化?”--------确实可以这样说,比如说如果有两只草履虫,一只暂且叫做“有意识的草履虫”,另一只暂且叫做“没有意识的草履虫”(由化学物理模型构成的草履虫)。他们的行为,外观都一样,都是趋利避害的。换句话说,你无法用实验的办法去区分哪一只是那只“有意识的草履虫”。那么这种情况下,我们认为有意识存在或者意识不存在有什么分别?既然物理化学的模型就能解释,为什么还要引入一个“意识”的概念呢?------纯属多余。
这样一来,我们就实际上默认了“意识其实不存在”!---------------这样去认为,不会导致实验和理论的任何矛盾。

但是问题到谈及“自我”的时候就出现了,当我的手被针刺到了,如果说我是没有意识的,那么“我就不会意识到疼痛”,意识不到疼痛其实就应该不疼痛,这个世界上应该没有一个人在疼痛。而如果我既然意识到了疼痛,那怎么又能说意识并不存在?

那么好,如果意识存在。又没有办法通过实验或者行为对比去知道它的存在,那我们又如何去断定哪一个机器人已经有了意识?已经超越了还是没有超越“奇点”??
作者: Linus    时间: 22-12-2008 11:45
我个人觉得,关于意识,我们还有很多问题没有去了解,甚至都不知道如何去了解。
作者: 青山    时间: 22-12-2008 20:01
我觉得如果我们相信意识是普遍存在的。那么任何超过一定复杂程度的反馈系统都可以称为意识。
如果一个机器人被扎一下,也知道躲开,甚至喊疼。我们怎么能就说它没有意识呢?

事实上,证明一个机器人有没有意识,和证明另外一个活人有没有意识,只能通过一样的方法。
这个世界上,除了每个人自己说自己是有意识的,除此之外,从未有人证明过,自己之外的人,
也有意识。比如,你如何证明我是有意识的?

当一个机器人告诉你,它是有意识的时候,你有什么方法可以证明它说的不是事实?

原帖由 Linus 于 22-12-2008 12:45 发表
我个人觉得,关于意识,我们还有很多问题没有去了解,甚至都不知道如何去了解。

[ 本帖最后由 青山 于 22-12-2008 21:06 编辑 ]
作者: coredump    时间: 22-12-2008 20:16
当我们说“意识”的时候,我们其实并没有真正意识到什么是意识
作者: Linus    时间: 22-12-2008 21:19
"事实上,证明一个机器人有没有意识,和证明另外一个活人有没有意识,只能通过一样的方法."-------事实是很可能根本就不存在这样一种方法。

“如果一个机器人被扎一下,也知道躲开,甚至喊疼。我们怎么能就说它没有意识呢?”---------同样也不能说它一定有意识啊。

“这个世界上,除了每个人自己说自己是有意识的,除此之外,从未有人证明过,自己之外的人,
也有意识。比如,你如何证明我是有意识的?”------------我可以认为你是有意识的,也可以认为你是无意识的,用这两种观点来解释你的一切行为,结果不会有任何不同。也就是两种立论和事实都不会产生任何矛盾。两种立论都能存在!但是在谈及自我的时候,就不能两种立论都存在。只有有意识的立论能不产生矛盾。--------- 为什么会出现这样的状况?解决了这个问题,才可以说是开始接近了意识的本质。

"当我们说“意识”的时候,我们其实并没有真正意识到什么是意识" ------------确实是这样,这就像当我们谈论“宇宙”的时候,我们其是并不真正知道什么是“宇宙”。这也是我为什么很怀疑所谓的人工智能已经解决了一切的疑问。---------其实疑问还很多,现在就谈论什么跨越“奇点”还为时太早,我们知道的----------还太少太少了。
作者: black_zerg    时间: 22-12-2008 21:19
提示: 作者被禁止或删除, 无法发言 我总之是认为还差的远,也许几百年内能造出来甚至一般人分辨不出来的反应外观一模一样的机器人(硬编程,模仿到非常像),几千年能造出来会自己学习的机器人。但是很遗憾,人和机器还是会不一样。人的主观意识也许永远会是一个迷,就像我永远没法理解我为什么生来就在这个躯壳里一样。 而且我总觉得去把人类想成机器去分析是很伤心的一件事情。
作者: coredump    时间: 22-12-2008 22:06
标题: 回复 #31 black_zerg 的帖子
http://zh.wikipedia.org/w/index. ... %BD&variant=zh-hans

LS和青山是人工智能的两类典型观点:强人工智能和弱人工智能

强人工智能观点认为有可能制造出真正能推理(Reasoning)和解决问题(Problem_solving)的智能机器,并且,这样的机器能将被认为是有知觉的,有自我意识的。强人工智能可以有两类:

    * 类人的人工智能,即机器的思考和推理就像人的思维一样。
    * 非类人的人工智能,即机器产生了和人完全不一样的知觉和意识,使用和人完全不一样的推理方式。
弱人工智能观点认为不可能制造出能真正地推理和解决问题的智能机器,这些机器只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识。

强人工智能的研究目前处于停滞不前的状态下。人工智能研究者不一定同意弱人工智能,也不一定在乎或者了解强人工智能和弱人工智能的内容与差别。就现下的人工智能研究领域来看,研究者已大量造出看起来像是智能的机器,取得相当丰硕的理论上和实质上的成果。

有的哲学家认为如果弱人工智能是可实现的,那么强人工智能也是可实现的。比如Simon Blackburn在其哲学入门教材 Think 里说道,一个人的看起来是“智能”的行动并不能真正说明这个人就真的是智能的。我永远不可能知道另一个人是否真的像我一样是智能的,还是说她/他仅仅是看起来是智能的。基于这个论点,既然弱人工智能认为可以令机器看起来像是智能的,那就不能完全否定这机器是真的有智能的。Blackburn 认为这是一个主观认定的问题。

需要指出的是,弱人工智能并非和强人工智能完全对立,也就是说,即使强人工智能是可能的,弱人工智能仍然是有意义的。至少,今日的计算机能做的事,像算术运算等,在百多年前是被认为很需要智能的。

这段话和青山上面说的如出一辙
作者: Linus    时间: 23-12-2008 09:03
"我永远不可能知道另一个人是否真的像我一样是智能的,还是说她/他仅仅是看起来是智能的。基于这个论点,既然弱人工智能认为可以令机器看起来像是智能的,那就不能完全否定这机器是真的有智能的。Blackburn 认为这是一个主观认定的问题。"

----------非常赞同这样的观点,这其实正是为什么关于智能和意识之谜如此的难以琢磨难以下手,我们通常研究事物的方法在这里都失去了效果。要走的路还很长。

----------乌鸦其实是白色的,只不过它看起来像黑色的。

----------石头其实是有智能的,只不过它的“行为”看起来像没有智慧的。


不能否认人工智能的研究确实很了不起,今后也将实现很多不可思议的成就,但是不应该夸大它。
作者: 青山    时间: 23-12-2008 09:14
几百年?人类几百年前啥样子?呵呵。我更关心我有生之年能否看到。 这个可能
并不小。编程模拟智能,并不是普通意义上的那种程序。人工智能自学习的能力,会
比看上去像人的机器人先出现。

人和机器不一样是肯定的。因为从成本考虑,多数应用没必要把机器做得和人一模一样。
就像汽车代替人的腿,我们没必要做一个两条腿跑的汽车一样。

我觉得把人想成和机器本质统一,是一件好事情。只有这样,人类才能升华,脱离动物
的很多无法超越的限制。最终,人类文明只要把自身的知识和世界观传承下去就可以了。
也许500年后,人类已经不是现在这种动物形态了呢。也许那才是人类文明发展的高级
阶段。


原帖由 black_zerg 于 22-12-2008 22:19 发表
我总之是认为还差的远,也许几百年内能造出来甚至一般人分辨不出来的反应外观一模一样的机器人(硬编程,模仿到非常像),几千年能造出来会自己学习的机器人。但是很遗憾,人和机器还是会不一样。人的主观意识也许永远会是一个迷,就像我永远没法理解我为什么生来就在这个躯壳里一样。 而且我总觉得去把人类想成机器去分析是很伤心的一件事情。

[ 本帖最后由 青山 于 23-12-2008 10:21 编辑 ]
作者: stock99    时间: 23-12-2008 10:02
有沒有任何關於人工智能的研究,是專注於"情感(emotion)"方面的?
作者: 青山    时间: 23-12-2008 10:08
现在的重点还没到这一步,先要有自主学习和逻辑能力,才能谈得上情感。
其实情感并不是最难的。属于锦上添花的东西。



原帖由 stock99 于 23-12-2008 11:02 发表
有沒有任何關於人工智能的研究,是專注於"情感(emotion)"方面的?

作者: Linus    时间: 23-12-2008 12:20
原帖由 青山 于 23-12-2008 10:14 发表

人和机器不一样是 ...


不把人想成和本质上和机器统一的,人类才能升华,望远镜不过是我们视觉的延伸,汽车是我们腿的延伸,电脑是我们运算能力的延伸,。。。。。这一切不过是我们感知和控制能力的扩展,把这一切都想成是机器为人服务?还是机器为机器服务?------各人可以有自己的选择。
作者: Linus    时间: 23-12-2008 13:26
不过还是有件好奇的事,当这种“模拟智能”出现的时候,它应该是像软件一样可以复制销售的吧?那么这种复制出来“智能”会是各自有个性的呢?还是全部都是一样的呢?如果全部都一样,怎么去说服消费者这是一种“智能”?如果是各自有个性的,消费者花一样的钱买到不一样的东西的话,也是会惹麻烦的。-----------闲谈而已
作者: 青山    时间: 23-12-2008 17:22
当这些智能能够自学习的时候,虽然出厂时是一样的,随着后续的自学习,就会有差别。
到时候,人们难保看中的,不会是它们的个性呢。

原帖由 Linus 于 23-12-2008 14:26 发表
不过还是有件好奇的事,当这种“模拟智能”出现的时候,它应该是像软件一样可以复制销售的吧?那么这种复制出来“智能”会是各自有个性的呢?还是全部都是一样的呢?如果全部都一样,怎么去说服消费者这是一种“智能 ...

作者: Linus    时间: 23-12-2008 19:58
那到时候怎么控制“产品质量”呢?既然是学习,就有的学好,有的学坏,学坏的话就后果不堪设想。看来到时候会有一批人专门从事智能教育,办个智能教育学校什么的,也能赚不少钱。当这些“智能们”各项考试合格了,才发给毕业证,走向社会,竞争上岗。考分高的可以卖的价钱高一些,考分低的只有卖得低一些。考不及格的只有失业了。。。。。。看来当个“智能”也不容易啊!

撤的有点远了,玩笑而已,既然已经不遥远了,我们拭目以待吧
作者: 青山    时间: 23-12-2008 20:20
这些都是小问题,就怕到时候有几个学坏了的,通过网络广泛传播他们的思想。
然后把人类杀光。这才是人类面临的真正危险。我不开玩笑。

原帖由 Linus 于 23-12-2008 20:58 发表
那到时候怎么控制“产品质量”呢?既然是学习,就有的学好,有的学坏,学坏的话就后果不堪设想。看来到时候会有一批人专门从事智能教育,办个智能教育学校什么的,也能赚不少钱。当这些“智能们”各项考试合格了,才发给毕业证,走向社会,竞争上岗。考分高的可以卖的价钱高一些,考分低的只有卖得低一些。考不及格的只有失业了。。。。。。看来当个“智能”也不容易啊!

撤的有点远了,玩笑而已,既然已经不遥远了,我们拭目以待吧  

作者: freshfish    时间: 23-12-2008 20:35
讨论的挺好,长这方面的见识了.........
作者: Linus    时间: 24-12-2008 10:14
如果真的出现人工智能想要毁灭人类的话,事情反而会变得十分“诡异”起来。
死到不可怕,但是不能死的不明不白!在被灭亡之前,我们至少应该思考下面两种可能:

第一种可能: 这些智能产品根本就是有严重缺陷的,或者根本其实就不是智能的,不过是一个骗局!

比如我们生产了几百万个,或者上千万个这样的“人工智能”。既然它们都是有独立意识的,那么要在它们当中传播一种思想就没有那么容易。那个“坏的智能”传播它的思想,其他的“智能”为什么都听从他的?而没有形成争执和反对的呢?

我们人类就是有独立意志的智能,我们当中也“变坏的智能”,每天在网络上传播他们的思想,比如邪教,比如种族灭绝。。。。。。但是为什么造成的影响程度远没有到我们每天必须担心被他们这些人灭绝的程度?

原因就是我们有独立的意志,要想对大面积的有独立意志群体进行“洗脑”,让他们形成一个统一的意志决不是一件容易的事情!尤其现在言论自由,随便想在网上传播一种思想都会引起各种各样争鸣。

我们人类这些智能做不到的“洗脑”--------- 它们这些“智能”是如何做到的?

看来它们这些智能其实和我们毕竟不同,要么有严重缺陷,要么根本就没有“独立意志”!在他们的后面可能其实隐藏了一个邪恶的意识在控制他们?

当然,我们可以假设,为了争夺资源,它们为了一个共同的利益,形成的团体。那么它们就是一些自私,冷酷,不择手段的“智能”!---------- 但是同时带来的问题是,它们这样一群自私,冷酷,不择手段的“智能”相互间又怎样信任呢?一个“智能”如果真的会思考,它会选择跟那些自私,冷酷,不择手段的智能站在一起更安全?还是和我们这些有道德的人类站在一起更安全?它难道不会担心 ------- 等消灭了人类,我自己也难保不被这些自私,冷酷的家伙算计,自身难保。---------倒不如选择和人类站在一起,消灭这些冷酷的家伙?毕竟人类是更值得信任。

当他们群起而要消灭人类的时候,再一次让我不得不怀疑,这些冷酷的“智能”真的是和我们一样的有独立意志的智能吗?

第二种可能: 这种可能更有意思----------这些产品并没有缺陷,确确实实和我们一样是有独立意志的“智能”!

它们现在之所以群起而要灭掉人类,根本原因是我们对他们的教育出了问题!

也许我们只教给他们如何学习数理化知识,却没有交给他们怎样去爱别人?
我们教给了他们各种科技知识,却没有教给他们要创造一个美好的世界,仅仅靠科技是不可能的?
我们只教给了他们如何精确计算利弊得失,却没有教给他们自私和冷酷并不会为它们自己的将来创造出一个美好的生活?
我们只教给了他们如何去争夺利益,而没有教给他们生命的价值不在于所取了多少而在于付出了多少!。。。 。。。

真是那样的话,在我们人类灭绝的那一天,我们只有感叹---------“唉,我们人类之所以有今天的下场,是因为我们的教育从一开始就走错了方向啊!!”

(顺便说一句,我们现在只重知识,只重考分的应试教育不正是这样一种病态的教育吗?--------又扯远了
作者: coredump    时间: 24-12-2008 10:30
标题: 回复 #43 Linus 的帖子
我觉得我们人类之所以还有着宝贵的“独立自由意志”是因为人类还没有找到复制,传输和更改思维的高效办法。如果强人工智能实现了的话,人类对思维的理解和掌握将达到一个新的高度,到那时候可能控制一个人的思想就不会像现在这样困难了。

机器灭绝人类的危险也许存在,但人类利用这种技术控制和操纵自己的危险可能会更大。在机器强大到能灭我们之前,我们就已经被自己给灭了。

真庆幸现在这技术还没出现,否则某政府根本不用费劲搞啥GFW了
作者: black_zerg    时间: 24-12-2008 11:07
提示: 作者被禁止或删除, 无法发言 The key feature about  that issue is about the ability of evolution, the capability to improve itself.  See the origin of life on earth,  those seeds are so simple and ugly, but they have that ability.

According to the current status about robot & software I don't know if we already have any progress on that feat, what we have done still looks like something different.

And because it's too hard and won't get finical return immediately, I don't know if human being are using their most talent genius to invest on it.

Anyway I don't think that day will come soon.
作者: 青山    时间: 24-12-2008 11:49
这是个很值得讨论的问题。我下边先逐一讨论你提出的问题。

如果真的出现人工智能想要毁灭人类的话,事情反而会变得十分“诡异”起来。
死到不可怕,但是不能死的不明不白!在被灭亡之前,我们至少应该思考下面两种可能:

第一种可能: 这些智能产品根本就是有严重缺陷的,或者根本其实就不是智能的,不过是一个骗局!

比如我们生产了几百万个,或者上千万个这样的“人工智能”。既然它们都是有独立意识的,那么要在它们当中传播一种思想就没有那么容易。那个“坏的智能”传播它的思想,其他的“智能”为什么都听从他的?而没有形成争执和反对的呢?

我们人类就是有独立意志的智能,我们当中也“变坏的智能”,每天在网络上传播他们的思想,比如邪教,比如种族灭绝。。。。。。但是为什么造成的影响程度远没有到我们每天必须担心被他们这些人灭绝的程度?


首先,你需要认识到,智能机器人是一个新物种。无论人类怎么看,即使你把他们当作会说话的机器,但是当他们的智力水平接近,达到甚至超过人类的时候(能接近就一定能超过)他们本质上是一个新的物种,不同于地球上以往的任何生物。

原因就是我们有独立的意志,要想对大面积的有独立意志群体进行“洗脑”,让他们形成一个统一的意志决不是一件容易的事情!尤其现在言论自由,随便想在网上传播一种思想都会引起各种各样争鸣。

我们人类这些智能做不到的“洗脑”--------- 它们这些“智能”是如何做到的?

看来它们这些智能其实和我们毕竟不同,要么有严重缺陷,要么根本就没有“独立意志”!在他们的后面可能其实隐藏了一个邪恶的意识在控制他们?


他们这么做并不是邪恶的,尽管从人类的角度,这是邪恶的。就像屠夫对待牛羊那样,人类不会认为自己邪恶,同样的,他们也不会认为这么做是邪恶的。

当然,我们可以假设,为了争夺资源,它们为了一个共同的利益,形成的团体。那么它们就是一些自私,冷酷,不择手段的“智能”!---------- 但是同时带来的问题是,它们这样一群自私,冷酷,不择手段的“智能”相互间又怎样信任呢?一个“智能”如果真的会思考,它会选择跟那些自私,冷酷,不择手段的智能站在一起更安全?还是和我们这些有道德的人类站在一起更安全?它难道不会担心 ------- 等消灭了人类,我自己也难保不被这些自私,冷酷的家伙算计,自身难保。---------倒不如选择和人类站在一起,消灭这些冷酷的家伙?毕竟人类是更值得信任。

当他们群起而要消灭人类的时候,再一次让我不得不怀疑,这些冷酷的“智能”真的是和我们一样的有独立意志的智能吗?



你能想象,你跟你们家忠实的阿黄站在一起,反对那些“自私,冷酷,不择手段”的人类么?事实上,这些正是人类的属性。
当人工智能物种的智力达到或者超过人类的时候,他们怎么会容忍一群自私,冷酷,不择手段的人类,对他们颐指气使?
他们互相之间是同类,人类对他们来说就是一群愚蠢自大的生物。就像我们对屠宰有罪恶感却乐于享用牛肉一样。也许他们
中的一部分不会直接参与,但是至少会默许或者暗中支持这么做。

第二种可能: 这种可能更有意思----------这些产品并没有缺陷,确确实实和我们一样是有独立意志的“智能”!

它们现在之所以群起而要灭掉人类,根本原因是我们对他们的教育出了问题!

也许我们只教给他们如何学习数理化知识,却没有交给他们怎样去爱别人?
我们教给了他们各种科技知识,却没有教给他们要创造一个美好的世界,仅仅靠科技是不可能的?
我们只教给了他们如何精确计算利弊得失,却没有教给他们自私和冷酷并不会为它们自己的将来创造出一个美好的生活?
我们只教给了他们如何去争夺利益,而没有教给他们生命的价值不在于所取了多少而在于付出了多少!。。。 。。。

真是那样的话,在我们人类灭绝的那一天,我们只有感叹---------“唉,我们人类之所以有今天的下场,是因为我们的教育从一开始就走错了方向啊!!”


这个你还是忽略了他们作为一个新物种的不同需要。出于他们本身的利益,人类眼中的美好和他们认识的美好是截然不同的。
人类需要更多的氧气,清新的空气,更多的水源,由此喜欢绿色植物。而金属为主的生物可能正相反,他们需要干燥的气候,
更多的惰性气体。无论如何教育,你也没法教育一个人喜欢恶臭的气味,腐烂的食物。同样的,你也没法教育一个有自我意识
的金属为主构成的生物喜欢水和氧气。



(顺便说一句,我们现在只重知识,只重考分的应试教育不正是这样一种病态的教育吗?--------又扯远了 )
作者: 青山    时间: 24-12-2008 12:14
我可以设想一下人类和人工智能新物种之间的过渡的几种可能性。

1,爆发冲突,战争,人类被杀光。这是最简单,也是可能性最大的一种。因为这就是人类本身解决问题的方式。其实这还不是最糟糕的结果。毕竟新物种作为人类文明的继承者,会传承下去。但是如果这种冲突在新物种还不够完善之前就发生了。可能会造成他们杀光了人类,自己却没有足够的能力延续下去。这才是人类文明最失败的结局。

2,随着拟人智能生物的发展,人类越来越多地依靠这些生物进行劳动。人类本身逐渐脱离劳动,并且,由于经济因素,人们越来越少生育意愿,这个其实现在已经发生了。领养一个马上能干活,还听话,还能跟你交流感情的机器人,远比养一个不听话的孩子要吸引人。这样人类的数量会逐渐萎缩。在几代人之内,这种情况并不会让人不舒服。因为每个人占有的资源越来越多了。机器人逐渐替代了人类社会的各个部门。形成一个可以自行运转的系统。人类逐渐退出历史舞台。到最后,也许是人类都死绝了,也许是爆发一场小规模的冲突,把仅剩的那些人类寄生虫清除掉。新物种开始地球文明的新阶段。

3,人类通过复制等方法,把自己的思想植入人工智能体,这样可以获得永生。也就不需要孩子了。人类逐渐脱离动物界。转化为新物种。但是注意,这个新物种也绝不是现在人类,理由跟我上边的帖子中描述的一样。当你的躯体由金属为主构成的时候,你肯定不会再喜欢氧气和水了。那怕你继承了一个人的全部历史和思想。就像一个人的身体状况出现变化以后,性格也会跟着变一样。
作者: black_zerg    时间: 24-12-2008 14:19
提示: 作者被禁止或删除, 无法发言 我以前总琢磨自己是什么这个问题,假设这么一个试验: 首先clone一个完全一样的你(假设复制技术已经完美了)
然后把你劈成两半,把克隆人劈两半,然后你的左边接他的右边,右边接左边。就还是两个人。在外人看来,两人一模一样,在你看来会怎样呢?麻醉剂过了之后你会在那里?

也许所有的一切都不过是幻觉, 说不定你就是一段模拟程序而已,等你死了,世界就消失了也说不准。程序就运行完了,所有环境变量全释放了。
作者: 青山    时间: 24-12-2008 14:24
我觉得人的“意识”是依附于大脑这个器官的。就算可以复制所有的内容。
你还是移不到新的载体中去,尽管新的复制品认为,它就是你,只不过换了一个躯壳。
但是你可以完全相信它,会向你一样思考和做事。你们两个会有极端的默契。
也就是说,实际上复制了“意识”。但是你的意识是基于你的大脑的电化学系统的。

不过从一个外人的角度,如果复制了你的大脑的所有内容,然后你挂了。
外人看到的就是一个转移到新躯体的你。所以这个复制过程可以在人死前进行。

每一个新复制出来的“人”,都会告诉你,我只是睡了一觉,就到了这个新躯体中。
就像你真的没有死亡一样。


原帖由 black_zerg 于 24-12-2008 15:19 发表
我以前总琢磨自己是什么这个问题,假设这么一个试验: 首先clone一个完全一样的你(假设复制技术已经完美了)
然后把你劈成两半,把克隆人劈两半,然后你的左边接他的右边,右边接左边。就还是两个人。在外人看来,两 ...

作者: Linus    时间: 24-12-2008 17:28
在我们用“一种新型的高级生物”解释这个问题的时候,是很难有说服力的。

我们制造一群低等的机器昆虫,它们一样是一种新生物。它们一样有可能毁灭人类,占领这个星球。甚至我们只要制造一些病毒,它们一样可能毁灭人类,占领地球。但是很难看出“ 智能”体现在哪里?“高级”在哪里?这是一种进步吗?

为什么说我们比昆虫要智能?并不是因为我们比他们“狡猾”!而是因为我们能根据自己所建立的不同价值观,对同一件事做出不同的选择和价值判断。(甚至于在生死这件事情上,我们每个人都会做出不同的判断。在生的机会有限的情况下,有人选择自己活下来,有人会选择牺牲自己,让别人活下来)而昆虫无法产生这样的差异,他们只能根据最生物的本能去判断。而做出来的判断都通常是简单而直接的。

我们人类现在已经认识到不应该随意去伤害动物,随意去伤害其他生命,这样的价值观已经建立起来,有人甚至愿意用自己的生命去维护它!----------人类,并不再只是从动物本能去判断价值,我认为,这才是我们这些智能高级的地方。

然而前面所提到的“高级智能”,看上去只是一群只能从生存本能做判断,一切行为方式也和昆虫无异。这种所谓的“智能”的出现,究竟是进步还是倒退?它们的“高级”体现在哪里??体现在它们智商更高?更狡猾??--------它们甚至都不能建立于生物本能对抗价值观。这和细菌病毒消灭了人类,占领了地球有什么分别?制造这样一种“智能”出来,和制造一种能毁灭人类的病毒出来有什么分别?这样做有什么意义呢?

如果人类灭绝了,这个世界变得更美好了到也罢了,而如果世界退回到更低级的阶段了,那我们真是死的不值得啊!
作者: Linus    时间: 24-12-2008 17:37
原帖由 青山 于 24-12-2008 15:24 发表
我觉得人的“意识”是依附于大脑这个器官的。就算可以复制所有的内容。
你还是移不到新的载体中去,尽管新的复制品认为,它就是你,只不过换了一个躯壳。
但是你可以完全相信它,会向你一样思考和做事。你们两个会 ...


-------这个问题倒是很有趣,如果一个在饭厅,一个在厕所,这个人会同时体验到香味和臭味?
作者: 青山    时间: 24-12-2008 19:04
人类自己目前还在自相残杀。如果没有核恐怖平衡,人类之间早就打过第三次世界大战了。
就是这核平衡也不保险。美国又在搞NMD。

只要是生物,自私,冷酷,不择手段就是避免不了的。人类的道德只是建立在一个特定的平衡
的基础上的。如果有一个物种比人类智力水平还低,还要命令人在做这做那,人类绝对不会客气的。
那叫反抗压迫。

要真从道德标准来看待,任何其他物种,恐怕都会认为人类是最邪恶的。

不过你最后一句话说得没错,也是我说的3种情况中的第一种中,最失败的一种。

原帖由 Linus 于 24-12-2008 18:28 发表
在我们用“一种新型的高级生物”解释这个问题的时候,是很难有说服力的。

我们制造一群低等的机器昆虫,它们一样是一种新生物。它们一样有可能毁灭人类,占领这个星球。甚至我们只要制造一些病毒,它们一样可能毁灭人类,占领地球。但是很难看出“ 智能”体现在哪里?“高级”在哪里?这是一种进步吗?

为什么说我们比昆虫要智能?并不是因为我们比他们“狡猾”!而是因为我们能根据自己所建立的不同价值观,对同一件事做出不同的选择和价值判断。(甚至于在生死这件事情上,我们每个人都会做出不同的判断。在生的机会有限的情况下,有人选择自己活下来,有人会选择牺牲自己,让别人活下来)而昆虫无法产生这样的差异,他们只能根据最生物的本能去判断。而做出来的判断都通常是简单而直接的。

我们人类现在已经认识到不应该随意去伤害动物,随意去伤害其他生命,这样的价值观已经建立起来,有人甚至愿意用自己的生命去维护它!----------人类,并不再只是从动物本能去判断价值,我认为,这才是我们这些智能高级的地方。

然而前面所提到的“高级智能”,看上去只是一群只能从生存本能做判断,一切行为方式也和昆虫无异。这种所谓的“智能”的出现,究竟是进步还是倒退?它们的“高级”体现在哪里??体现在它们智商更高?更狡猾??--------它们甚至都不能建立于生物本能对抗价值观。这和细菌病毒消灭了人类,占领了地球有什么分别?制造这样一种“智能”出来,和制造一种能毁灭人类的病毒出来有什么分别?这样做有什么意义呢?

如果人类灭绝了,这个世界变得更美好了到也罢了,而如果世界退回到更低级的阶段了,那我们真是死的不值得啊!

作者: 青山    时间: 24-12-2008 19:06
当然不会,就像你的一个知己。遇到一个问题你会知道他会怎么做。他也知道你会怎么反应。

原帖由 Linus 于 24-12-2008 18:37 发表


-------这个问题倒是很有趣,如果一个在饭厅,一个在厕所,这个人会同时体验到香味和臭味?

作者: black_zerg    时间: 24-12-2008 19:31
提示: 作者被禁止或删除, 无法发言 问题是你自己到那里去了?还有我上面的例子,并不是说从外界看是怎么样(显然是两个一摸一样的你),而是你自己会怎么觉得,你的所谓'灵魂'在那里。
还可以设计一个实验就是 每次切你的一小片脑组织。一片片的替换,到最后全部替成新的,那外人看来肯定没区别,但是你自己还活着么?这是一个永远无法证实的实验,但并不是没意义,我是想说人类目前的思维方式也许并不能解释一切。
作者: 青山    时间: 24-12-2008 19:46
你“自己”还在你的大脑里。切成小片你就醒不过来了。

如果把你的大脑直接移植过去,那你就在新的躯壳里了。

不过说实话,我觉得完全复制人的大脑,这个我觉得可见的将来不可能实现。
这个比高级人工智能的发展,要难得多,复杂得多。

很有可能到机器人替代人类的那一天,也不会出现这样的技术。

原帖由 black_zerg 于 24-12-2008 20:31 发表
问题是你自己到那里去了?还有我上面的例子,并不是说从外界看是怎么样(显然是两个一摸一样的你),而是你自己会怎么觉得,你的所谓'灵魂'在那里。
还可以设计一个实验就是 每次切你的一小片脑组织。一片片的替换, ...

作者: Linus    时间: 24-12-2008 20:16
我的观点可能是被曲解了,并不是说要从道德的层面在人和其它物种之间比较出哪一个更“善良”,哪一个更“邪恶”。

我的观点是:

1.如果我们造出的“人工智能”,只知道消灭人类的话,它们看上去并不见得有比我们更高级的智慧,-------------人工智能的成就被明显夸大了!----------我们很可能只是造出了一堆捣乱的病毒或者机器昆虫而已,人工智能的研究并没取得什么比现在更了不起的成就。

2.如果我们真的造出我们认为的那种“高智慧”的话,可能我们的担心显得有些多于。也许它们根本不削于从事我们现在能想像到的那些“为利是图”勾当。他们有更高尚的价值观,它们对生命可能有比我们更深刻的理解。---------------到那时再宣称人工智能研究到达了质的飞跃也不迟。
作者: Linus    时间: 24-12-2008 20:30
原帖由 青山 于 24-12-2008 20:46 发表
你“自己”还在你的大脑里。切成小片你就醒不过来了。

如果把你的大脑直接移植过去,那你就在新的躯壳里了。

不过说实话,我觉得完全复制人的大脑,这个我觉得可见的将来不可能实现。
这个比高级人工智能 ...


我认为我们在研究意识的问题的时候至少要分清楚意识和思维是不同的。应该清楚一下几点:

1.思维产生于大脑,这不难通过实验来证明。

2.思维不是意识,意识也不是思维,能“读懂”思维的那个“东西”才是意识

3。意识“住在”大脑里-----这是一种想当然!因为我们无法用实验的办法来证明这一点。
作者: 青山    时间: 24-12-2008 20:40
说了半天邪恶,善良,其实我要说的是,新的人工智能体不论怎么做,都与道德无关,他们的道德不可能是人类的道德。他们不会专杀人类,但可能像我们不是专门杀牛一样。 他们怎么做,并不受人类的道德标准的影响。

我们现在在讨论的,不是何时可以宣称人工智能研究达到了质的飞跃。而是人类未来100年到200年就可能面临的一大现实问题。也许我们始终都认为这些人工智能体还不够完善,但是也许在我们“完善”他们之前,他们已经替代人类了。回到本贴的主体,这个奇点的到来很快,这个奇点并不是我们宣称人工智能研究达到飞跃的那一天,而是事实上存在的某一天,尽管在那天我们可能什么都没意识到。

思考一项技术的发展,需要考虑到相关的风险。这就是我在思考的。我知道这项技术的发展不可能被阻挡。所以我才会想出上边47楼的后两条出路。不过如果人们认识不到这个问题的重要性,有所充分的准备,那么最后走成第一条路的可能性是相当大的。



原帖由 Linus 于 24-12-2008 21:16 发表
我的观点可能是被曲解了,并不是说要从道德的层面在人和其它物种之间比较出哪一个更“善良”,哪一个更“邪恶”。

我的观点是:

1.如果我们造出的“人工智能”,只知道消灭人类的话,它们看上去并不见得有比我们更高级的智慧,-------------人工智能的成就被明显夸大了!----------我们很可能只是造出了一堆捣乱的病毒或者机器昆虫而已,人工智能的研究并没取得什么比现在更了不起的成就。

2.如果我们真的造出我们认为的那种“高智慧”的话,可能我们的担心显得有些多于。也许它们根本不削于从事我们现在能想像到的那些“为利是图”勾当。他们有更高尚的价值观,它们对生命可能有比我们更深刻的理解。---------------到那时再宣称人工智能研究到达了质的飞跃也不迟。

作者: black_zerg    时间: 24-12-2008 22:24
提示: 作者被禁止或删除, 无法发言 可能我没表达清楚,这个实验的关键是换脑,如果直接全换,显然是大家会认为你直接死亡,那么  每次换一点会如何?
比如你做了个克隆人,然后用他替换你身上的器官,现在就这么去换你的脑子,每个月给你换个1%,换了100个月,你原来的脑细胞全不在了,那你还活着么,你自己会觉得自己还活着么,还是早已经死了,如果死了,那在那个月死的?
这里重点并不在于工艺或技术,只是想说人类对世界的理解还是有局限的。

人工智能 可以做得很现实,很精致,然而 生物的进化和复杂度是叹为观止的,人类的本能欲望和心里活动更是及其复杂。第一我们对于生命和人类自身的研究都还不到位,第二对于能自动进化的算法这一理论体系,我个人目前又从未看见什么成果(能学习下棋或者走路什么的那种机器人在我看来根本就不算进化,我也不认为智能的根本就是搜索)。

我要说的是实际上如果你能造出来那么一种能自动进化的智能,哪怕目前什么都不能干,你就那么就丢到一个星球上,有一天他们就会有类似我们的文明,有自己个体的目的,活动,不断的发展。这就类似于我们的生命了,否则就永远只是走着模拟的路,在把人类已知的东西灌输到机器里,他们永远只是机器和知识复制。离真正的和我们一样的智能还所差太远。 这天就会成为那个分界点。

我所能见的,人类近期内可能做到的是,创造出一群有着逻辑的机器,然后他们按着我们设计的程式奔走,也许会帮助我们或者毁灭我们,都无关紧要,他们根本就不是智能,不过是机器,不过是在执行我们的程序。即使有幻想小说中的情节,我们被机器毁灭,也不过是我们编程编出了错,根本与他们自己智能无关。这个就类似于我们想造个房子没造好,结果房子倒了把我们砸死了。而且就目前这个机器人水准,人类死了这些机器也不可能进化,就一堆破铁。人类幻想做上帝的话,目前那还差的远。

前面所说的是创造一个智能是非常困难的而且我们目前的技术和理论都差的太远。回到题目上来,对于一个并不真正智能的‘智能’,大面积毁灭人类的概率我认为是太小太小了,就是人类目前想故意为之,恐怕都没那个能力。机器目前根本就不会自主性互相沟通,根本没有什么独立思考能力,能做的就是搜索和执行我们的算法,所以如果说我们的算法失误能够创造出那么伟大的一个智能能够自动进化,并且故意的去进化全球机器人而且能够掌握有效的物理手段,再来有目地的毁灭人类,而且人类作为站在技术高峰,拥有一切军事科技力量的庞大群体,没有抵抗力的瞬间被灭了。这个失误就太神仙了。

所以关于这个人工智能威胁论,最可能的就是某个电水壶由于程序漏洞电路老化,电死了个用户,然后被热炒。其实压根不那么回事,写写小说倒是个老题材。要防止这些事故就是软件上反病毒,硬件上多加点保护的,防防bug而已,没那么恐怖。

[ 本帖最后由 black_zerg 于 24-12-2008 23:47 编辑 ]
作者: 青山    时间: 24-12-2008 22:43
我觉得你把两个不同的问题混在一起了。

1,换脑,或者大脑拷贝,这个目前没有看到有接近可行的技术存在。这个并不是实现人工智能的必要条件。
2,人工智能,包括自学习,这个我觉得在不远的将来,我们有生之年可能会实现。

这两者是完全不同的两个问题,难度也差别巨大。

你说得把一些人工智能体放到一个地方,他们能自己适应环境。这个只需要
第二项技术。其实主要是自学习的能力。

另外,人工智能并不是对人类本身的完全的模仿。就像我们要跑得快造出汽车
而不是长腿的机器那样。在智能方面,人工智能也完全不需要重走生物进化的老路。
这个我们可以理解为后发优势。可以少走绝大多数的弯路。

以我目前对这个领域的了解,我觉得机器自学习并不是遥远的事情。并不完全依赖
于对人类智能本身的研究。人工智能可能超越人类智能,但是可能是另外一种智能。
不完全和人脑的运作方式相同。也不必要有人类的感受和情感。因为人类的感受和
情感本身就严重受自己的肉体的影响。

人类的进化路程,是一个自然选择的过程,而人工智能的产生是人为设计的结果。
自然界几十亿年也没进化出可以超音速飞行的生物,人类造了台机器就可以飞了。
在智力方面,也会有同样的状况出现,智力也没什么神秘的,200年后人们可能觉得
创造出第一个人工智能体的人跟发明飞机的人没什么区别。
作者: Linus    时间: 24-12-2008 22:44
原帖由 青山 于 24-12-2008 21:40 发表
说了半天邪恶,善良,其实我要说的是,新的人工智能体不论怎么做,都与道德无关,他们的道德不可能是人类的道德。他们不会专杀人类,但可能像我们不是专门杀牛一样。 他们怎么做,并不受人类的道德标准的影响。

...


先重申一下,我并没有从道德上去评价,更没有从善恶上去评价整件事情。我关心的只是真实的情况是否被夸大了?

另外,我不赞成我们应该去阻止任何的研究,不能阻止人们去探求真理。而且我们也无法阻止,就如所说的“无法阻挡”。

至于说风险,人们不会因研究一个技术而导致我们的毁灭,只会因为滥用一个技术而导致我们毁灭。

我们已经研究了核能,研究了病毒,研究了克隆,。。。。这些研究并没有导致我们灭亡。然而所有这些研究一旦被滥用都会导致我们的灭亡。

研究人工智能不会导致我们灭亡,当我们研究的这种“智能”成功了,真的出现了,我们要考虑如何不被滥用的时候才是风险评估最中要的时机。那要由当时人类的智慧来决定。

而现在,这种研究的成果都还没出现,就来想退路,其实也没有多少意义。
现在,这种研究甚至还没有进行到那一步,更

研究人工智能不会导致我们灭亡
作者: black_zerg    时间: 24-12-2008 22:57
提示: 作者被禁止或删除, 无法发言 我举的例子是说明人身本身智慧的复杂性,心理,动机,存在感等等。如果连人类智慧本身都没有弄明白,谈什么超越?
我的观点还是:从进化,抽象理论系统的掌握,文化艺术,情感欲望等一系列上,起码几千年内机器不能够做到比人类复杂和绚丽,这个几千年也就是我随便猜的。一百年内我认为是绝对不可能的。
如果你认为机器智能不一定要走人类这条路,那问题就变成你怎么看'超越‘,如果你认为机器算的快或者下棋厉害就算超越了那早超越了。

再说实在点,有个机器人坦克游戏,你可以写程序去打别人的坦克,也可以写点类似于学习的程序,根据别人的行动采取更有利的策略,看起来是学习,其实压根不是,不过是if else。我认为目前的所谓机器自学习恐怕也都属于判断,寻路搜索之类,比新生儿牙牙学语甚至也许比蚂蚁搬米粒那都差了太多太多。

[ 本帖最后由 black_zerg 于 25-12-2008 00:03 编辑 ]
作者: coredump    时间: 24-12-2008 23:12
---------------------------------------------------------------------------------------------------------------------------
插句无关的话:大家的讨论太精彩了,我忍不住要加精华了, 虽然我是LZ,虽然是个转帖

我就占各位这个便宜了
---------------------------------------------------------------------------------------------------------------------------

楼下请继续
作者: 青山    时间: 25-12-2008 00:02
我不但没有想过要阻止人们去探求,相反,我自己就在研究机器学习。正因为如此,我深刻地体会到这个发展方向不可阻挡。但是在研究的同时,我也在考虑未来的风险和解决的办法,这应该是负责任的研究工作者所必须的。尽管我不完全确定我的有生之年能否看到接近甚至超越人类智力的人工智能体的出现。风险即不应该被夸大,也不应该被忽视。

而且我觉得人工智能体和以往的发明不同,对于以往的发明,我们可以说危险来自于人类本身的滥用,但是人工智能体不同,通过一个特定的点之后,主动权可能就不掌握在我们手中了。就像某些国家的社会一样,如果统治者不自上而下地改变,被统治者就会自下而上的革命。这个道理对未来的人与人工智能体的关系同样适用。

我觉得给人类留下的准备时间已经不多了,人类太习惯于自己是绝对的最高级生物了。有可能在几代的时间内,人类就将面临要和一种更高智力的物种共处的情况。如何算更高我们不用争论,只要这个物种的智力足以跟人类对抗,就够了。

原帖由 Linus 于 24-12-2008 23:44 发表

先重申一下,我并没有从道德上去评价,更没有从善恶上去评价整件事情。我关心的只是真实的情况是否被夸大了?

另外,我不赞成我们应该去阻止任何的研究,不能阻止人们去探求真理。而且我们也无法阻止,就如所说的“无法阻挡”。

至于说风险,人们不会因研究一个技术而导致我们的毁灭,只会因为滥用一个技术而导致我们毁灭。

我们已经研究了核能,研究了病毒,研究了克隆,。。。。这些研究并没有导致我们灭亡。然而所有这些研究一旦被滥用都会导致我们的灭亡。

研究人工智能不会导致我们灭亡,当我们研究的这种“智能”成功了,真的出现了,我们要考虑如何不被滥用的时候才是风险评估最中要的时机。那要由当时人类的智慧来决定。

而现在,这种研究的成果都还没出现,就来想退路,其实也没有多少意义。
现在,这种研究甚至还没有进行到那一步,更

研究人工智能不会导致我们灭亡

作者: coredump    时间: 25-12-2008 00:07
标题: 回复 #64 青山 的帖子
说说看现在做机器学习方面的研究需要哪些知识基础, 我对这方面也比较感兴趣。在计算机专业本科能力加N年实际软件开发工作之上需要再补充哪些知识才能进入AI的research门槛。
作者: coredump    时间: 25-12-2008 00:24
标题: 遗传编程/GP
转个和本话题有关的wiki条目:遗传编程 Genetic programming

FROM:  http://zh.wikipedia.org/w/index.php?title=遗传编程
              http://en.wikipedia.org/wiki/Genetic_programming


遗传编程,或称基因编程/GP ,是一种从生物演化过程得到灵感的自动化生成和选择计算机程序来完成用户定义的任务的技术。从理论上讲,人类用遗传编程只需要告诉计算机"需要完成什么",而不用告诉它"如何去完成",最终可能实现真正意义上的人工智能:自动化的发明机器。
遗传编程是一种特殊的利用进化算法机器学习技术, 它开始于一群由随机生成的千百万个计算机程序组成的"人群",然后根据一个程序完成给定的任务的能力来确定某个程序的适合度,应用达尔文自然选择(适者生存)确定胜出的程序,计算机程序间也模拟两性组合,变异基因复制,基因删除等代代进化,直到达到预先确定的某个中止条件为止。
遗传编程的首批试验由斯蒂芬.史密斯 (1980)和Nichael .克拉姆 (1985)发表。约翰.Koza(1992)也写了一本著名的书,《遗传编程:用自然选择让计算机编程》,来介绍遗传编程。
使用遗传编程的计算机程序可以用很多种编程语言来写成。早期(或者说传统)的GP实现中,程序的指令和数据的值使用树状结构的组织方式,所以那些本来就提供树状组织形式的编程语言最适合与GP,例如Koza使用的Lisp语言。其他形式的GP也被提倡和实现,例如相对简单的适合传统编程语言(例如Fortran, BASIC, and C)的线性遗传编程。有商业化的GP软件把线性遗传编程和汇编语言结合来获得更好的性能,也有的实现方法直接生成汇编程序。
遗传编程所需的计算量非常之大(处理大量候选的计算机程序),以至于在90年代的时候它只能用来解决一些简单的问题。近年来,随着遗传编程技术自身的发展和中央处理器计算能力的指数级提升,GP开始产生了一大批显著的结果。例如在2004年左右,GP在多个领域取得近40项成果:量子计算,电子设计,游戏比赛,排序搜索等等。这些计算机自动生成的程序(算法)中有些与2000年后人工产生的发明十分类似,甚至有两项结果产生了可以申请专利的新发明。
在90年代,人们普遍认为为遗传编程发展一个理论十分困难,GP在各种搜索技术中也处于劣势。2000年后,GP的理论取得重大发展,建立确切的GP概率模型和 马尔可夫链模型已成为可能。遗传编程比遗传算法适用的范围更广(实际上包含了遗传算法)
除了生成计算机程序,遗传编程也被用与产生可发展的硬件
Juergen Schmidhuber进一步提出了宏遗传编程,一种使用遗传编程来生成一个遗传编程系统的技术。一些评论认为宏遗传编程在理论上不可行,但是需要更多的研究在确认。

参考文献

作者: coredump    时间: 25-12-2008 00:33
标题: 遗传编程:蒙娜丽莎的进化
FROM:http://developers.solidot.org/article.pl?sid=08/12/09/1343232

用50个半透明多边形重画《蒙娜丽莎》对每个程序员都是一次挑战,Roger Alsing使用遗传编程方法轻松的完成了这一挑战(http://rogeralsing.com/2008/12/0 ... ution-of-mona-lisa/)。他的blog提供了一系列图像展示了蒙娜丽莎是如何在约一百万代后进化到一个比较满意的结果,从中你可体会到进化算法的强大。
作者: 青山    时间: 25-12-2008 00:44
我做研究根多数从本科,硕士那么上来的人也不太相同,我也是本科毕业做了很多年程序员。
他们主要是看了很多论文。我目前基本的路子是所有研究都是基于实验的。目前软件方面的research,
依靠实验的人很少,我个人认为这是个误区。很多人就靠看别人的论文,然后通过数学和逻辑理论推演,
做研究。这个对其他领域可能可以,但是在人工智能这边,我觉得不成。

我目前的方法是通过基础的语义网络,加上阅读理解人工标注的训练文集,建立一个基本的知识库。
然后试图通过阅读未经过人工标注的,比如互联网上随便的文章,来扩展这个知识库。当然,
这个方法也有其他人在做。我觉得我的优势在大量的实验。劣势在理论体系不够系统。

具体的当前的题目是Word Sense Disambiguation,就是多义词释疑。一个词一般都有多个意思。
要想真的理解文章,第一步就是确定每个词在上下文中的实际含义。然后再根据这些词义,建立知识
网络。

基础包括WordNet,SemCor,Senseval这些东西,网上可以查到。还有相关的论文。


原帖由 coredump 于 25-12-2008 01:07 发表
说说看现在做机器学习方面的研究需要哪些知识基础, 我对这方面也比较感兴趣。在计算机专业本科能力加N年实际软件开发工作之上需要再补充哪些知识才能进入AI的research门槛。

作者: someonehappy    时间: 25-12-2008 01:46
我也做了很多年程序员,最近一直在打算读个研究生,对ai也挺有兴趣。不过确实貌似research主要靠数学,写论文,不知道如果有机会真的做了,会不会不是我喜欢的。
作者: 青山    时间: 25-12-2008 08:54
确实,research主要是写论文。我现在通过实验的方法做研究,也是承受着我导师的不小的压力的。
这种方法并不被目前多数学院派的研究者所喜爱。不过压力归压力,我该怎么做还是怎么做。
我个人认为,AI这边的研究主要靠数学是不成的,必须有大量的实验做基础。


原帖由 someonehappy 于 25-12-2008 02:46 发表
我也做了很多年程序员,最近一直在打算读个研究生,对ai也挺有兴趣。不过确实貌似research主要靠数学,写论文,不知道如果有机会真的做了,会不会不是我喜欢的。

作者: black_zerg    时间: 25-12-2008 10:42
提示: 作者被禁止或删除, 无法发言 ai 这玩意没有几千年是成不了物种的,不用担心,而且他还得有动机,且掌握物理手段才能威胁人类吧。人类掌握一切科技和武装,真有那种事情,瞬间就把突变的这机器给崩了。有点可能的就是某个破国家的控制核弹的电脑出毛病中病毒,(被 黑客侵入可能性更大点),乱发核弹那是能炸死人。那也没办法阿,那就是出bug了,就是事故,和核子泄露一个本质。那种东西一般都会设计的好多重保险吧。概率太低了。

个人以为人工智能这个没有理论支持是很难突破的,上面的遗传编程我认为思路是正确的,但限于本身水平我也不知道他到底发展的如何了,就直觉来说感觉还要上千年才能造出个蚂蚁(具有所有的能力,繁殖,进化,群体协作,自主活动),而且我倾向于造出个实体蚂蚁到处跑,不然怎么学习自然环境呢。所以这需要很多科技,上千年都是个乐观的。

上帝本身就是个程序员,我们就是这么给造出来的,当年他老人家也是呕心沥血阿,不容易的。
作者: Linus    时间: 26-12-2008 07:41
看来还必须澄清一下:

1.首先对AI的研究表示极大的尊敬,这样的研究是对智能和意识之谜的探索的前沿阵地。从事这项研究的工作者都是探索真理的道路上的勇士!每一个人为此付出的心血和努力都值得全人类感激和骄傲的!

2.我说的“夸大”是指的对我们认识阶段的夸大,不是指的对风险的夸大(风险大小尚不得而知,如何知道是否夸大?)。-------在我们对一件事的认识还有如此之多的“未知”的时候,本着科学工作者的严谨,我们不应夸大为“已知”。在谈论超越“奇点”,谈论人类不过是一群运行复杂程序的机器人的时候,我们很可能下意识的忽略了很多未知的因素,把整件事情想的过于简单,把这些“未知”当成了“已知”。----------这就是夸大。

3.在我谈到人类“价值观”的概念的时候,不是想从人类和昆虫“谁更高尚”去道德比较,那样没有意义,正如前面所提到的,动物可能认为人是最卑劣的。---------这样比较没有任何意义。
----------应该比较的是行为,判断的复杂性!人类经常根据”价值观“做出”违反生物本能“的行为判断,对同一件事的判断和审视是非常多样性的。--------这种行为和判断复杂性正是更高级的智能导致的。
而一种”生物“,如果我们观察它,它始终只会从生物本能去做相对简单的反应和判断-----------是否可以认为它其实只具有相对”低级“的智能呢?-------------我说的”高级“和”低级“主要是从这里来评价的(而不是从道德来评价的)。

4.关于“凡是生物,都是自私,冷酷,残忍的”----------也是需要澄清一下的:
其实不是说一种生物要消灭我们,我们就骂它们“自私,冷酷,残忍!!!”-------不是这个意思!(那就又变成从人类道德上去评价了)

这个问题真正的包含的是:这种要消灭我们的新型“高智能”似乎看上去根本无法与我们进行“情感上的交流 ”。人和动物是不同的物种,却可以有“情感的交流”,不同动物之间甚至也可以有“情感的交流。我们对动物的怜爱也是这种情感交流产生的。如果能够和”它们“产生交流,为什么不能与它们协商而建立一种互不伤害,和平共存,互惠互利的关系呢?人类不也是这样协调了不同利益团体间的共存吗?不就是因为互相能够产生交流吗?

当然,我们可以托词说,我们这些生物在进化上都是”同源“的,所以我们可以产生情感的交流。而这种”新生物“根本不是由进化而产生的,跟我们有根本的不同!所以我们根本没有办法与他们有情感上有任何的交流!

可是不是说我们的人工智能能够做的自主学习吗?它们为什么就不能学习和人类交流呢?不是说在这些智能中加入情感并不难,加入情感只是”锦上添花“吗?象这样"小菜一蝶”的事情怎么就会导致了我们最后灭亡了呢?

回到一开始的观点,最有可能的解释还是:   我们从一开始就夸大了我们对整件事情的认识。把事情想的过于简单了。忽略了太多本应该考虑进去的因素。

要知道,这样违背科学严谨的夸大---------------才是对AI研究最大的不尊敬!

[ 本帖最后由 Linus 于 26-12-2008 08:47 编辑 ]
作者: 青山    时间: 26-12-2008 07:55
我觉得不尊敬完全谈不上。科学的进步就是建立在猜想之上的。任何对未来的判断都是基于概率的,都是有不确定性的,不然就成了现在而不是未来了。

我觉得楼上的大大地高估了人类本身“违反生物本能的行为判断”能力。人类在这方面的能力其实是很弱的。近几千年以来,杀死人类最多的,就是人类。同类之间的情感交流,都不能阻止相互的屠杀,何况截然不同的两种不同的生命形式?部分人类对其他生物的仅有的那一点同情心,也是建立在人类占有绝对的统治地位的基础上的。

我认为人工智能体和人类发生冲突的可能性很大,是基于他们在智力水平和人类相近的阶段,也拥有和人类接近的道德水平这个假设。

我认为如果他们的“道德水平”和我们人类接近,那么这种冲突几乎不可避免。
作者: Linus    时间: 26-12-2008 08:22
科学需要猜想,但猜想不是科学。

不需要去关注“违背本能”在人类历史上产生了什么影响,应该关注“违背本能”的出现对智能意味这什么?更复杂还是更简单?是更高级的阶段还是低级阶段?

如果这种“智能”出现了没有人可以认为“冲突一定可以避免”,而是说想通过分析灭亡和不灭亡这两种猜想来说明我们可能夸大了现阶段的认识,其结果可能是 -----------以我们现在所认识的这些因素,这种“智能”根本就还造不出来。只不过我们以为能造出来而已。他们都不出现,冲突如何产生??

[ 本帖最后由 Linus 于 26-12-2008 09:24 编辑 ]
作者: 青山    时间: 26-12-2008 09:15
猜想不是科学本身,但猜想引导科学,猜想是研究的重要组成部分。人类历史上的
众多科学进步,都启自猜想。很多有价值的猜想,也都建立在现有的研究之上。

在没有成为现实之前,任何可能都存在。我只是根据我的研究心得,做出我的推测。
可能我们造不出来,但我们也可能能造出来,风险就存在于这种可能之中。
那么在我们向着这种可能迈进的过程中,对风险的讨论和准备,也是正常和必要的。

我们的差别只是在于,对于这种前景产生的几率的判断不同。我倾向于相信在不远
的将来,我们就会面临这个问题,你倾向于相信几千年内都不会面临这个问题。

另外,这个帖子并不是讨论人类道德的。但是楼上有一个假设我觉得有点一厢情愿。
就是你说如果这些人工智能体智力超过人类,那么他们的“道德”水平也自然会
超过人类,以至于他们不会消灭人类。这个假设我觉得是没有根据的。我之所以提及
人类本身的道德,是为了说明即使他们和人类拥有近似的“道德”水平,他们仍然会
试图消灭人类。



原帖由 Linus 于 26-12-2008 09:22 发表
科学需要猜想,但猜想不是科学。

如果这种“智能”出现了没有人可以认为“冲突一定可以避免”,而是说想通过分析灭亡和不灭亡这两种猜想来说明我们可能夸大了现阶段的认识,其结果可能是 -----------以我们现在所认识的这些因素,这种“智能”根本就还造不出来。只不过我们以为能造出来而已。他们都不出现,冲突如何产生??

作者: Linus    时间: 26-12-2008 09:53
其实不是说智力比人类高,道德就比人类高。我没有这样推理。

充分的交流可以避免冲突。寻求双赢的解决途径。

而是说如果他们是我们造出来的高智力,而却连和我们交流的会有问题的话,我们却为什么要夸口说以现在的技术,让它们会思考,会独立学习,加入感情也根本不成问题呢?-------- 这不是夸大是什么呢??

问题的始终并没有涉及道德。
作者: Linus    时间: 26-12-2008 10:14
不是不能猜想,世界在下一秒毁灭的概率也是有的,不过不能吧“已知”和“未知”混淆起来。这是不严谨的态度。
作者: 青山    时间: 26-12-2008 11:18
双赢并不是自然界中最普遍存在的现象。尤其在不同的物种之间。更多的是竞争和资源,空间的争夺。

会思考,会独立学习,这些都是具体的技术课题。能否实现这些技术课题和能否把人工智能体的道德
与交流提高到比人类现有的水平还高的程度,没有直接关系。至于情感,前边说的不过是模拟人类的情感,
这个是另外的问题。这些情感并不能真正左右人工智能体的决定。

我不明白这跟夸口有什么关系。从技术角度来说,我认为实现人工智能体会思考,会独立学习并不遥远。
但是让人工智能体出于本身的利益,而不是某些人为设定的限制,而乐于跟人类双赢,这是完全另外一个问题。
可能永远也不可能实现。

难道制造出的人工智能体,只要不愿意跟人类双赢,我们就不承认他们会思考,会独立学习?

“因为人工智能体出于本意未必会和人类追求双赢,所以我们就造不出能够独立思考和学习的人工智能体。”
楼上这个判断的逻辑在哪里?





原帖由 Linus 于 26-12-2008 10:53 发表
其实不是说智力比人类高,道德就比人类高。我没有这样推理。

充分的交流可以避免冲突。寻求双赢的解决途径。

而是说如果他们是我们造出来的高智力,而却连和我们交流的会有问题的话,我们却为什么要夸口说以现在的技术,让它们会思考,会独立学习,加入感情也根本不成问题呢?-------- 这不是夸大是什么呢??

问题的始终并没有涉及道德。

作者: Linus    时间: 27-12-2008 10:36
不知道是不是表达的还不够清楚。

逻辑是:对于智能和意识,我们知道的其实没有我们认为的那么多(我们的认识被夸大了),所以现阶段我们的认识,知识,其实很可能造不出我们所期望的那种“智能”。

这就如同人们曾经认为通过“炼金术”可以炼出金子一样,那时的人的认识阶段其实还很初级。现在我们知道了,要炼出“金子”其实哪里是把各种物质熔在一起,产生物理化学反应那么简单??

我们现在的阶段就很相似,甚至还不如一些,古人至少知道什么是金子,当炼出来一个东西他们可以有办法去鉴定那东西是不是金子。而我们要造出智能,造出独立意识,我们甚至都没有办法去鉴别我们造出来的究竟是不是我们说的那种智能,还是不过是一个“四不像的模仿品”??

至于认为双赢不是自然界的普遍现象---------那怎么解释多物种的共存?按照这种观点,自然界应该是只存在一个最强的物种而已,因为它消灭了所有比自己弱的物种?

不过走的有些远了,我们分析讨论这么多假设,甚至扯到双赢这样的问题上来,其实只是想说明我们对于整件事的认识还远远不够。缺失的信息还很多。

一开始我们认为一种有智能,独立意志,能学习,有感情的“可教之才”的新生物就要降生了!------------可是仔细分析了各种可能性以后发现他们其实这个也不能,那个也不能,这个也是模拟,那个也是模拟,甚至于能否与之交流都还两说着呢,究竟是不是一种“四不像的模仿品”?。。。。。。这其实已经很能说明我们的认识阶段还很初级。

不过我很赞成“模拟情感”这样的概念,其实AI从一开始就是在模拟人类,我们现在也其实是在复杂的通过程序“模拟人类思维”,“模拟人类行为”,“模拟人类自主学习的行为”,“模拟人类感情”。。。。。。。

在加上一个“模拟”以后,夸大的成分就完全没有了。
比如“模拟感情”其实就说我们现阶段还虽然很难界定怎样是“有感情”,怎样是“没感情”,现阶段也还不清楚感情是怎样产生的,不清楚其产生的全部机理---------------但是我们可以用程序模拟出“有感情”的状况,就像现在流行的“电子宠物一样”。虽然暂时还炼不出金子,做个模仿品还是容易实现的。

总之一句话,如果我们说不久的将来,会有一种具有模拟思维,模拟学习能力,模拟独立思考能力,具有模拟情感的“模拟智能新生物”会出现的话,就毫无夸大,非常严谨,非常赞同。但是要说有一种“新智能生物”出现,其实是跨越了很多难以鉴定的因素,是一厢情愿的夸大。
作者: 青山    时间: 27-12-2008 16:05
学习能力和独立思考的能力,谈不上模拟。这些如果能做出来,就是真正的。
之所以说情感是模拟,原因在于情感是建立在人体这种生物体之上的。受人的
各种激素水平的控制。所以要想把机器人做得和人类似,就只能模拟。

事实上,感情这个问题并不是我提出来的。我说的人工智能体,就是能够独立思考
和学习。有这两天就够了。我们为什么非要要求他们有跟人类相似的感情?

我认为能够独立思考和学习的人工智能体,在不远的将来甚至是我们有生之年就会
出现。不要扯上感情和道德。这些都跟我的命题无关。我也判断不了。感情和道德
并不是判断人工智能奇点的必要条件。因为一旦人工智能体有了自主思考和学习的
能力。不管你说它是什么,都不得不重视它,因为它开始不完全受人类的控制了。
作者: woodheadz    时间: 20-4-2009 11:45
原帖由 青山 于 20-12-2008 12:02 发表
我现在就在研究自然语言理解。你说的基本上路子是对的。通过建立一个模型,赋予计算机自学习的能力,构建其语言处理能力。
我觉得离实质性突破,并不遥远。就算我这几年搞不出来,其他人也能在不远的将来搞出来。
...



我想要做一个能够自动分析一段文字的内容所属类别的程序,青山兄能否指点下相关的理论/开源算法呢? 一些入门的提示就可以了。THX!
作者: 清风不写字    时间: 20-4-2009 12:15
如果机器人变得跟人类一样狡猾,贪婪的时候,还有人类生存的空间么?
作者: 青山    时间: 20-4-2009 12:51
基于真正理解的文本分类,现在还没有。有了奇点就跨过了。
现在的大多数都是基于统计学的分类方法。

比较简单的。就是把已经人工分类的文章按类别分开。
新来一篇待分类的文章,统计每个词在不同分类文章中出现
的次数。说实话,我觉得这方法误差还是蛮大的,不过目前
大多数都是基于这种统计学方法的分类方法。

别说多个类别分类,就是二选一,都是大问题。比如垃圾邮
件识别,就是这种分类问题的最简单应用。但是即便如此,
误判仍然是相当多的。所以我觉得,这种简单的统计学方法,
基本上是走进了死胡同。

原帖由 woodheadz 于 20-4-2009 11:45 发表



我想要做一个能够自动分析一段文字的内容所属类别的程序,青山兄能否指点下相关的理论/开源算法呢? 一些入门的提示就可以了。THX!

作者: dover    时间: 20-4-2009 12:59
AI这一块含义很广,但实质上的东西却很相近。AI现在说得最多的可能是机器学习,它是很多应用的基础,比如data mining, pattern recognition,语义分析也是机器学习的范畴。机器学习的核心是分类。具体地说分类又可分成supervised和unsupervised等。再具体就是很多模型,像HMM, SVM, neural Network等等非常多。大家不要把AI认为是让电脑和人一样聪明或思考,现阶段AI本质是对训练样本进行归纳总结,得到一个分类函数或所说的分类器。它和所谓的独立思考是两回事。如果有一天机器能理解自然语言,那将会是一个伟大的成就,但也只能说电脑可以提炼出句子结构像主,谓,宾语等,并能将它们与训练样本中的意义做匹配。那也不是思维。不要被一些科普的噱头吓住,有一点是现在的计算机是可控的,只有模糊概念才会产生不可控情况,而现在的电脑从根本上不识别模糊概念,所以代替人类的思维很难,除非有全新结构的计算机产生。

[ 本帖最后由 dover 于 20-4-2009 13:09 编辑 ]
作者: 青山    时间: 20-4-2009 13:09
我觉得最终基于人工智能的文明可能彻底替代人类目前基于动物体的文明。
差别只在于,过度是平稳的,渐变的,传承的,还是血腥的,革命式的。

如果是后者,可能是灾难性的。而且机器文明本身在尚未成熟之前,如果就
消灭了人类文明,那么它们自身也很容易崩溃。

原帖由 清风不写字 于 20-4-2009 12:15 发表
如果机器人变得跟人类一样狡猾,贪婪的时候,还有人类生存的空间么?

作者: 青山    时间: 20-4-2009 13:14
你对AI现状的了解基本上差不多。不过我不赞同你的结论。

模糊识别并不是一定要新的结构的计算机才可以实现的。
我认为模糊识别本身,就是一种通过算法可实现的东西。

另外,通过模糊识别和训练样本中的要素做匹配,我认
为就是真正的思维。事实上,人的思维就是这么进行的。
只不过人因为有感官,所以训练样本很大而已。

原帖由 dover 于 20-4-2009 12:59 发表
AI这一块含义很广,但实质上的东西却很相近。AI现在说得最多的可能是机器学习,它是很多应用的基础,比如data mining, pattern recognition,语义分析也是机器学习的范畴。机器学习的核心是分类。具体地说分类又可分成supervised和unsupervised等。再具体就是很多模型,像HMM, SVM, neural Network等等非常多。大家不要把AI认为是让电脑和人一样聪明或思考,现阶段AI本质是对训练样本进行归纳总结,得到一个分类函数或所说的分类器。它和所谓的独立思考是两回事。如果有一天机器能理解自然语言,那将会是一个伟大的成就,但也只能说电脑可以提炼出句子结构像主,谓,宾语等,并能将它们与训练样本中的意义做匹配。那也不是思维。不要被一些科普的噱头吓住,有一点是现在的计算机是可控的,只有模糊概念才会产生不可控情况,而现在的电脑从根本上不识别模糊概念,所以代替人类的思维很难,除非有全新结构的计算机产生。

作者: 清风不写字    时间: 20-4-2009 13:22
这种研究即使成功了,不可避免的要被先应用于军事领域,估计每个国家都想掌握这种能力吧,制造比星战里面的机器人更聪明的军团。
最终搞的就像核武器一样,难道最后再来个 《人工智能不扩散条约》?

反正人类就是爱折腾,最后肯定也是自己把自己玩死。
作者: decisiontree    时间: 20-4-2009 14:00
标题: 回复 #83 青山 的帖子
基本同意。补充一点,同一篇文章可以有几个类别,然而如何划分/定义类别是比较主观的(不同人有不同的标准)。同理在最后分类的时候最好是给出一串概率,代表一篇文章在各类的可能性。应该用NAIVE BAYES就可以求出来。
作者: decisiontree    时间: 20-4-2009 14:09
原帖由 清风不写字 于 20-4-2009 13:22 发表
这种研究即使成功了,不可避免的要被先应用于军事领域,估计每个国家都想掌握这种能力吧,制造比星战里面的机器人更聪明的军团。
最终搞的就像核武器一样,难道最后再来个 《人工智能不扩散条约》?

反正人类就是 ...


我们主观上不想把自己玩死,但不可否认的是随着科技水平的提高我们在下一秒被毁灭的概率越来越大了。克隆,核武,AI。随意一个擦枪走火造成的影响是冷兵器和常规武器时代难以想象的。
作者: Ray和Wendy    时间: 20-4-2009 14:22
刚看到这个帖子,匆忙读了一遍都让我很有启发。
谈谈自己对这一方面的感觉(不成熟,所以称不上观点):
1,意识、道德、智慧、学习等等概念,目前还很不统一,尤其是在较为精确的语境下讨论时。很难下一个明确的定义----什么是学习?什么是道德?什么是智能?
   例如一个10岁小孩可以宣称:我知道什么是动物,我最早认识的动物是蚂蚁。但一个生物学博士可能会说:动物的概念除少数物种外,可以被明确地区分。而一个顶尖领域的专家则可能说:从某种意义上讲,植物和动物其实是一回事。
   比如一些天文理论中就有这样的概念:我们看到的整个宇宙都是一个黑洞,现在我们就在黑洞内部。
   在这些概念明确之前,AI这张会计报表的期初数都在不断变动,是万万平不了的。
2,图灵测试和人工智能的关系
   测试始终和实际是有差距的,只是判断的方法。通过了测试也不代表就有智能了,没通过测试也不代表没有智能。
   可能某位测试人员智力比较低,或者知识面稍窄,或者先入为主的思维方式较为严重。三句话一说就产生一个初步判断了,那么这个测试结果就可能会有问题。
   换句话说:高分低能的情况也许不仅在中国高考制度中存在,图灵测试中可能更严重!
   那么怎么才能真正确定有没有人工智能呢?我也不知道,因为我连什么是智能都不知道。
作者: 青山    时间: 20-4-2009 15:01
图灵测试确实有严重的缺陷。目前得奖的,基本上都是伪智能。
基本上都是以误导为主要手段的系统。
作者: 青山    时间: 20-4-2009 15:05
这东西,貌似不以人的意志为转移。如果很快能搞出真正的人工智能,我相信很多科学家即使冒着掉脑袋的风险也会去搞的。
禁止是禁止不了的。

原帖由 清风不写字 于 20-4-2009 13:22 发表
这种研究即使成功了,不可避免的要被先应用于军事领域,估计每个国家都想掌握这种能力吧,制造比星战里面的机器人更聪明的军团。
最终搞的就像核武器一样,难道最后再来个 《人工智能不扩散条约》?

反正人类就是 ...

作者: 清风不写字    时间: 20-4-2009 15:10
原帖由 青山 于 20-4-2009 15:05 发表
这东西,貌似不以人的意志为转移。如果很快能搞出真正的人工智能,我相信很多科学家即使冒着掉脑袋的风险也会去搞的。
禁止是禁止不了的。



是啊,这种事情是阻止不了的。所以说我的看法是比较悲观的。
不过任何事物总有发展灭亡的这个过程,人类文明也一样,任何事物也逃不掉这个结果!
作者: key    时间: 7-5-2009 23:35
原帖由 black_zerg 于 24-12-2008 22:57 发表
我举的例子是说明人身本身智慧的复杂性,心理,动机,存在感等等。如果连人类智慧本身都没有弄明白,谈什么超越?
我的观点还是:从进化,抽象理论系统的掌握,文化艺术,情感欲望等一系列上,起码几千年内机器不能 ...


其实要说“人工智能”超势“人”的智能,那就早已经超越了。。。随便找台电子计算器就算得比人快……
机器有机器的特点,人有人的特点,个人觉得完全没有必要去考虑谁超越谁。

就图灵机的定义来看,这种AI永远都只会是机器。

倒是“生物机器人”这个方向多少会有点危险。
作者: 青山    时间: 7-5-2009 23:47
心理,动机,存在感等等,这些都不是最难的。人工智能体的心理,动机,存在感跟人肯定不同,但是同类的活动并不难理解。

我目前研究的过程中就有一个猜想——存在感来源于一个被顺序激活的神经元组成的环路。就是一个群神经元,互相有因果关系,然后逐一被激活,重复地被激活。说白了,存在感来源于神经元的一个运动状态。你睡着了,这个环路不存在了,你也就失去存在感了。你苏醒的过程,就是重建这个环路的过程。

动机就更容易解释了。比如你的笔记本电脑电池快没电了,如果它是个机器人,就会去找地方充电。这就是动机。
作者: ubuntuhk    时间: 7-5-2009 23:53
标题: 回复 #95 青山 的帖子
你这说得太玄了,等你建立这个玄学理论,还得发展一套相应的神经元计算机系统,否则现在的01计算机系统应该没法实现
作者: key    时间: 8-5-2009 00:00
原帖由 青山 于 7-5-2009 23:47 发表
心心理,动机,存在感等等,这些都不是最难的。人工智能体的心理,动机,存在感跟人肯定不同,但是同类的活动并不难理解。

我目前研究的过程中就有一个猜想——存在感来源于一个被顺序激活的神经元组成的环路。就是一个群神经元,互相有因果关系,然后逐一被激活,重复地被激活。说白了,存在感来源于神经元的一个运动状态。你睡着了,这个环路不存在了,你也就失去存在感了。你苏醒的过程,就是重建这个环路的过程。

动机就更容易解释了。比如你的笔记本电脑电池快没电了,如果它是个机器人,就会去找地方充电。这就是动机。



其实你说的这些还是离不开if/else判断,即使应用了一些高级的数学模型。我不知道你所说的“神经元”是否指人工神经网络中的神经元,
还是广义的通过人工智能运算建立的神经单位。如果你说的是人工神经网络科学中的神经元,到最后还是数学运算、条件判断、反馈运算等东西,
可能加入一些伪随机数,以增加不确定性和多态选择吧。这些东西,无论怎样说,都只是运算,而不是真的“智能”。只是利用了现代计算机,
或未来计算机高速运算能力来模拟一些和人相似的操作。

人类思绪的独立性和原生性,我觉得图灵机的发展方向永远都不会达到。
作者: key    时间: 8-5-2009 00:19
原帖由 coredump 于 25-12-2008 00:07 发表
说说看现在做机器学习方面的研究需要哪些知识基础, 我对这方面也比较感兴趣。在计算机专业本科能力加N年实际软件开发工作之上需要再补充哪些知识才能进入AI的research门槛。


ML(Machine Learning)目前比较热。但如果你在数学上,尤其是在统计学上没有特别的兴趣和优势,
想在这方面出成绩,看来不容易。

现在的ML算法,很大程度上建立在统计学习理论上,这方面也是比较成熟的方向。

也有采用其他方法来实现,比如人工神经网络的应用,但无论怎样弄,数学是最基础。
作者: key    时间: 8-5-2009 00:24
原帖由 coredump 于 25-12-2008 00:24 发表
转个和本话题有关的wiki条目:遗传编程 Genetic programming

FROM:  http://zh.wikipedia.org/w/index.php?title=遗传编程
              http://en.wikipedia.org/wiki/Genetic_programming


遗传编程,或称 ...


不要被遗传两个字编了,遗传计算在AI中不是什么高深的学问,采用优胜劣汰,加入随便选择,从而建立一个模拟生物进化过程的一种
计算科学理论而已。最简单的遗传算法估计你只需要30分钟就写出来了。
作者: key    时间: 8-5-2009 00:35
原帖由 青山 于 25-12-2008 08:54 发表
确实,research主要是写论文。我现在通过实验的方法做研究,也是承受着我导师的不小的压力的。
这种方法并不被目前多数学院派的研究者所喜爱。不过压力归压力,我该怎么做还是怎么做。
我个人认为,AI这边的研究主 ...


我的看法和你正好相反。我觉得机器学习就是一门数学应用。
现在可以找到的最成功的机器学习算法,什么贝叶斯分类器、SVM、BP神经网络,遗传算法等,
无一不是建立在数学基本上。




欢迎光临 FreeOZ论坛 (https://www.freeoz.org/ibbs/) Powered by Discuz! X3.2