找回密码
 FreeOZ用户注册
查看: 41914|回复: 370
打印 上一主题 下一主题

[业界新闻] 人工大脑之父放言:50年后机器人威胁人类(请热爱AI的同学们关注本帖的后续精彩讨论)

[复制链接]
1#
发表于 30-6-2009 02:02:08 | 显示全部楼层
殊途同归,我现在在和他做类似的事,只是道路不同,好像他跟我前一段的预言时间也差不多啊,同样认为几十年内就可能有超越人类智能的人工智能出现。不过我还是抱着侥幸心理,让机器人替代人类的过程最好通过渐进,平和的方式进行,或者通过人和人工智能相融合的方式。

按他的分类,我貌似也属于宇宙主义者,相信人工智能是地球文明的更高级发展阶段。虽然我也乐于接受控制论者的方式,把人和人工智能融合成一体。完全的抗拒人工智能是不可能的,我完全理解他所说的,作为一个科学家,你不可能停止对更高水平的人工智能的探索。
回复  

使用道具 举报

2#
发表于 30-6-2009 09:48:01 | 显示全部楼层
其实人类应该把人工智能体,视作自己的孩子,后代。
人都会死的,你不会因为你的孩子超越你而感到痛苦。

我觉得可以考虑一种模式,当一个人死去的时候,就把
这个人的思想传递给一个人工智能体,这样人们会认为
自己得到了永生。而不那么抗拒与人工智能体融合。

评分

参与人数 2威望 +35 收起 理由
ynggnptwlv + 15 我想起我的高考作文了,假如记忆可以移植
y12345678 + 20 太厉害了,我从来没想到过还可以这样。。。 ...

查看全部评分

回复  

使用道具 举报

3#
发表于 30-6-2009 12:42:42 | 显示全部楼层
其实如果把机器人当作人类的继承者和后代,就不会那么郁闷了。
事实上,人工智能确实是人类的后继者。

机器人不会有人类的劣根性,但是会有新的劣根性。说白了,
还是物质存在决定行为方式。

比如人类喜欢蓝天白云,绿树红花。机器人可能更喜欢大沙漠。
或者干脆把地球表面变成金属或者混凝土外壳,因为那里阳光充足,
能量容易取得。机器人可能不喜欢水。当然,也可能由于科技更加
先进,机器人并不是我们现在想像的金属材质,而是新的材料构成。


原帖由 stellahie 于 30-6-2009 11:35 发表
我可不想有那个现代秦始皇,希特勒把他们的思想传递,复制下来。然后加上机器人的能力。可怕。

我也不追求永生。

不介意如果机器人可以比人类做得更好(对地球宇宙来说),让它们来主宰这个世界。

可能吗?机器人会不会也有人类的劣根性?
回复  

使用道具 举报

4#
发表于 30-6-2009 12:45:27 | 显示全部楼层
这里的关键不在于一个一个有形的机器人,而在于背后的人工智能。
人工智能可能并不以有形的机器人的形式存在,可能以网络上的数据
的形式存在,可能整个地球被单一的一个人工智能体所控制,而不是
我们想象的,被一群跟人长得差不多的像终结者那样的机器人所控制。

其实我认为最危险的,是把人工智能用于战争。这可能会产生最坏的
情况,就是当人工智能还不够完善,只会杀戮,不能自我发展和完善
之前,就把人类消灭掉,那就真是地球文明的终结。
回复  

使用道具 举报

5#
发表于 30-6-2009 13:27:42 | 显示全部楼层
人类探索未知领域的动力是非常强劲的。你可以称之为求知欲。或者来自于生物本能的扩张欲望。
另一方面,如果你能制造出一个比你生的孩子聪明10000倍的“神”,你会放弃么?

人类不要指望完全控制这种人工智能,那只能导致错误的判断。而这种错误的判断,可能使人类
到人工智能文明的过渡,从平和渐变的,变成暴力血腥的。我认为最好的途径,是让人类文明
成为这种新的更高级文明的历史的一部分。就像我们对待我们的祖先那样。让人工智能体认为
自己和人类是父子相传的关系,而不是对立的两个种族。

当他们的智力达到和超过人类的时候,给与他们与人一样的权利和尊重,就像你对待你已经成年
的孩子那样,把他们当作人类的一部分和未来。

原帖由 stellahie 于 30-6-2009 11:56 发表
没有郁闷。我是什么主义者?这点倒还没一个特定的立场。

我只是在想,科学家们到底是抱着什么样的心态去研究这种“人工智能传递”。纯粹对科学的探索热诚,制造机器人来辅助人类的活动,还是真的有人打算让机器人来取代人类?

人类那么有把握控制这种人工智能吗?

当然,如你说所的,机器人只是一种载负人工智能的物体,不一定长得像电影里得那样。

另外,你说的“干脆把地球表面变成金属或者混凝土外壳”,这个想法也很有趣。
回复  

使用道具 举报

6#
发表于 30-6-2009 13:35:22 | 显示全部楼层
如果这样,很可能会过早的毁灭人类,在人工智能真的可以自主地管理地球,发展文明之前。

我觉得真正应当反对的,不是人工智能的发展,而是人工智能在军事方面的应用。这个比核弹
更容易毁灭人类。

原帖由 清风不写字 于 30-6-2009 12:34 发表



我觉得很大可能性,这种新技术会被首先用于军事!
回复  

使用道具 举报

7#
发表于 30-6-2009 13:57:37 | 显示全部楼层
生物本身就有扩张的本能,因为从大尺度来说,生物需要面对其他生物的竞争,不扩张就会灭亡。
人类如果不能超越地球本身,早晚会被来自其他世界的其他生物征服或者消灭。闭关自守,从来
都不是可以自安的途径。

当然不受人类控制的人工智能更危险,但是试图去控制一个比人类聪明10000倍的智能体,根本
就是不可能的任务。只会带来不必要的仇恨和痛苦。

很多人不会对自己不了解的事物感到恐惧,更不会因为恐惧而停止探索。至少我知道我自己就是
这样的人。那些传教的人来问我,你有什么困惑么?我回答他们,我的困惑就是我没有困惑。




原帖由 stellahie 于 30-6-2009 12:39 发表
我之所以问心态的问题,是在思考这种求知欲的背面是什么?如你所说的扩张欲望,控制欲?

因为有能力有权利有意愿不计代价去发展这种人工智能的,可以想象到是那一类人。好像你所说的,把人工智能用于战争。其实,我觉得战争还是属于低级的手段。思想如果能被传递和复制,还怕控制不了全人类吗?

“人类不要指望完全控制这种人工智能”。- 我不知道一个被控制的,和一个不受控制的机器人比较起来,哪一个比较危险?

“另一方面,如果你能制造出一个比你生的孩子聪明10000倍的“神”,你会放弃么?” - 我会。因为我对无知的东西多少会感到恐惧犹豫。不过貌似我这种人是制造不出这种“神”的。
回复  

使用道具 举报

8#
发表于 30-6-2009 14:03:19 | 显示全部楼层
这个是没办法的,急着把人工智能军用,就相当于给你3岁的儿子一把ak47。
他可能打死所有人,最后自己饿死。能不能过这一关,就看人类的智慧和本性了。


原帖由 清风不写字 于 30-6-2009 12:58 发表


国家之间的利益争端没有一日停息过,如果那个国家掌握了这种技术,政府能管得住自己不用于军事?
看看核弹是怎么产生的。

科学家们其实非常容易被政治利用的。
回复  

使用道具 举报

9#
发表于 30-6-2009 14:38:47 | 显示全部楼层
坦率地说,我认为这种想法是错的。人类如果闭关自守,偏安于地球,早晚会被更先进的文明像碾死蚂蚁一样消灭掉。
作为生物,发展和扩张是不能停止的,不进则退,宇宙中并不只有地球上的人类一种文明。

对于我来说,人类与其被来自遥远星球的生物灭掉,不如自己发展出人工智能文明,继承人类的文明。

如果30年后我能够知道如何制造可以在宇宙中扩张的人工智能体,那么在若干光年之外的另一个星球上的生物也一样
会知道。人类不去做,不代表另一个星球上的那些八条腿,也许16条腿的科学家们也不去做。

原帖由 stellahie 于 30-6-2009 13:32 发表
我觉得人类无止境的扩张欲和探索欲也是很危险的。除非,人类能够控制自己的野心。一步一步来。懂得何时该走,何时该停。
回复  

使用道具 举报

10#
发表于 30-6-2009 17:21:14 | 显示全部楼层
说实话,我觉得这句话,有点想当然了。人类只不过突破了哺乳动物的局限性而已。
事实上,这些“融入自然”的哺乳动物,正在被人类灭绝。这是他们进化速度不够快
的必然结果。如果人类学它们“融入自然”,最终的结局就是像它们一样,被更快速
进化的生物灭绝,或者圈在少数保留地或者动物园中。

另外,人类之所以看似掠夺性的开采地球,实际上,是因为人类的舞台不仅仅在地球。
就像人类历史上的古代民族一样,并不因为某个民族和平好客,与自然和谐相处,就会
免于被征服和消灭。恰恰是那些外向型的民族,占有了庞大的资源,才可以延续千年。
古埃及,古罗马,古中国,无一不是靠扩张建立了庞大的帝国。近现代的英国,美国
也是一样。我们现在会去追悼那些不知名的,可能连历史都没有留下的“融入自然”
的小民族,小部落么?

和平只存在于互相无法摧毁对方的前提下,如果在智能上有根本性的差别,那么弱肉强
食的法则是生物间关系的主流。追求和平的前提,是确保自己不会被对方消灭,没有这
个前提,捆住自己的手脚不发展,就没有和平。

原帖由 liuhuey 于 30-6-2009 15:59 发表
任何一种哺乳动物都会本能的发展自然平衡
回复  

使用道具 举报

11#
发表于 30-6-2009 17:27:40 | 显示全部楼层
自然规律的客观性,就是生物的扩张和竞争。这是天经地义的。如果让我在扩张和灭亡之间选择,我肯定会选择扩张而不是灭亡。人类并没有违反自然规律,也不可能违反自然规律。人类的扩张就是自然规律。人类如果不扩张,选择自我灭亡,那么就会有其它生物代替人类的位置,把人类从食物链的顶端排挤下去,继续扩张。停止扩张才是违反自然规律的。

原帖由 liuhuey 于 30-6-2009 16:25 发表
所以说你思维的局限性,源自于害怕人类灭亡的恐惧。人类有识之士也大多如你,选择反抗而不是遵从自然规律的客观性。
回复  

使用道具 举报

12#
发表于 30-6-2009 17:41:13 | 显示全部楼层
任何发展都会有风险和代价。人类扩张未必会灭亡,不扩张必然灭亡。

地球不过是人类的摇篮,为了保护地球的环境而放弃发展,其实是舍本逐末。
何况谁知道500年以后,我们现在赖以生存的氧气和水,还是不是那时候的
人类或者人类的后继者所必需的呢?

我们现在考虑500年以后的环境问题,就像500年前的人类担心他们把猎物
都捕光了,现代人捕不到猎物,会饿死一样。

就象顶楼那本书里写的,即使我们知道未来会产生原子弹,是不是古人应
该保持刀耕火种,与野兽争食,停留在原始社会,而不发展物理学呢?

原帖由 stellahie 于 30-6-2009 16:35 发表
你有没有想过。如果人类不是那么急于扩张,也不会这么快灭亡?

不用等到外星人或者其他高等生物来侵占地球。人类大量的繁殖,无止境的控制竞争占有欲,就已经把自己住的地方高度污染了。
回复  

使用道具 举报

13#
发表于 30-6-2009 17:51:43 | 显示全部楼层
这可不是狡猾。强者生存,弱者灭绝。这很残酷,但是在物种之间,这是自然界的基本准则。
我们无法改变这种自然规律。人类始终在顺应这种自然规律。


原帖由 liuhuey 于 30-6-2009 16:48 发表


你很狡猾嘛,存在即是合理。因为人类本身即是自然的一部分,人类的发展规律就是自然规律的一部分,所以不可能违反自然规律么?

好吧,我们把“试图违反自然规律”也当作遵守自然规律的一种表现。
回复  

使用道具 举报

14#
发表于 30-6-2009 17:52:39 | 显示全部楼层
我个人的观点是,相对于技术进步来讲,现在面临的环境问题,比如整天被人提及的全球变暖,水紧缺的问题,其实都是微不足道的。随着逐渐加速的技术进步,未来100年人类生存状况的改变,会远远大于这些环境问题对人类的影响。

事实上,顶楼这本书提出的问题,才是人类真正的挑战。人类如何面对自己的后代文明。这一天已经不那么遥远了。很可能如他所说的,在两三代人的时间内到来。人类文明在未来几百年的改变,可能会远远超过过去几十万年的改变。而绝大多数人现在并没有认识到这一点。

原帖由 清风不写字 于 30-6-2009 16:50 发表
问题是现在都轮不到担心以后的环境问题,当前的环境问题已经对很多人造成严重影响了。
畸形的发展可能带来原本不愿意看到的后果。
回复  

使用道具 举报

15#
发表于 30-6-2009 18:04:41 | 显示全部楼层
我觉得有一点你理解的不对。食草动物并不是主动地去自我控制族群的数量,而是由于他们没有能力获得更多的资源,从而被迫的,因为饥饿而损失族群的数量。

人类与他们的差别,并不在于本性的不同,只在于人类能够获取的资源比他们多,可以利用的资源种类比他们多,如此而已。

人类由于拥有了智能,从而不断地突破自身的局限,获取越来越多的资源,扩张,发展。也许人类会灭亡,但是那样,
地球上还会产生新的智能物种,走一条新路,直到突破地球这个摇篮的局限。


原帖由 liuhuey 于 30-6-2009 17:00 发表
我说STOP!你说人性,为什么你不说动物性,不说植物性。食肉动物、食草动物,会根据食物多少自动控制族群一个平衡的数量。森林里的植物,也会根据阳光照射而呈现高低疏密的平衡。人类能这样做么?谁能够要求谁去牺牲?仅仅因为我们是人,所以我们可以比地球上其它生物多讲一个人性?
回复  

使用道具 举报

16#
发表于 30-6-2009 18:46:10 | 显示全部楼层
我看最可能的,是这两条之外的路,人在物理意义上灭亡,在精神层面被继承下去。

也许到了一个时代,人类不再生育后代,而已更有智慧的人工智能体替代。
当人类都去世以后,人工智能体文明就继承了人类的文明。

原帖由 liuhuey 于 30-6-2009 17:41 发表
人类要么完全彻底的灭亡,要么 物理意义上的生存+和哲学意义上的灭亡,就这两条路吧。
回复  

使用道具 举报

17#
发表于 30-6-2009 18:47:34 | 显示全部楼层
没有。不过我想我会有的。至少我是这么希望的。

原帖由 chinese 于 30-6-2009 17:34 发表
不好意思打断一下,青山,问个题外话,你有孩子吗?
回复  

使用道具 举报

18#
发表于 30-6-2009 19:01:26 | 显示全部楼层
这个也不是人类独有的,所有营社会生的动物都会,蚂蚁,蜜蜂,都在某种程度上有互助协作。
你没看狮子攻击水牛,其它水牛还过来帮忙赶走狮子呢。人类在这方面和他们没什么不同。
唯一的不同就是对资源的利用和占有。人类发展下去,未必就是悲剧性的,也可能是一个高级
文明刚刚开始酝酿。有很多不确定性,要看人类能否度过这个大关了。

原帖由 liuhuey 于 30-6-2009 17:55 发表
是我没说清楚。食草食肉动物被迫的减员,植物被迫的死亡,都是遵从客观规律作用的结果。

如果遵从客观规律,地震、海啸的时候,动物是逃跑还是去相互救援呢?饥荒的时候,动物是把食物给老弱病残还是给最强壮的呢?缺水的时候,植物是统一分配还是拼命吸收呢?

想骂我的同志请打住,我并不是说救援人员和志愿者的坏话。

我想说的是,人性的光辉,是人类存续于世的理由,同时也预言了人类悲剧性谢幕的必然性,因为这光辉是仅仅照耀在人类自身身上的。
回复  

使用道具 举报

19#
发表于 30-6-2009 19:25:34 | 显示全部楼层
这个现在不好说,没有事到临头,谁也不知道自己会如何选择。而且不同的人会有不同的选择。
在一个有你自己血脉,却资质平平的人类,和一个虽然不是生物意义上的人类,却拷贝了你几乎全部思想,
有着超越人类的智力的人工智能体之间,你选择哪一个,真的不好说。但是至少会有一部分人选择后者。

现在当没有选择的时候,还有很多人选择不要孩子呢,虽然我不属于他们之中的一员,但是我相信
当面临选择的时候,人们的决定会是多样的。

原帖由 liuhuey 于 30-6-2009 18:19 发表
没有你的血脉,而在你的抚养和教育下长大的孩子,你认可是自己的孩子吗?

甚至这个孩子都不是人类,是克隆人呢?又或者是阿童木?又或者是一条非常聪明、甚至能说话的狗呢?

所谓精神的继承,完全是将死之人的垂死挣扎。你看那些个主义、思想、路线、代表,不都是这样么!(版主别删我帖子哈 )

评分

参与人数 1威望 +5 收起 理由
stellahie + 5 对。就是多样性的。

查看全部评分

回复  

使用道具 举报

20#
发表于 30-6-2009 20:43:07 | 显示全部楼层
度过这个大关,要看人类如何看待这个问题。如果简单的把人工智能体当作其他种族,甚至像某些人说的那样,希望永远把他们当作奴隶来驱使,我估计就很难能够平稳过渡了。如果人类的爱心可以超越狭义的物种的限制,把新的,拥有更高智能的存在当作自己的后代和未来,也许可以平稳过渡,让他们继承人类的文明和历史。

另外还有就是一些很大的不确定性,比如人工智能的发展速度,早期人工智能的故障,人类是不是会在人工智能不成熟的阶段,过早地用于军事和暴力,这都不好说。总的来说,这个过程恐怕不会是很顺利的。不要说人工智能替代人类,同样是人类之间,特权阶层不仍然为了自己那点既得利益,而不顾越来越大的火药桶?

原帖由 stellahie 于 30-6-2009 19:02 发表


我不反对扩张与进步,只是要看这个权力放在谁的手里,谁来主导这个步伐。

就好像你所说的,有很多不确定性。但是这条路总归还是要走下去的。

来说说你所谓的“度过这个大关”,到底要有什么条件?

评分

参与人数 1威望 +2 收起 理由
stellahie + 2 我赞同“如果人类的爱心可以。。。“

查看全部评分

回复  

使用道具 举报

21#
发表于 30-6-2009 21:06:24 | 显示全部楼层
这个比喻不恰当,人类之于地球,顶多算是病毒,而显然不是癌细胞。
人类会通过某些途径,传播到其它星球,而不是死守地球。

原帖由 liuhuey 于 30-6-2009 20:00 发表
癌细胞也是人类的一部分,不是么?

人类的本性,在癌细胞身上体现的淋漓尽致。所以我在前面的帖子里说,人类必将被新的物种代替。

癌细胞也是一样

评分

参与人数 1威望 +8 收起 理由
liuhuey + 8 我推荐乘坐飞碟!

查看全部评分

回复  

使用道具 举报

22#
发表于 30-6-2009 21:24:48 | 显示全部楼层
我没说现在属于动物界的人类能够自由的太空旅行。
但是人工智能体可以相对容易得多的来做这个工作,作为人类的后继者,把人类文明传播到更远的星球。

这也是为什么我相信,也许人工智能体是一种生物文明发展到一定阶段的必然。因为只有他们,才可能
离开地球这个摇篮,成为真正的宇宙文明。

原帖由 liuhuey 于 30-6-2009 20:18 发表
如果说我是悲观的宿命论者,你就是乐观的机会主义者。

你一定相信在不远的将来,人类能够实现自由的太空航行,而且能够突破超光速飞行、和人体超低温冷冻保存并复原这两大技术难题!
回复  

使用道具 举报

23#
发表于 30-6-2009 21:39:44 | 显示全部楼层
说实话,如果我一个人的话,只要保留记忆,自我意识,其他的都不重要。

原帖由 liuhuey 于 30-6-2009 20:26 发表
单凭爱心,无法突破面对灭亡的恐惧。

还是一部分一部分的进化吧,比如先植入部分电子脑、电子眼。

给青山出个题,你觉得那些部位被替换了,心肝肺脑等,人就不是人,变成另外一个物种了?

保留所有的记忆、情感、自我意识信息,而躯干不复存在,人还是人么?
回复  

使用道具 举报

24#
发表于 30-6-2009 21:40:26 | 显示全部楼层
对我来讲,没什么本质不同。

原帖由 liuhuey 于 30-6-2009 20:28 发表


好家伙,你偷换概念!

刚才才说人类会扩张到其它星球,现在碰到技术难题了,就说由人类的后继者——也就是另一物种——把人类文明传播出去。

回复  

使用道具 举报

25#
发表于 30-6-2009 21:41:09 | 显示全部楼层
我还是那观点,不扩张,就灭亡。

原帖由 stellahie 于 30-6-2009 20:38 发表


青山,你要说清楚。我是因为你的那句“爱心”才支持你的。

你不要打着爱心的旗号,去侵略其他的星球。那跟癌细胞/病毒没什么两样。
回复  

使用道具 举报

26#
发表于 30-6-2009 21:42:20 | 显示全部楼层
我从没说过人工智能体要保持人类的躯体和精神。他们可以继承人类的历史和文明,但是肯定会发展出他们自己的文明。

原帖由 fredku 于 30-6-2009 20:28 发表
乱说!一相情愿! 人工智能凭什么要死守着人类的躯体和精神? 它们完全可以寻找甚至制造出更强悍的生物或者机械存在形态做寄主,完全就不需要人类了!
回复  

使用道具 举报

27#
发表于 30-6-2009 23:34:09 | 显示全部楼层
第一,人类文明,就是人类的历史和文化。人类作为动物体,局限性是非常大的。让人类肉体限制地球文明的长期发展,是没有意义的。

第二,猿人也不存在了,难道高度进化的人类对于猿人没有意义么?猿人虽然跟人类摄取同一种养分,但是现在人类的生活,却与猿人相去甚远。猿人肯定不喜欢我们钢筋水泥的城市。但这又有什么关系呢?

第三,人工智能文明可以继承全部的人类文明的历史和记忆,包括各种知识,这本身就是对人类文明的传承。人类文明之于继承的文明,就像尧舜禹汤之于现代中国人。虽然他们都已经不存在了,但是历史和精神遗产还在。

第四,人类该退出历史舞台的时候,就退出历史舞台,把这个舞台让给更高级的生命形式,就像我们死去,我们的孩子走向未来那样,没有什么不好。我所追求的,就是两点,和平过渡,还有历史的继承。其他的,就由继任文明自己去发展和书写了。

其实对于我来说,一个能够理解和继续我思想的人工智能体,比一个我亲生的却没有继承我文化思想的香蕉人,对我来说可能意义更大。
不用担心人工智能体不能理解人类,当他们智力高度发达的时候,理解人类的想法并不是难事,尤其当人类主动把思想导入他们的时候。


原帖由 chinese 于 30-6-2009 22:06 发表
青山,人类的文明是什么?如果人类不存在了,人类的文明传播的意义何在?靠人工智能来传播人类文明,就好像现在人根据壁画来判断远古文明一样,我们理解不了,就算理解了,对于现在的人类,又有什么意义呢?只是徒增感慨,原来曾经有这么一个$^%&^&^的文明存在过。那和这个文明从来就没有出现过,有何区别?
我赞成青山说的人类的侵略本性,但是我不赞同人工智能是人类的延续的看法,人类是要吃饭的,即使是类人猿,那也是摄取同一种养分,这是人类与其他物种的区别之一。人工智能摄取“养分”和人类的是一样的吗?如果不是,人工智能就绝对不是人类的延续,他们对于人类的文明连基本的理解都做不到,更别说尊重和传承。
所以,人工智能的发展,必然是对人类的侵略,即使你对它友好,它也不会对你友好,因为它要求它的生存空间,就如你所说,钢筋混凝土是它们的梦想家园,人类要求的大自然可能才是它们最欲毁之的。
回复  

使用道具 举报

28#
发表于 30-6-2009 23:37:34 | 显示全部楼层


原帖由 coredump 于 30-6-2009 21:01 发表
我就知道一发这个帖子,就会成为青山的布道场。
回复  

使用道具 举报

29#
发表于 1-7-2009 00:45:34 | 显示全部楼层
工具?你没明白当一个个体智力超过人类甚至大幅超过人类以后,你是不可能把他当作工具的。
这是一个量变到质变的过程。

原帖由 key 于 30-6-2009 23:23 发表
我们现在展望40年,400年后的人类科技,
相当于40年前,400年人的人来想象现在的科技。

40年前的电子管计算机与当前的互联网科技比较,的确能超乎人们的想象,
而400年前,牛顿的三大定律和微积分堪称天下第一,但和现在的物理学又根本不能比较。

然而,无论人类怎样发展,虽然我们的环境有一定的保坏;但人类科技发展始终能为人服务,
说穿了,就是工具的发展。

人工智能的发展已经很多年了。一个依靠FPGA做所谓的人工大脑实验的科学家,对于未来
科技的展望,没有必要引来未来新的智能物体的恐惧;也不能佐证人工智能就能飞越“工具”的范畴。
就目前而言,人工智能还只是一些高速运算单元对于逻辑化,或可逻辑化的命题进行快速运算,
这只是我们手上一个工具。别说制造一个象人这样独立思考还会灌水的机器暂时未有可能,
就算做一只有狗的智慧,能自己找地方吃喝拉撒的机器都暂时没有可能。

至于机器在某些方面比人类更有优势,这是必然的;数万年前我们的祖先拿起石头来做工具,
就是因为石头比我们的手掌、指甲更有优势。某一天我们,或我们的子孙有可能会入大脑植入一些
芯片,以帮助我们记忆、计算、搜索,这都只是一些工具。我们现在也有不少人做手术,往关节加入
支撑物件,这又有什么呢?至于所谓改造人,怎样怎样,同学,你现在开个汽车,相对于几百年前
骑马的人来说也是改造人啦。

至于科技是否会让人类互相XX;这个问题在几万年前,我们的祖先拿起石头来砸坚果的时候就可能
人要在考虑:把石头的边缘磨得锋利,那是多么危险的一件事呀。。。。

工具而已;更何况,这些工具远未达到让我们恐慌的地步。
回复  

使用道具 举报

30#
发表于 1-7-2009 01:46:46 | 显示全部楼层
自我意识的产生没什么神秘的,我现在就在思考这个问题,而且已经有些心得了,不过我需要用实验去证明。


原帖由 liuhuey 于 1-7-2009 00:17 发表


青山啊青山,量变到质变说得没错,但是你没把质变说出来啊。

这个质变就是自我意识的产生。

面对具有自我意识的个体,是给予它平等尊重的地位,还是采取暴力征服的手段,这是人类必须作出的选择。
回复  

使用道具 举报

您需要登录后才可以回帖 登录 | FreeOZ用户注册

本版积分规则

小黑屋|手机版|Archiver|FreeOZ论坛

GMT+11, 23-1-2025 11:09 , Processed in 0.068992 second(s), 46 queries , Gzip On, Redis On.

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表