在灾难来临前,所有的人类将分为三派:宇宙主义者(主张发展人工智能的人)、地球主义者(反对发展人工智能的人)和人工智能控制论者(将自己改造成机器人的人).也许在人工大脑对付人类之前,这三类人会先展开人类内部的斗争.
原帖由 青山 于 30-6-2009 08:48 发表
其实人类应该把人工智能体,视作自己的孩子,后代。
人都会死的,你不会因为你的孩子超越你而感到痛苦。
我觉得可以考虑一种模式,当一个人死去的时候,就把
这个人的思想传递给一个人工智能体,这样人们会认为 ...
原帖由 青山 于 30-6-2009 08:48 发表
其实人类应该把人工智能体,视作自己的孩子,后代。
人都会死的,你不会因为你的孩子超越你而感到痛苦。
我觉得可以考虑一种模式,当一个人死去的时候,就把
这个人的思想传递给一个人工智能体,这样人们会认为 ...
原帖由 stellahie 于 30-6-2009 11:35 发表
我可不想有那个现代秦始皇,希特勒把他们的思想传递,复制下来。然后加上机器人的能力。可怕。
我也不追求永生。
不介意如果机器人可以比人类做得更好(对地球宇宙来说),让它们来主宰这个世界。
可能吗?机器人会不会也有人类的劣根性?
原帖由 青山 于 30-6-2009 11:42 发表
其实如果把机器人当作人类的继承者和后代,就不会那么郁闷了。
事实上,人工智能确实是人类的后继者。
机器人不会有人类的劣根性,但是会有新的劣根性。说白了,
还是物质存在决定行为方式。
比如人类喜欢蓝 ...
原帖由 stellahie 于 30-6-2009 11:56 发表
没有郁闷。我是什么主义者?这点倒还没一个特定的立场。
我只是在想,科学家们到底是抱着什么样的心态去研究这种“人工智能传递”。纯粹对科学的探索热诚,制造机器人来辅助人类的活动,还是真的有人打算让机器人来取代人类?
人类那么有把握控制这种人工智能吗?
当然,如你说所的,机器人只是一种载负人工智能的物体,不一定长得像电影里得那样。
另外,你说的“干脆把地球表面变成金属或者混凝土外壳”,这个想法也很有趣。
原帖由 青山 于 30-6-2009 11:45 发表
这里的关键不在于一个一个有形的机器人,而在于背后的人工智能。
人工智能可能并不以有形的机器人的形式存在,可能以网络上的数据
的形式存在,可能整个地球被单一的一个人工智能体所控制,而不是
我们想象的,被 ...
原帖由 青山 于 30-6-2009 12:27 发表
人类探索未知领域的动力是非常强劲的。你可以称之为求知欲。或者来自于生物本能的扩张欲望。
另一方面,如果你能制造出一个比你生的孩子聪明10000倍的“神”,你会放弃么?
人类不要指望完全控制这种人工智能,那 ...
原帖由 青山 于 30-6-2009 12:27 发表
我认为最好的途径,是让人类文明
成为这种新的更高级文明的历史的一部分。就像我们对待我们的祖先那样。让人工智能体认为
自己和人类是父子相传的关系,而不是对立的两个种族。
当他们的智力达到和超过人类的时候,给与他们与人一样的权利和尊重,就像你对待你已经成年
的孩子那样,把他们当作人类的一部分和未来。
原帖由 stellahie 于 30-6-2009 12:39 发表
我之所以问心态的问题,是在思考这种求知欲的背面是什么?如你所说的扩张欲望,控制欲?
因为有能力有权利有意愿不计代价去发展这种人工智能的,可以想象到是那一类人。好像你所说的,把人工智能用于战争。其实,我觉得战争还是属于低级的手段。思想如果能被传递和复制,还怕控制不了全人类吗?
“人类不要指望完全控制这种人工智能”。- 我不知道一个被控制的,和一个不受控制的机器人比较起来,哪一个比较危险?
“另一方面,如果你能制造出一个比你生的孩子聪明10000倍的“神”,你会放弃么?” - 我会。因为我对无知的东西多少会感到恐惧犹豫。不过貌似我这种人是制造不出这种“神”的。
原帖由 青山 于 30-6-2009 12:35 发表
如果这样,很可能会过早的毁灭人类,在人工智能真的可以自主地管理地球,发展文明之前。
我觉得真正应当反对的,不是人工智能的发展,而是人工智能在军事方面的应用。这个比核弹
更容易毁灭人类。
原帖由 清风不写字 于 30-6-2009 12:58 发表
国家之间的利益争端没有一日停息过,如果那个国家掌握了这种技术,政府能管得住自己不用于军事?
看看核弹是怎么产生的。
科学家们其实非常容易被政治利用的。
原帖由 青山 于 30-6-2009 12:57 发表
生物本身就有扩张的本能,因为从大尺度来说,生物需要面对其他生物的竞争,不扩张就会灭亡。
人类如果不能超越地球本身,早晚会被来自其他世界的其他生物征服或者消灭。闭关自守,从来
都不是可以自安的途径。
当然不受人类控制的人工智能更危险,但是试图去控制一个比人类聪明10000倍的智能体,根本
就是不可能的任务。只会带来不必要的仇恨和痛苦。
很多人不会对自己不了解的事物感到恐惧,更不会因为恐惧而停止探索。至少我知道我自己就是
这样的人。那些传教的人来问我,你有什么困惑么?我回答他们,我的困惑就是我没有困惑。
原帖由 stellahie 于 30-6-2009 16:35 发表
你有没有想过。如果人类不是那么急于扩张,也不会这么快灭亡?
不用等到外星人或者其他高等生物来侵占地球。人类大量的繁殖,无止境的控制竞争占有欲,就已经把自己住的地方高度污染了。
原帖由 青山 于 30-6-2009 14:27 发表
自然规律的客观性,就是生物的扩张和竞争。这是天经地义的。如果让我在扩张和灭亡之间选择,我肯定会选择扩张而不是灭亡。人类并没有违反自然规律,也不可能违反自然规律。人类的扩张就是自然规律。
原帖由 liuhuey 于 30-6-2009 16:48 发表
你很狡猾嘛,存在即是合理。因为人类本身即是自然的一部分,人类的发展规律就是自然规律的一部分,所以不可能违反自然规律么?
好吧,我们把“试图违反自然规律”也当作遵守自然规律的一种表现。
原帖由 liuhuey 于 30-6-2009 17:00 发表
我说STOP!你说人性,为什么你不说动物性,不说植物性。食肉动物、食草动物,会根据食物多少自动控制族群一个平衡的数量。森林里的植物,也会根据阳光照射而呈现高低疏密的平衡。人类能这样做么?谁能够要求谁去牺牲?仅仅因为我们是人,所以我们可以比地球上其它生物多讲一个人性?
原帖由 青山 于 30-6-2009 14:52 发表
我个人的观点是,相对于技术进步来讲,现在面临的环境问题,比如整天被人提及的全球变暖,水紧缺的问题,其实都是微不足道的。随着逐渐加速的技术进步,未来100年人类生存状况的改变,会远远大于这些环境问题对人类的影响。
事实上,顶楼这本书提出的问题,才是人类真正的挑战。人类如何面对自己的后代文明。这一天已经不那么遥远了。很可能如他所说的,在两三代人的时间内到来。人类文明在未来几百年的改变,可能会远远超过过去几十万年的改变。而绝大多数人现在并没有认识到这一点。
原帖由 liuhuey 于 30-6-2009 17:55 发表
是我没说清楚。食草食肉动物被迫的减员,植物被迫的死亡,都是遵从客观规律作用的结果。
如果遵从客观规律,地震、海啸的时候,动物是逃跑还是去相互救援呢?饥荒的时候,动物是把食物给老弱病残还是给最强壮的呢?缺水的时候,植物是统一分配还是拼命吸收呢?
想骂我的同志请打住,我并不是说救援人员和志愿者的坏话。
我想说的是,人性的光辉,是人类存续于世的理由,同时也预言了人类悲剧性谢幕的必然性,因为这光辉是仅仅照耀在人类自身身上的。
我看最可能的,是这两条之外的路,人在物理意义上灭亡,在精神层面被继承下去。
原帖由 liuhuey 于 30-6-2009 18:19 发表
没有你的血脉,而在你的抚养和教育下长大的孩子,你认可是自己的孩子吗?
甚至这个孩子都不是人类,是克隆人呢?又或者是阿童木?又或者是一条非常聪明、甚至能说话的狗呢?
所谓精神的继承,完全是将死之人的垂死挣扎。你看那些个主义、思想、路线、代表,不都是这样么!(版主别删我帖子哈 )
原帖由 stellahie 于 30-6-2009 19:02 发表
我不反对扩张与进步,只是要看这个权力放在谁的手里,谁来主导这个步伐。
就好像你所说的,有很多不确定性。但是这条路总归还是要走下去的。
来说说你所谓的“度过这个大关”,到底要有什么条件?
原帖由 liuhuey 于 30-6-2009 20:00 发表
癌细胞也是人类的一部分,不是么?
人类的本性,在癌细胞身上体现的淋漓尽致。所以我在前面的帖子里说,人类必将被新的物种代替。
癌细胞也是一样![]()
原帖由 liuhuey 于 30-6-2009 20:18 发表
如果说我是悲观的宿命论者,你就是乐观的机会主义者。
你一定相信在不远的将来,人类能够实现自由的太空航行,而且能够突破超光速飞行、和人体超低温冷冻保存并复原这两大技术难题!
原帖由 fredku 于 30-6-2009 20:28 发表
乱说!一相情愿! 人工智能凭什么要死守着人类的躯体和精神? 它们完全可以寻找甚至制造出更强悍的生物或者机械存在形态做寄主,完全就不需要人类了!
原帖由 liuhuey 于 30-6-2009 20:26 发表
单凭爱心,无法突破面对灭亡的恐惧。
还是一部分一部分的进化吧,比如先植入部分电子脑、电子眼。
给青山出个题,你觉得那些部位被替换了,心肝肺脑等,人就不是人,变成另外一个物种了?
保留所有的记忆、情感、自我意识信息,而躯干不复存在,人还是人么?
原帖由 fredku 于 30-6-2009 20:28 发表
乱说!一相情愿! 人工智能凭什么要死守着人类的躯体和精神? 它们完全可以寻找甚至制造出更强悍的生物或者机械存在形态做寄主,完全就不需要人类了!
原帖由 chinese 于 30-6-2009 22:06 发表
青山,人类的文明是什么?如果人类不存在了,人类的文明传播的意义何在?靠人工智能来传播人类文明,就好像现在人根据壁画来判断远古文明一样,我们理解不了,就算理解了,对于现在的人类,又有什么意义呢?只是徒增感慨,原来曾经有这么一个$^%&^&^的文明存在过。那和这个文明从来就没有出现过,有何区别?
我赞成青山说的人类的侵略本性,但是我不赞同人工智能是人类的延续的看法,人类是要吃饭的,即使是类人猿,那也是摄取同一种养分,这是人类与其他物种的区别之一。人工智能摄取“养分”和人类的是一样的吗?如果不是,人工智能就绝对不是人类的延续,他们对于人类的文明连基本的理解都做不到,更别说尊重和传承。
所以,人工智能的发展,必然是对人类的侵略,即使你对它友好,它也不会对你友好,因为它要求它的生存空间,就如你所说,钢筋混凝土是它们的梦想家园,人类要求的大自然可能才是它们最欲毁之的。
原帖由 key 于 30-6-2009 23:23 发表
我们现在展望40年,400年后的人类科技,
相当于40年前,400年人的人来想象现在的科技。
40年前的电子管计算机与当前的互联网科技比较,的确能超乎人们的想象,
而400年前,牛顿的三大定律和微积分堪称天下第一,但和现在的物理学又根本不能比较。
然而,无论人类怎样发展,虽然我们的环境有一定的保坏;但人类科技发展始终能为人服务,
说穿了,就是工具的发展。
人工智能的发展已经很多年了。一个依靠FPGA做所谓的人工大脑实验的科学家,对于未来
科技的展望,没有必要引来未来新的智能物体的恐惧;也不能佐证人工智能就能飞越“工具”的范畴。
就目前而言,人工智能还只是一些高速运算单元对于逻辑化,或可逻辑化的命题进行快速运算,
这只是我们手上一个工具。别说制造一个象人这样独立思考还会灌水的机器暂时未有可能,
就算做一只有狗的智慧,能自己找地方吃喝拉撒的机器都暂时没有可能。
至于机器在某些方面比人类更有优势,这是必然的;数万年前我们的祖先拿起石头来做工具,
就是因为石头比我们的手掌、指甲更有优势。某一天我们,或我们的子孙有可能会入大脑植入一些
芯片,以帮助我们记忆、计算、搜索,这都只是一些工具。我们现在也有不少人做手术,往关节加入
支撑物件,这又有什么呢?至于所谓改造人,怎样怎样,同学,你现在开个汽车,相对于几百年前
骑马的人来说也是改造人啦。
至于科技是否会让人类互相XX;这个问题在几万年前,我们的祖先拿起石头来砸坚果的时候就可能
人要在考虑:把石头的边缘磨得锋利,那是多么危险的一件事呀。。。。
工具而已;更何况,这些工具远未达到让我们恐慌的地步。
原帖由 coredump 于 29-6-2009 19:03 发表
雨果被称为“人工智能领域的霍金”,世界仅有的4个人工智能机器均出自雨果之手.人工智能机器并非电脑,雨果的工作是用“基因算法”设计神经网络,也就是“生产大脑”.他的“CBM”大脑制造机器可以在几秒钟内进化成一个神经网络,可以处理将近1亿个人工神经元.它的计算能力相当于一万台个人电脑.
问:有人说你是划时代的天才?
答:我不是天才,我是教授,我喜欢我的工作。我足够聪明来阅读天才的著作,我足够聪明来理解真正的天才用他们的思想来做什么,他们发明了什么。他们有完美的体系,天才创造出学科。全世界也许只有200个是天才。我不能如他们般创造出伟大的体系。
原帖由 key 于 30-6-2009 21:59 发表
人家吹下水而已,不必太当真。
你见过有死几十人的战争?
美国打Iraq,美方死的都不是几十人啦。
至于机器人是否威胁人类,把人字删去都行啦。
现代机器,从工业革命开始,就一直威胁着人类。这有什么奇怪呢?
至于近代的粒子技术,随便一小块就可以让你死一万次。我们难道还想着清兵手上那些冷兵器?
但我不认同“人工智能”变成“人的智能”,这不是一个简单的转变,
至少在我可以看到的未来,
这种转变都不会成为现实。
原帖由 liuhuey 于 1-7-2009 00:06 发表
机器人的觉醒也许还有时日,但是克隆人的出现也许就在明天。
我反对将它们视为工具。
这不是它们是否能让我们恐慌的问题,而是一种基本尊重,就如同西方人对狗的尊重一样。
原帖由 liuhuey 于 1-7-2009 00:17 发表
青山啊青山,量变到质变说得没错,但是你没把质变说出来啊。
这个质变就是自我意识的产生。
面对具有自我意识的个体,是给予它平等尊重的地位,还是采取暴力征服的手段,这是人类必须作出的选择。
原帖由 key 于 30-6-2009 22:14 发表
其实什么是克隆人呢?克隆人并不是说把人从实验室由一个个细胞制造出来,而是通过从非性细胞的培植,最后进入一个胚胎阶段而成人。
这不是一个计算科学的范畴,而是生物学的胚胎培植与生殖范畴。所以,用克隆技术来类比计算科学是不恰当的,没有可类比性。
至于克隆人引来的恐慌,是由于单个人的组织能最后形成下一代,使有性生殖系统,以及由此建立起来的一系列道德规范全部失效。
欢迎光临 FreeOZ论坛 (https://www.freeoz.org/bbs/) | Powered by Discuz! X3.2 |