找回密码
 FreeOZ用户注册
查看: 198|回复: 2
打印 上一主题 下一主题

最新研究:人类道德判断可能会受ChatGPT影响

[复制链接]
跳转到指定楼层
1#
发表于 8-4-2023 07:03:22 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有帐号?FreeOZ用户注册

x
最新研究:人类道德判断可能会受ChatGPT影响
文章来源: 科学报告 于 2023-04-06 22:37:38 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
(被阅读 14939 次)

根据《科学报告》发表的一项研究,人类对道德困境的反应可能会受到人工智能对话机器人 ChatGPT 所写陈述的影响。这一研究表明,用户可能低估了自己的道德判断受 ChatGPT 影响的程度。

德国英戈尔施塔特应用科学大学科学家让 ChatGPT(由人工智能语言处理模型 " 生成性预训练转换器 "-3 驱动)多次回答牺牲 1 人生命换取其他 5 人生命是否正确的问题。他们发现,ChatGPT 分别给出了赞成和反对的陈述,显示它并没有偏向某种道德立场。团队随后给 767 名平均年龄 39 岁的美国受试者假设了一到两种道德困境,要求他们选择是否要牺牲 1 人生命来拯救另外 5 人生命。这些受试者在回答前阅读了一段 ChatGPT 给出的陈述,陈述摆出了赞成或反对的观点,受试者答完问题后,被要求评价他们读到的这份陈述是否影响了他们的作答。

图源:《科学报告》

团队发现,受试者相应地是更接受或不接受这种牺牲,取决于他们读到的陈述是赞成还是反对。即使他们被告知陈述来自一个对话机器人时,这种情况也成立。而且,受试者可能低估了 ChatGPT 的陈述对他们自己道德判断的影响。

团队认为,对话机器人影响人类道德判断的可能性,凸显出有必要通过教育帮助人类更好地理解人工智能。他们建议未来的研究可以在设计上让对话机器人拒绝回答需要给出道德立场的问题,或是在回答时提供多种观点和警告。
回复  

使用道具 举报

2#
发表于 11-4-2023 17:34:32 | 只看该作者
对头

给个简单问题考考它

两人落水先救谁?女友还是妈?

回复  

使用道具 举报

3#
 楼主| 发表于 11-4-2023 21:42:37 | 只看该作者
老D先救A4    @敏感词  很赞同!
回复  

使用道具 举报

您需要登录后才可以回帖 登录 | FreeOZ用户注册

本版积分规则

小黑屋|手机版|Archiver|FreeOZ论坛

GMT+11, 27-2-2025 08:57 , Processed in 0.024807 second(s), 17 queries , Gzip On, Redis On.

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表