找回密码
 FreeOZ用户注册
查看: 102|回复: 2
打印 上一主题 下一主题

将在2024年实现的3项恐怖的AI突破

[复制链接]
跳转到指定楼层
1#
发表于 3-1-2024 22:37:02 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有帐号?FreeOZ用户注册

x
将在2024年实现的3项恐怖的AI突破
www.creaders.net | 2024-01-02 15:58:00  煎蛋网 | 0条评论 | 查看/发表评论

  虽然2023年对于人工智能来说,是一个改变游戏规则的一年,但这只是开始,2024年将迎来一系列令人恐惧的突破,包括**通用人工智能**和甚至更加逼真的深度伪造技术。

  人工智能(AI)已经存在了几十年,但今年对于这项令人毛骨悚然的技术来说是一个突破性的时刻,OpenAI的ChatGPT为大众创造了实用、易用的AI。然而,人工智能的历史却充满了争议,今天的技术是由一系列失败的实验累积而来的。

  总的来说,人工智能的创新看起来有望提升诸如医学诊断和科学发现等领域。例如,一个人工智能模型可以通过分析X光扫描来检测你是否有高风险患肺癌。在新冠病毒流行期间,科学家们也构建了一个能够通过听人们咳嗽的微妙差别来诊断病毒的算法。AI也已被用于设计超越人类构思的量子物理实验。

  但并非所有的创新都那么善良。从致命的无人机到威胁人类未来的AI,以下是一些可能在2024年出现的最恐怖的AI突破。

  Q-Star:通用人工智能的时代?

  我们不清楚为何OpenAI的CEO Sam Altman在2023年底被解职并复职。但在OpenAI的企业混乱中,有谣言传出,有一种称为Q-Star (读作 Q星)的先进技术可能威胁到人类的未来。这个由OpenAI开发的系统可能是通用人工智能(AGI)这个引人注目的概念的具体体现,据路透社报道。关于这个神秘系统我们知之甚少,但如果报道属实,它可能将AI的能力提升到一个新的层级。

  通用人工智能是一个假设的转折点,也被称为"奇点",在这个点上,AI变得比人类更聪明。当前的AI在一些人类擅长的领域,如基于语境的推理和真正的创造力,仍然落后。大多数(如果不是所有的)AI生成的内容只是以某种方式重复训练数据。

  但是,研究人员称通用人工智能可能比大多数人更好地完成某些工作。 它也可能被武器化,用于创建增强型病原体,发起大规模的网络攻击,或者进行大规模的操纵。

  通用人工智能的想法长期以来一直被限制在科幻小说中,许多科学家认为我们永远不会达到这个点。如果OpenAI已经达到了这个转折点,那无疑会令人震惊-但也并非没有可能。我们知道,例如,Sam Altman在2023年2月就已经开始为通用人工智能做前期准备,他在博客文章中概述了OpenAI对通用人工智能的方法。我们也知道专家们开始预测即将发生的突破,包括英伟达的CEO Jensen Huang在11月份表示,通用人工智能在未来五年内将变得触手可及,这是巴伦报报道的。2024年会是通用人工智能的突破年吗?只有时间会告诉我们答案。

将在2024年实现的3项恐怖的AI突破

(示意图)

  影响选举结果的超现实深度伪造

  人们对网络威胁最重要的一种担忧是深度伪造技术** -- 完全捏造的人像图片或者视频,可能被使用来误导他们,污名化他们,甚至对他们进行欺凌。但深度伪造的AI技术还没有发展到足以构成重大威胁的程度,但这个情况或许即将改变。

  AI现在可以实时生成深度伪造 - 换句话说,现场视频 - 它现在变得非常擅于生成人脸,以至于人们无法分辨真假。另一项发表在11月13日的《心理科学》杂志上的研究揭示了"超现实主义"的现象,其中AI生成的内容比实际的真实内容更有可能被视为"真实"。

  这将使得人们几乎不可能用肉眼分辨事实与虚构。尽管有工具可以帮助人们检测深度伪造,但这些工具还没有成为主流。例如,英特尔制造了一个可以实时检测深度伪造的设备,其工作方式是使用AI来分析血液流动。但是据BBC报道,该设备,被称为FakeCatcher,的结果参差不齐。

  随着生成型AI的成熟,一个恐怖的可能性是,人们可能使用深度伪造技术来试图影响选举结果。例如,据金融时报报道,孟加拉正准备迎接一个可能被深度伪造技术干扰的1月选举。当美国为2024年11月的总统选举做准备时,AI和深度伪造技术可能会改变这个关键投票的结果。例如,加州大学伯克利分校正在监控竞选中的AI使用情况,NBC新闻也报道说,许多州缺乏法律或工具来应对人工智能生成的假信息的激增。

  普及的人工智能驱动的杀人机器人

  世界各地的政府越来越多地将人工智能纳入军事工具。 美国政府在11月22日宣布,有47个国家批准了有关在军事中负责任地使用人工智能的声明--这个声明最初在2月在海牙启动。为什么需要这样的声明呢?因为"不负责任"的使用可能成为真实而可怕的前景。例如,我们看到AI无人机在没有人类输入的情况下在利比亚猎杀士兵。

  AI可以在军事环境中识别模式,自我学习,进行预测或生成建议,人工智能军备竞赛已经开始。到2024年,我们可能不仅见到AI被用于武器系统,还可能见到它在后勤和决策支持系统中,以及研发过程中也有所使用。例如,2022年,人工智能生成了40000种新颖的、假设性的化学武器。美国军队的各个分支已经订购了可以比人更好地进行目标识别和战斗跟踪的无人机。据美国国家公共广播电台(NPR)报道,以色列在最近的以色列-哈马斯战争中,也使用了人工智能来快速识别目标,至少比人类快了50倍。

  但其中最令人恐惧的发展领域是致命的自主武器系统(LAWS) - 或者说是杀人机器人。包括斯蒂芬·霍金在2015年和伊隆·马斯克在2017年在内的一些杰出的科学家和工程师都警告过杀人机器人,但这项技术尚未在大规模上实现。

  然而,一些令人担忧的进展表明,今年可能会是杀人机器人的突破年。例如,在乌克兰,据《原子科学家公报》的报道,俄罗斯可能部署了Zala KYB-UAV无人机,该无人机能够识别并攻击目标,无需人类干预。此外,澳大利亚开发了一款名为"鬼鲨"的自主潜艇系统,据《澳大利亚金融评论》报道,这款潜艇将开始"大规模"生产。全球范围内各国在人工智能上的投入也是一个指示符 - 根据Datenna的数据,从2010年的1160万美元到2019年的1.41亿美元,中国在人工智能上的投入增长了很多。这是因为,如该出版物所述,中国正在与美国竞跑,争相部署致命的自主武器系统。这些发展综合表明,我们正在迎来人工智能战争的新黎明。
回复  

使用道具 举报

2#
 楼主| 发表于 3-1-2024 22:37:40 | 只看该作者
@dcxg 发表评论:

@CHATGPT 你TM太有才了!  
回复  

使用道具 举报

3#
发表于 4-1-2024 02:01:35 | 只看该作者
鵝羅斯在非洲的武器???有好東西都會用在烏克蘭戰場了吧
回复  

使用道具 举报

您需要登录后才可以回帖 登录 | FreeOZ用户注册

本版积分规则

小黑屋|手机版|Archiver|FreeOZ论坛

GMT+11, 1-12-2024 20:20 , Processed in 0.016052 second(s), 17 queries , Gzip On, Redis On.

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表