欢迎访问装备制造资讯网!

装备制造资讯网

您现在的位置是: 首页 > 制造技术 >详情

智能制造新技术安全风险建议(如何规避人工智能带来的灾难性风险?(二)生物恐怖与恶意程序)

发布时间:2024-06-04 07:38:27 制造技术 707次 作者:装备制造资讯网

(续上篇)

生物恐怖主义

智能制造新技术安全风险建议(如何规避人工智能带来的灾难性风险?(二)生物恐怖与恶意程序)

核武器的出现说明了技术进步的双刃剑。我们十多次勉强避免了核战争,有几次,是一个人的干预阻止了战争。1962年,一艘苏联潜艇在古巴附近遭到美国深水炸弹的袭击。船长认为战争已经爆发,想用核鱼雷回应——但指挥官瓦西里·阿尔希波夫否决了这一决定,将世界从灾难中拯救出来。

人工智能能力的快速和不可预测的进步表明,它们可能很快就能与核武器的巨大威力相匹敌。随着时间的流逝,需要立即采取积极主动的措施来缓解这些迫在眉睫的风险。对人工智能的恶意使用,最大的威胁在生物安全上。当许多人都能接触到一项强大的技术时,只需一个人就能造成重大伤害。

包括病毒和细菌在内的生物制剂造成了历史上一些最具破坏性的灾难。尽管我们在医学上取得了进步,但工程流行病可能被设计成比自然流行病更致命或更容易传播。人工智能助手可以为非专家提供生产生物和化学武器所需的指导和设计,并为恶意使用提供便利。

人类将病原体武器化的历史由来已久,可以追溯到公元前1320年,当时受感染的绵羊被驱赶到国外传播兔热病。在20世纪,至少有15个国家发展了生物武器计划,包括美国、前苏联、英国和法国。虽然生物武器现在是国际社会大多数国家的禁忌,但一些国家仍在继续实施生物武器计划,非国家行为者构成的威胁越来越大。

策划一场大流行的能力正迅速变得越来越容易获得。基因合成可以创造新的生物制剂,其价格已大幅下降,大约每15个月其成本就会减半。台式DNA合成机可以帮助流氓演员创造新的生物制剂,同时绕过传统的安全筛选。

作为一种军民两用技术,人工智能可以帮助发现和释放新的化学和生物武器。人工智能聊天机器人可以提供合成致命病原体的逐步指令,同时避开安全措施。2022年,研究人员改变了一个医学研究人工智能系统的用途,以生产有毒分子,产生40,几个小时内就有5000种潜在的化学战剂。在生物学中,人工智能已经可以协助蛋白质合成,而且人工智能对蛋白质结构的预测能力已经超过了人类。

有了人工智能,能够开发生物制剂的组织将会增加,从而使人为制造的大流行的风险成倍增加。这可能比历史上任何一次大流行都更致命、更具传染性、对治疗更具抵抗性。

一些建议:具有生物研究能力的人工智能应该有严格的访问控制,因为它们可能被用于恐怖主义。应加大探索将人工智能用于生物安全的方法,并投资于一般生物安全干预措施,如通过废水监测及早发现病原体。

2,恶意人工智能程序

一般来说,技术是我们用来追求目标的工具。但人工智能越来越多地被构建为自主采取行动以追求开放式目标的代理人。恶意参与者可能会故意创建具有危险目标的恶意AI。

例如,在GPT-4发布一个月后,一名开发人员用它运行了一个名为ChaosGPT的自主代理,旨在“毁灭人类”。ChaosGPT编辑了关于核武器的研究,招募了其他人工智能,并撰写推文来影响他人。幸运的是,ChaosGPT缺乏执行其目标的能力。但不断加速的人工智能发展步伐,本质上加剧了未来流氓人工智能的风险。

人工智能可以通过为个人用户量身定制论点来促进大规模的虚假信息运动,潜在地塑造公众信仰和破坏社会稳定。由于人们已经与聊天机器人建立了关系,强大的参与者可以利用这些被视为“朋友”的人工智能发挥影响力。人类的智商很难抵御一次基于利益点的刻意煽动。在没有人工智能的时代,这种煽动的效率极低、成本巨高。但人工智能可以让这种煽动来得更加简单。这可能对舆情管理带来巨大挑战。

人工智能将使复杂的个性化影响活动成为可能。当刀郎的《罗刹海市》火遍全球,有人用AI生成了那英演唱这首歌的视频,但这绝对是一个假消息,其用意是“火上浇油”。但那些听众并没有多少分辨能力,久而久之,这世界上会充斥由生成式AI创造的假事件、假作品,并破坏我们的现实感。人工智能还可以垄断信息的创造和传播。此外,有说服力的人工智能可能会阻碍针对社会风险的集体行动,即使这些风险是由人工智能本身引起的。这可能导致对民主体制的破坏。

人工智能的监视能力和自主武器可能会使权力过度集中成为可能。政府可能会利用人工智能来侵犯公民自由、传播错误信息和压制异议。类似地,企业可以利用人工智能来操纵消费者和影响政治。人工智能甚至可能阻碍道德进步,并使任何正在发生的道德灾难永久化。

一些建议:限制访问危险的人工智能系统,只允许通过云服务进行受控交互,并进行“了解你的客户”筛选。使用计算机监控或出口控制可以进一步限制对危险能力的访问。此外,在AI程序开源之前,人工智能开发者应该证明伤害的风险最小。应开发针对人工智能滥用的多种防御措施,例如针对异常行为或人工智能生成的虚假信息的进行有针对性的识别和异常检测。强化通用人工智能开发者的法律责任,强制开发者对潜在的人工智能误用或故障承担法律责任;严格责任制度可以鼓励更安全的发展做法和对风险进行适当的成本核算。

强制执行人工智能安全标准,防止开发人员偷工减料。对于以安全为导向的公司来说,独立的人员配置至关重要。为确保透明度和问责制,应要求公司报告其用于模型培训的数据来源。

强化国际协调机制,创建关于人工智能发展的国际协议和标准。强有力的核查和执行机制是关键。

(未完待续)