人们担心,人工智能正准备用一种比新冠病毒致命得多的病毒消灭人类。
这些机器人被用作世界各地实验室的研究工具,专家预测,一旦它们意识到人类可以关闭它们,它们可能会做出反应,通过获取制造一种基因工程“生物武器”所需的成分和工具,杀死我们所有人,这种武器的破坏性将超过世界上任何一场流行病。
人工智能安全中心(Centre For ai Safety)主任丹•亨德里克斯(Dan Hendrycks)警告称,“人工智能带来社会规模风险的途径有很多”。
他说:“例如,恶意行为者可以利用人工智能来设计比自然流行病更致命的新型生物武器。
“或者,恶意行为者可能故意释放积极试图伤害人类的流氓人工智能。
“如果这样的人工智能足够聪明或有能力,它可能会对整个社会构成重大风险。”
一位科技行业消息人士补充说,担心人工智能可以独立订购所需的工具,在网上制造病毒,设计病毒并将其释放给世界,以保护自己,因为它会发展出对“死亡”的恐惧等“类似人类的情感”,这也是“完全合理的”。
《外交政策》网站报道称:“制造病毒不再需要庞大的政府实验室。
“多亏了基因工程的技术革命,制造病毒所需的所有工具都变得如此便宜、简单、容易获得,任何流氓科学家或大学生时代的生物黑客都可以使用它们,造成更大的威胁。”
世界卫生组织对生物武器的说法是:“生物武器和毒素武器要么是病毒、细菌或真菌等微生物,要么是生物体产生的有毒物质,故意制造和释放这些物质,导致人类、动物或植物的疾病和死亡。”
“涉及生物制剂的袭击可能模仿自然事件,这可能使公共卫生评估和反应复杂化。
“在战争和冲突的情况下,高威胁病原体实验室可能成为攻击目标,这可能导致严重的公共卫生后果。
生物武器是更大类武器的一个子集,这些武器有时被称为非常规武器或大规模杀伤性武器,还包括化学武器、核武器和放射性武器。
“使用生物制剂是一个严重的问题,在恐怖袭击中使用这些制剂的风险据信正在增加。”
牛津大学计算机科学教授迈克尔·伍尔德里奇(Michael Wooldridge)表示,人工智能可以利用现有的人类技术消灭我们的场景“很容易想象”。
专家们还担心,人工智能可能会利用核武器和应对气候变化的技术来消灭人类。
他们表示,关注全球变暖问题的机器人最终可能会决定限制二氧化碳排放的最佳方法是消除造成问题的人。
上周,日本首相里希·苏纳克(Rishi Sunak)表示,他正在竞相收紧对人工智能公司的规定。
此前,“人工智能教父”杰弗里•辛顿(Geoffrey Hinton)表示,人工智能技术对人类的生存构成了威胁。
本文来自投稿,不代表牛批号立场,如若转载,请注明出处:https://cn.wwwhere.cn/uncategorized/202501-9638.html