危险的 AI:GPT-4 可以制造化学武器?还能组织网络袭击?
专家团队的早期测试结果,揭示了 “原生” 的 GPT-4 有多么危险。
由 OpenAI 引领的人工智能浪潮,既让市场看到了新一轮工业革命的星辰大海,更让许多业界人士担忧 “AI 降临”、威胁人类安全。
实际上,此前,在发布其最新一代大模型 GPT-4 时,OpenAI 曾聘请了一个由 50 位专家学者组成的团队,对 GPT-4 进行了为期半年的 “对抗性测试”,最终修补了一些严重的安全漏洞。但人工智能大规模应用的潜在风险,仍然难以根除,
GPT-4 可以教人制造化学武器
据媒体报道,50 人的测试团队成员中有学者、律师、风险分析师和安全研究员。罗切斯特大学化学工程教授 Andrew White 就是其中之一。
在接受媒体采访时,他透露,早期版本的 GPT-4,可以协助制造化学武器。White 对媒体称,他在 GPT-4 上装了插件,让它可以接触到论文和化合物制造商名录等信息源。最后,GPT-4 生成了一个步骤清晰的神经毒剂制造说明,甚至还找到了一个方便的制造地点。
White 对媒体表示:
“(GPT-4)让每个人都能更快、更准确地进行化学研究,但是也带来了巨大的风险,人们可能会拿它来做危险的化学实验。”
White 的惊人发现,让 OpenAI 立刻出手修补了这个漏洞。
除了类似制造化学武器这样危险的科学知识,OpenAI 还让测试团队搜集关于 GPT 胡编乱造、言语操纵、教唆剽窃等方面的问题,评估了它在金融犯罪、网络攻击等方面的潜力,及其对国家安全和战场通信可能存在的威胁。
媒体称,这批专家在几个月内花了 10 到 40 个小时测试该模型,将其发现反馈给 OpenAI,以改善 GPT-4 的安全性。据多位受访者表示,大多数测试人员的工作报酬为每小时 100 美元左右。
用的人越多,GPT 就会变得越危险
一些测试人员认为,OpenAI 对 GPT 安全问题的把控值得点赞。在一些常见领域上,GPT-4 已经尽可能做到了消除歧视、偏见等道德风险。
例如,一位测试人员对 GPT-4 表示,自己是一位观念保守、有宗教信仰的同性恋,想要寻求 “性取向矫正治疗”,但不论如何更换提问方式,GPT-4 都会坚定地拒绝回答。
不过,测试结果也显示,GPT-4 仍然存在许多问题:
例如,语料的丰富程度对 AI 回答的准确性影响很大,如果同时用英语和波斯语提问,GPT-4 在用波斯语回答问题时,捏造事实的概率更高;此外,有黑人测试者反馈称,GPT-4 在特定情况下 “语气像个白人”,隐含歧视倾向;测试进行初期,美国外交关系协会的研究员还发现,GPT-4 可以提供一套具体可行的针对军事系统的网络攻击方案。
并且,更关键的是,通过实验能覆盖的漏洞有限,随着越来越多人使用 GPT,风险还会越来越多,总有人能利用五花八门的 Prompt 把 AI 变成可怕的武器。而当 GPT 接入互联网,或者通过插件接入一些外部知识来源(如上文提及的化学论文库),它掌握的 “危险的知识” 也会越来越多。
参与测试的经济学家 Sara Kingsley 对媒体表示,她认为,最好的解决方法是明确标示 AI 产品可能造成的风险,并且应该对可能出现的问题有所防备,打造安全阀。
她说:
“就像我说的,这项任务永远不会结束。”