重磅!Open AI 发布 ChatGPT 安全方法
在各国政府接连颁布 ChatGPT 禁令后,Open AI 在这关键节点发布安全方法,就构建安全、可靠的 AI 产品,尊重隐私,保护儿童及提高生成数据准确性等多方面制定政策。
4 月 6 日凌晨,Open AI 在官网发布了《Our approach to AI safety》,以确保安全、可靠地为全球用户提供 ChatGPT 服务。(地址:https://openai.com/blog/our-approach-to-ai-safety)
目前,ChatGPT 的安全问题受到了全球多数国家的高度关注。意大利则直接禁用 ChatGPT,欧洲多数国家也开始纷纷重视 ChatGPT 是否侵犯数据隐私等。一时间生成式 AI 的数据安全成为热门话题。
Open AI 在这关键节点发布安全方法,这对其未来发展乃至整个 AIGC 行业都起到了关键的保护和稳定军心的作用。
构建安全、可靠的 AI 产品
Open AI 表示,在发布任何新系统之前,会进行严格的测试。聘请外部专家提供反馈,通过人工反馈强化学习等技术改进模型的行为,并构建广泛的安全和监控系统。
例如,Open AI 的最新模型 GPT-4 完成训练后,花了 6 个多月的时间在整个组织内开展工作,以使其在公开发布之前更安全、更一致。
Open AI 认为,强大的人工智能系统应该接受严格的安全评估。需要监管以确保采用此类做法,Open AI 将积极与政府合作,以制定此类监管的最佳框架。
从实践中学习、优化、改善
Open AI 正在努力在部署前预防可预见的风险,但是,在实验、研发的过程中得到的反馈是有限的,尽管进行了严谨、广泛的测试仍然无法预测人们使用 ChatGPT 所产生的各种意外后果。所以,从实践项目中学习、优化和改善产品,成为重中之重。
Open AI 通过自己的服务和 API,以帮助开发人员可以将最强大的大语言模型直接集成到产品中。这可以使得 Open AI 能够监控滥用行为并采取行动,并不断构建完善的缓解措施,保证 Open AI 的产品被用在安全、合规的项目上。
随着全球用户使用的深入,这促使 Open AI 需要制定更细致、周全的对策来应对各种可能出现的危险。
保护儿童
保护儿童的安全一直是 Open AI 的重点工作。Open AI 要求人们必须年满 18 岁,或在父母同意的情况下年满 13 岁才能使用 Open AI 的产品。Open AI 正在研究验证选项。
Open AI 不允许其产品用于生成仇恨、骚扰、暴力或成人内容等。与 GPT-3.5 相比,Open AI 最新的模型 GPT-4 响应,非法内容请求的可能性降低了 82%,并且已经建立了一个强大的系统来监控滥用情况。GPT-4 现在可供 ChatGPT Plus 用户使用,Open AI 希望随着时间的推移让更多人可以使用它。
尊重隐私
Open AI 的大型语言模型是在广泛的文本语料库上训练的,这些文本包括公开可用的、许可的内容以及由人工审阅生成的内容。
Open AI 不会使用数据来销售服务、做广告或建立人们的档案——会通过使用数据使大语言模型对人们更有帮助。例如,ChatGPT 通过与人类之间进行的对话,以进一步培训和改善产品。
虽然 Open AI 的一些训练数据包括可在公共互联网上获得的个人信息。但只是希望大语言模型了解世界,而不是了解个人。因此,Open AI 努力在可行的情况下,从训练数据集中删除个人信息,微调模型以拒绝对私人个人信息的请求,并对个人提出的从数据库中删除其个人信息的请求做出回应。
提高生成数据准确性
大型语言模型根据之前的训练模式预测下一个单词、句子或长文。但在某些情况下,可能会出现数据不准确的情况。
提高生成数据的准确性,是 OpenAI 和许多其他 AI 开发人员的重点正在取得进展。通过用户对被标记为不正确的主要数据源的 ChatGPT 输出的反馈,GPT-4 产生真实数据的性能比 GPT-3.5 高了 40%。
持续的研究和参与
OpenAI 认为,解决 AI 安全问题的实际方法是投入更多时间和资源来研究有效的缓解和对齐技术,并测试它们在现实世界中的滥用情况。
虽然 OpenAI 等了 6 个多月才部署 GPT-4 以更好地了解其功能、优势和风险,但有时可能需要比这更长的时间来提高 AI 系统的安全性。
因此,政策制定者和 AI 供应商需要确保 AI 的开发和部署在全球范围内得到有效管理,这样就没有人会为了取得成功而偷工减料。这是一项艰巨的挑战,需要技术和制度创新,但 OpenAI 会全力以赴做出最大努力去改善。
本文作者: AIGC 开放社区 ,来源:AIGC 开放社区,原文标题:《重磅!Open AI 发布 ChatGPT 安全方法》