个性化 AI 带来新的安全风险,奥特曼警告

个性化 AI 带来新的安全风险,奥特曼警告

OpenAI 首席执行官萨姆·奥特曼在斯坦福大学的一次采访中表示,AI 安全将成为下一阶段的挑战。他警告,越来越个性化的 AI 模型可能会无意中暴露敏感的用户信息

奥特曼指出,行业的焦点正在从抽象的安全讨论转向涉及数据保护和防止操纵的实际安全问题。他表示,随着语言模型变得更有能力、也更具个人化,公开部署它们将变得越来越困难。 行业的焦点正在从抽象的安全讨论转向涉及数据保护和防止操纵的实际安全问题。他表示,随着语言模型变得更有能力、也更具个人化,公开部署它们将变得越来越困难。

他还以一个具体例子说明安全挑战:一个 AI 助手在协助在线购买时,可能不经意间泄露早前对话中收集的个人医疗信息。奥特曼说:“这些模型还做不好这一点,”人类更容易理解情境边界,但 AI 系统很难区分有帮助的上下文和私人细节。

他还强调,要实现对个人化数据的“完全可靠”保护是一项最困难的 AI 安全目标。

关于对抗性鲁棒性的问题,奥特曼认为这是 AI 领域面临的最棘手难题之一。少量的提示或数据集微调都可能导致输出偏离预期,用户可能因此遭受意外结果。 关于对抗性鲁棒性的问题,奥特曼认为这是 AI 领域面临的最棘手难题之一。

他鼓励学生研究 AI 安全,称之为“最值得学习的领域之一”。传统科技公司长期设有庞大安全团队,AI 公司将很快也需要同等水平的安全人才。 他鼓励学生研究 AI 安全,称之为“最值得学习的领域之一”。传统科技公司长期设有庞大安全团队,AI 公司将很快也需要同等水平的安全人才。

奥特曼还强调,AI 能提高对漏洞和代码的检测能力,AI 在网络防御与攻击两端都可能发挥作用。 奥特曼还强调,AI 能提高对漏洞和代码的检测能力,AI 在网络防御与攻击两端都可能发挥作用。

Comments

Copied title and URL