原文:OpenAI Just Open-Sourced a Tool That Scrubs Your Secrets Before ChatGPT Ever Sees Them

将 Decrypt 添加为您的首选来源,以便在 Google 上查看我们的更多故事。

简而言之,OpenAI 在 GitHub 和 Hugging Face 上发布了 Apache 2.0 下的 Privacy Filter。

这个包含 15 亿参数的模型在本地运行并屏蔽姓名、地址和密码。

它开箱即用,在标准 PII-Masking-300k 基准测试中达到 96% F1。

每天都有数百万人将他们可能不应该粘贴的内容粘贴到 ChatGPT 中。纳税申报表。医疗记录。带有客户姓名的工作电子邮件。那种奇怪的皮疹。他们发誓下周将轮换 API 密钥。

OpenAI 刚刚发布了一个免费工具,可以在聊天机器人看到之前清理所有内容。

它被称为 Privacy Filter,本周在 Apache 2.0 许可证下推出,这意味着任何人都可以下载它、使用它、修改它以及销售基于它的产品。该模型存在于 Hugging Face 和 GitHub 上,拥有 15 亿个参数(衡量模型潜在知识广度的指标),并且足够小,可以在普通笔记本电脑上运行。

将其视为拼写检查,但出于隐私考虑。您向其提供一段文本,它会返回相同的文本,其中所有敏感位都交换为通用占位符,例如 [PRIVATE_PERSON] 或 [ACCOUNT_NUMBER]。

还记得当人们能够取消部分杰弗里·爱泼斯坦文件的编辑时,因为唐纳德·特朗普政府只是使用黑色记号笔试图隐藏这些秘密吗?如果他们使用这个模型,那就不成问题了。

OpenAI 的隐私过滤器实际上做了什么

隐私过滤器扫描八类个人信息:姓名、地址、电子邮件、电话号码、URL、日期、帐号以及密码和 API 密钥等机密。它一次性读取整个文本,然后标记敏感部分,以便可以屏蔽或编辑它们。

这是 OpenAI 公告中的一个真实示例。您粘贴了一封电子邮件,内容如下:

“再次感谢您今天早些时候的会面。(...)作为参考,项目文件列在 4829-1037-5581 下。如果您方面有任何变化,f

阅读原文 →