最常见的隐私错误,往往不是复杂操作,而是赶时间时的一秒钟决定:因为 AI 看起来像聊天框,就顺手把本来不该发的东西贴进去了。更稳的做法,是在这种时刻到来之前,就先画好边界。
第一条边界很简单:有些东西就是不要进提示框
- 密码、API Key、恢复码、密钥这类东西,不要发。
- 涉及个人隐私、法务、医疗、工资、客户信息的数据,没有明确理由和权限就不要传。
- 能用示例数据和匿名化数据测试,就先别用真实数据。

NIST 的框架很适合翻译成普通用户的日常习惯:知道风险在哪里,知道什么时候该人工复核。
NIST AI RMF一个例子会更容易记住
示例场景:你想让 AI 帮你润色合同条款。最危险的做法,是把整份真实合同连同客户姓名、价格、私下约定一起贴进去。更稳的做法,是只截出那一条条款,去掉识别信息,再问“这段表达哪里不清楚”。这样 AI 仍然能帮你,但暴露面会小很多。
为什么大家还是容易发太多
因为 AI 的界面太像聊天了,容易让人降低警惕。但“像聊天”不等于不用考虑数据存储、访问范围、保留周期和误暴露风险。越方便,越需要先把边界画出来。
更安全的日常做法
- 粘贴前先去掉姓名、账号、编号等直接识别信息。
- 给自己或团队留一份“必须人工确认”的信息清单。
- 接账号授权前,先看它拿到的数据范围是不是超过任务所需。
“私密”“安全”“企业版”这些词,不能代替你自己做判断
这类词能帮助你知道产品在卖什么,但不能替你判断实际风险。真正应该看的,是官方隐私和安全说明里怎么写存储、访问和控制边界;监管和风险框架会提醒你,很多误用并不是因为工具坏,而是因为用户把边界想得太宽松。
常见误区
- 一测试就直接上真实客户或公司数据。
- 把“私密模式”理解成完全不留痕、不会审查、不会保留。
- 因为觉得提示词只是临时的,就顺手把密钥贴进去。
最省事的安全规则,其实也最容易执行
如果这段内容误发到错误邮箱里会出事,那它就值得你在放进 AI 之前先停一下。这个判断虽然很简单,但能挡住大多数不必要的风险。
来源
- OpenAI·官方资料·核心来源OpenAI Safety Best Practices
- OpenAI·官方资料·核心来源OpenAI Enterprise Privacy
- Google Workspace·官方资料·核心来源Enterprise-ready, secure AI
- NIST·官方资料·核心来源NIST AI Risk Management Framework
- Federal Trade Commission·官方资料·核心来源FTC: Operation AI Comply
