本地隐私防火墙 - 在 LLM 看到 PII 和密钥之前阻止它们
分析
这篇 Hacker News 文章描述了一个 Chrome 扩展程序,旨在保护用户在使用大型语言模型 (LLM)(如 ChatGPT 和 Claude)时的隐私。该扩展程序充当本地中间件,在将提示发送到 LLM 之前,从提示中清除个人身份信息 (PII) 和密钥。该解决方案结合了正则表达式和本地 BERT 模型(通过 Python FastAPI 后端)进行检测。该项目处于早期阶段,开发者正在寻求关于 UX、检测质量和本地代理方法的反馈。路线图包括使用 WASM 将推理转移到浏览器中,以提高性能并减少摩擦。
要点
引用
“问题:我需要云模型(GPT/Claude/Gemini)的推理能力,但我不能相信自己不会意外泄露 PII 或密钥。”