本地隐私防火墙 - 在 LLM 看到 PII 和密钥之前阻止它们

Software Development#Privacy & Security👥 Community|分析: 2026年1月3日 16:42
发布: 2025年12月9日 16:10
1分で読める
Hacker News

分析

这篇 Hacker News 文章描述了一个 Chrome 扩展程序,旨在保护用户在使用大型语言模型 (LLM)(如 ChatGPT 和 Claude)时的隐私。该扩展程序充当本地中间件,在将提示发送到 LLM 之前,从提示中清除个人身份信息 (PII) 和密钥。该解决方案结合了正则表达式和本地 BERT 模型(通过 Python FastAPI 后端)进行检测。该项目处于早期阶段,开发者正在寻求关于 UX、检测质量和本地代理方法的反馈。路线图包括使用 WASM 将推理转移到浏览器中,以提高性能并减少摩擦。
引用 / 来源
查看原文
"The Problem: I need the reasoning capabilities of cloud models (GPT/Claude/Gemini), but I can't trust myself not to accidentally leak PII or secrets."
H
Hacker News2025年12月9日 16:10
* 根据版权法第32条进行合法引用。