safety#llm📝 Blog分析: 2026年1月29日 18:03AI聊天应用配置错误暴露用户互动:一窥LLM使用情况发布:2026年1月29日 17:45•1分で読める•Slashdot分析此次事件为了解大型语言模型(LLM)的实际应用以及用户互动类型提供了宝贵的见解。了解这些现实世界的应用有助于完善技术并改善用户体验。这是生成式人工智能发展中的重要一步。要点•一个拥有数百万用户的流行AI聊天应用程序的用户对话被泄露。•问题是Google Firebase的配置错误。•数据包括聊天记录、时间戳和模型配置。引用 / 来源查看原文"暴露的聊天记录显示,用户向该应用程序询问“如何无痛地杀死自己”,写自杀遗书,“如何制造甲基苯丙胺”,以及如何破解各种应用程序。"SSlashdot2026年1月29日 17:45* 根据版权法第32条进行合法引用。较旧Amazon Uncovers Safeguards in AI Training Data: A Positive Step较新Boost Your Learning: Supercharge Book Reading with ChatGPT!相关分析safety使用ChatGPT增强 Chrome 安全性:扩展程序安全的新时代!2026年2月10日 04:45safetyAnthropic AI 安全研究员离职,专注于人类未来!2026年2月10日 03:39safetyOpus 4.6 发现数百个以前未知的漏洞!2026年2月9日 16:17来源: Slashdot