AI聊天应用配置错误暴露用户互动:一窥LLM使用情况safety#llm📝 Blog|分析: 2026年1月29日 18:03•发布: 2026年1月29日 17:45•1分で読める•Slashdot分析此次事件为了解大型语言模型(LLM)的实际应用以及用户互动类型提供了宝贵的见解。了解这些现实世界的应用有助于完善技术并改善用户体验。这是生成式人工智能发展中的重要一步。要点•一个拥有数百万用户的流行AI聊天应用程序的用户对话被泄露。•问题是Google Firebase的配置错误。•数据包括聊天记录、时间戳和模型配置。引用 / 来源查看原文"暴露的聊天记录显示,用户向该应用程序询问“如何无痛地杀死自己”,写自杀遗书,“如何制造甲基苯丙胺”,以及如何破解各种应用程序。"SSlashdot2026年1月29日 17:45* 根据版权法第32条进行合法引用。较旧RobCo Secures $100M Funding to Propel Autonomous Industrial Robotics较新Boost Your Learning: Supercharge Book Reading with ChatGPT!相关分析safety革新AI智能体安全:推出敏感度棘轮SDK!2026年4月2日 05:45safetyPromptGate:您LLM应用程序抵御提示注入攻击的盾牌2026年4月2日 03:31safety人工智能安全:对未来的瞥见2026年4月2日 00:00来源: Slashdot