人工智能公司引领安全:聘请专家以防止滥用safety#llm📰 News|分析: 2026年3月17日 01:32•发布: 2026年3月17日 00:08•1分で読める•BBC Tech分析Anthropic 在人工智能安全方面的积极主动方法确实值得称赞! 他们正在采取具体措施来解决潜在风险,他们对负责任的生成式人工智能发展的承诺为行业树立了良好的榜样。 这种对道德考量和保障措施的关注正在为更安全、更值得信赖的人工智能未来铺平道路。要点•人工智能公司Anthropic正在积极寻找武器专家,以防止其生成式人工智能工具被滥用。•该职位需要化学武器、爆炸物防御和放射性扩散装置方面的经验。•OpenAI也在招聘一个类似的职位,专注于生物和化学风险。引用 / 来源查看原文"美国人工智能(AI)公司Anthropic正在寻找化学武器和高爆物品专家,以试图防止其软件的“灾难性滥用”。"BBBC Tech2026年3月17日 00:08* 根据版权法第32条进行合法引用。较旧Alibaba's AI Push: A Bold Leap into Hardware with 'Qwen' Ecosystem较新没有更新的文章相关分析safety人工智能安防:德克萨斯州初创公司旨在预防大规模枪击事件2026年3月16日 21:32safetyClaude Code:发布安全AI工具使用的配置档案!2026年3月16日 21:45safety设计信任:利用赢得的信任架构保护人工智能智能体2026年3月16日 14:30来源: BBC Tech