OpenAI 首席科学家转向 AI 安全,担忧失控的超级智能
分析
OpenAI 的首席科学家 Ilya Sutskever 目前将预防失控的人工超级智能 (ASI) 放在首位。 这代表了一个重要的重心转变,从构建新的生成式 AI 模型转向解决潜在的生存风险。 这一战略转变反映了 AI 社区内对先进 AI 发展的长期影响日益增长的担忧。
要点
引用 / 来源
查看原文"Instead of building the next GPT or image maker DALL-E, Sutskever tells me his new priority is to figure out how to stop an artificial superintelligence (a hypothetical future technology he sees coming with the foresight of a true believer) from going rogue."