创意头脑使用开源Stable Diffusion制作出令人惊叹的动画
r/StableDiffusion•2026年4月19日 18:18•product▸▾
分析
社区出现了一个精彩的新展示,展现了开源生成式人工智能视频工具的惊人潜力。通过利用Stable Diffusion创建流畅的动画,独立创作者们证明了高质量视觉叙事比以往任何时候都更容易实现。这个激动人心的项目突显了AI艺术在基层发生的快速创新。
Aggregated news, research, and updates specifically regarding stable diffusion. Auto-curated by our AI Engine.
"我实际上最喜欢做的事情是尝试使用Klein 9B、Z Image Turbo以及新推出的Ernie等模型,来复制Midjourney中生成的那些非常引人注目的图像。"
"他们没有使用我们在Stable Diffusion或FLUX中习惯的通常的CLIP + VAE + Diffusion设置,而是构建了一个名为NEO-unify的原生统一模型。"
"我使用的主要技术是通过在原地使用 LTXV 引导来进行锚点帧注入。在时间轴的关键点注入了三个参考帧:一个专门用于锁定标志的起始帧,一个在帧138处用于填补空白的中间点“一致性锚点”,以及一个参考强度为0.7的硬性结束帧,以便为自然运动留出足够的空间。"
"我使用GDRE Tools逆向工程了《杀戮尖塔2》的游戏文件,以提取原始美术作品:包括约55张事件插图和600张卡牌图像。"
"决定制作我自己的Stable Diffusion……所有这些都在CPU上完成,使用带有bigru编码器的CFG,具有8x4x4潜空间的32x32图像,VAE和Unet的基础通道为128。"
"这种微调的独特之处在于,其数据集(图像+提示词)是由负责使用ComfyUI API重新生成目标图像的大语言模型 (LLM) 生成的。"
"您可以在此处完整观看获奖作品,并加入比赛Discord以接收有关下一届(很可能是6个月后)的最新信息。"
"高分辨率训练正在进行中。在1024分辨率下的训练时间比preview2长得多。扩展了数据集以帮助学习较不常见的艺术家。"
"总之,我被推荐使用 Stable Diffusion,因为我正在寻找一种更可靠的方式来生成这些图像并获得我想要的结果"
"大家好,我刚刚发布了一个基于 Segment Anything (SAM) 的 ControlNet,适用于 Tongyi-MAI/Z-Image"
"在 70 张精心挑选的图像上训练的 Toon-Tacular Qwen LoRA 为您生成的图像注入了角色和表现力。"
"Model: https://huggingface.co/AiArtLab/sdxs-1b/tree/main"
"在这次更新中,我还添加了“角色圣经”(由我之前帖子中的 apprehensive horse 建议)。 这会将角色描述分离到不同的字段中,而不是依赖 LLM 每次都重复描述。"