我一直觉得,AI 视频是下一个真正值得投入的方向,但很长一段时间里,它更像是只属于高端显卡用户的领域。
当 LTX Video 2.3 发布之后,画质提升非常明显。运动更流畅,提示词理解更准确,整体真实感也上了一个台阶。但很快,现实问题也来了。这个模型很重。如果你的显存只有 8GB 或 12GB,在 ComfyUI 里直接加载全精度版本,往往很容易遇到崩溃、卡死,或者持续爆显存的问题。
也正是在这个时候,LTX 2.3 GGUF 工作流的价值开始变得非常清晰。
通过量化后的 GGUF 模型,你可以在更普通的硬件上跑起 LTX 2.3,同时保留这代模型最核心的优势。如果你的目标是在不升级整套机器的前提下,把 LTX 2.3 跑进 ComfyUI,那么这就是我更推荐的路线。
更快的路线:在浏览器里直接使用 LTX Video 2.3
在开始本地部署之前,还是要先说清楚一个现实问题。不是每个人都想花几个小时下载模型、修节点、排查 ComfyUI 里的版本冲突。
如果你想直接跳过环境配置,马上开始生成,可以直接使用 ltx23.app。
在 ltx23.app,你可以直接在浏览器里使用 LTX 2.3,不需要担心显存限制、Python 依赖冲突,或者模型版本下错的问题。如果你的目标是尽快开始生成,而不是先花时间搭环境,这就是更快的路线。
第 1 步:下载真正需要的模型
想把这套流程跑通,不能只依赖标准的完整检查点。关键在于使用量化后的模型文件,让整个工作流在中低显存显卡上也具备可用性。
至少需要准备下面这几项:
- LTX 2.3 GGUF 模型
- Gemma 2 2B 文本编码器
- 对应的 VAE 文件
其中 .gguf 模型文件负责把显存占用压下来,让普通消费级硬件也有机会运行。Gemma 2 2B 文本编码器负责理解提示词,VAE 则是视频潜空间编码和解码所必需的组成部分。
实际操作里,大多数人会通过 ComfyUI-LTXVideo 项目说明中的链接找到正确的 LTX 2.3 Hugging Face 下载地址。Civitai 上也能找到一些社区分享的工作流,但我还是建议先对照节点仓库确认文件名,再开始下载。
第 2 步:安装 Kijai 的 LTX 2.3 节点
这一步比很多新手想象得更重要。
标准的 ComfyUI 节点并不一定能直接把 LTX 2.3 GGUF 工作流稳定跑起来。想正确加载模型、同时尽量压住显存占用,最实用的做法还是使用 Kijai 维护的那套自定义实现。
在 ComfyUI Manager 里搜索 ComfyUI-LTXVideo 或 kijai ltx 2.3,安装完成后重启 ComfyUI。
这些节点的意义主要在于它们提供了:
- 正确的 GGUF 加载支持
- 更省显存的采样方式
- 对 LTX 2.3 新架构的兼容能力
如果没有这层节点封装,你很容易把时间浪费在排查问题上,而这些问题本质上并不是你的工作流有误,而是底层根本没有把这种模型格式支持完整。
第 3 步:加载一个可靠的 LTX 2.3 GGUF 工作流
如果你刚开始接触 ComfyUI,不建议第一次就自己从零搭完整图。
更实际的方式,是直接使用一个已经验证过的 LTX 2.3 GGUF 工作流,通常是 .json 文件格式,然后直接导入 ComfyUI。很多做得比较好的社区工作流都会把复杂逻辑封装进 Subgraph,这样画布更干净,整体也没那么难理解。
工作流加载完成后,先重点关注几个最影响结果的参数:
- 分辨率:比较稳妥的起点是
768x512 - 时长:按你要生成的镜头长度来设定
- 采样步数:GGUF 工作流通常可以先从
20-30开始
这个阶段的目标不是一步到位,而是先确认你的硬件能把从提示词到输出结果的整条链路跑通。
第 4 步:针对超低显存做优化
如果你的显存只有 8GB,最大的瓶颈往往不一定是采样器,而是 Gemma 文本编码器。
这一部分很容易变慢,特别是在它被迫回退到 CPU 的时候。一个比较实用的优化方式,是在可选的前提下使用 FP4 版本的文本编码器。这样可以进一步减轻内存压力,让整条工作流更容易稳定运行。
它的取舍也很直接。提示词编码阶段可能还是需要一些时间,但等 token 处理完成之后,后面的实际渲染阶段会更容易在有限硬件上顺利推进。
如果你的重点是先把系统跑稳,我也建议把下面这些当成默认策略:
- 初始分辨率不要设太高
- 先从短视频开始测试
- 不要一上来就把步数拉满
- 先用小样本验证提示词,再决定是否完整渲染
低显存工作流真正依赖的,不是某一个万能参数,而是尽可能减少无效消耗。
为什么 GGUF 对 LTX 2.3 特别重要
和更早的 LTX 工作流相比,LTX 2.3 的提升非常明显。运动表现更好,场景调度更自然,整体也更适合拿来做更认真一点的视频生成。
但如果你的硬件根本跑不动,这些提升就没有实际意义。
这也是为什么 LTX 2.3 GGUF 这么重要。它让没有顶级显卡的用户,也能真正开始尝试高质量的本地 AI 视频生成,而不是只停留在看演示的阶段。
再配合 Kijai LTX 2.3 节点和一套稳定的 ComfyUI 工作流,这套方案就从概念层面,变成了真正可落地的实践方案。
结论
如果你想在本地运行 LTX Video 2.3,但又没有很高的显存预算,那么 GGUF 路线就是最现实的选择。
你需要准备正确的量化模型、对应的文本编码器和 VAE 文件,再配合 ComfyUI 里的 Kijai 节点。把这些部分都配好之后,LTX 2.3 在普通消费级硬件上的可用性会高很多。
如果你还是觉得本地配置太重,或者机器实在带不动,那么 ltx23.app 仍然是最省事的捷径。你可以直接获得 LTX 2.3 的体验,不需要自己排查节点、处理版本漂移,或者受限于本地硬件。
把工作流导入进去,加载 GGUF 模型,然后看看你现在这台机器到底能跑到什么程度。


