如何在 LTX 2.3 中使用 GGUF:低顯存也能跑高品質 AI 影片
Mar 19, 2026

如何在 LTX 2.3 中使用 GGUF:低顯存也能跑高品質 AI 影片

了解如何在 ComfyUI 中使用 GGUF 模型執行 LTX Video 2.3,包括 Kijai 節點安裝、所需模型下載,以及低顯存優化技巧。

我一直覺得,AI 影片是下一個真正值得投入的方向,但很長一段時間裡,它更像是只屬於高階顯示卡用戶的領域。

LTX Video 2.3 發佈之後,畫質提升非常明顯。運動更流暢,提示詞理解更準確,整體真實感也上了一個台階。但很快,現實問題也來了。這個模型很重。如果你的顯存只有 8GB12GB,在 ComfyUI 裡直接載入全精度版本,通常很容易遇到崩潰、卡死,或者持續爆顯存的問題。

也正是在這個時候,LTX 2.3 GGUF 工作流的價值開始變得非常清楚。

透過量化後的 GGUF 模型,你可以在更普通的硬體上跑起 LTX 2.3,同時保留這一代模型最核心的優勢。如果你的目標是在不升級整套機器的前提下,把 LTX 2.3 跑進 ComfyUI,那麼這就是我更推薦的路線。


更快的路線:直接在瀏覽器使用 LTX Video 2.3

在開始本地部署之前,還是要先說清楚一個現實問題。不是每個人都想花幾個小時下載模型、修節點、排查 ComfyUI 裡的版本衝突。

如果你想直接跳過環境配置,馬上開始生成,可以直接使用 ltx23.app

ltx23.app,你可以直接在瀏覽器裡使用 LTX 2.3,不需要擔心顯存限制、Python 相依套件衝突,或者模型版本下錯的問題。如果你的目標是盡快開始生成,而不是先花時間搭環境,這就是更快的路線。


第 1 步:下載真正需要的模型

想把這套流程跑通,不能只依賴標準的完整檢查點。關鍵在於使用量化後的模型檔,讓整個工作流在中低顯存顯示卡上也具備可用性。

至少需要準備下面這幾項:

  1. LTX 2.3 GGUF 模型
  2. Gemma 2 2B 文字編碼器
  3. 對應的 VAE 檔案

其中 .gguf 模型檔負責把顯存占用壓下來,讓普通消費級硬體也有機會執行。Gemma 2 2B 文字編碼器負責理解提示詞,VAE 則是影片潛空間編碼和解碼所必需的組成部分。

實際操作裡,大多數人會透過 ComfyUI-LTXVideo 專案說明中的連結找到正確的 LTX 2.3 Hugging Face 下載位置。Civitai 上也能找到一些社群分享的工作流,但我還是建議先對照節點倉庫確認檔名,再開始下載。


第 2 步:安裝 Kijai 的 LTX 2.3 節點

這一步比很多新手想像得更重要。

標準的 ComfyUI 節點不一定能直接把 LTX 2.3 GGUF 工作流穩定跑起來。想正確載入模型、同時盡量壓住顯存占用,最實用的做法還是使用 Kijai 維護的那套自訂實作。

在 ComfyUI Manager 裡搜尋 ComfyUI-LTXVideokijai ltx 2.3,安裝完成後重新啟動 ComfyUI。

這些節點的意義主要在於它們提供了:

  • 正確的 GGUF 載入支援
  • 更省顯存的採樣方式
  • 對 LTX 2.3 新架構的相容能力

如果沒有這層節點封裝,你很容易把時間浪費在排查問題上,而這些問題本質上並不是你的工作流有誤,而是底層根本沒有把這種模型格式支援完整。


第 3 步:載入一個可靠的 LTX 2.3 GGUF 工作流

如果你剛開始接觸 ComfyUI,不建議第一次就自己從零搭完整圖。

更實際的方式,是直接使用一個已經驗證過的 LTX 2.3 GGUF 工作流,通常是 .json 格式,然後直接匯入 ComfyUI。很多做得比較好的社群工作流都會把複雜邏輯封裝進 Subgraph,這樣畫布更乾淨,整體也沒那麼難理解。

工作流載入完成後,先重點關注幾個最影響結果的參數:

  • 解析度:比較穩妥的起點是 768x512
  • 時長:按你要生成的鏡頭長度來設定
  • 採樣步數:GGUF 工作流通常可以先從 20-30 開始

這個階段的目標不是一步到位,而是先確認你的硬體能把從提示詞到輸出結果的整條鏈路跑通。


第 4 步:針對超低顯存做優化

如果你的顯存只有 8GB,最大的瓶頸往往不一定是採樣器,而是 Gemma 文字編碼器

這一部分很容易變慢,特別是在它被迫回退到 CPU 的時候。一個比較實用的優化方式,是在可選的前提下使用 FP4 版本的文字編碼器。這樣可以進一步減輕記憶體壓力,讓整條工作流更容易穩定執行。

它的取捨也很直接。提示詞編碼階段可能還是需要一些時間,但等 token 處理完成之後,後面的實際渲染階段會更容易在有限硬體上順利推進。

如果你的重點是先把系統跑穩,我也建議把下面這些當成預設策略:

  • 初始解析度不要設太高
  • 先從短影片開始測試
  • 不要一開始就把步數拉滿
  • 先用小樣本驗證提示詞,再決定是否完整渲染

低顯存工作流真正依賴的,不是某一個萬用參數,而是盡可能減少無效消耗。


為什麼 GGUF 對 LTX 2.3 特別重要

和更早期的 LTX 工作流相比,LTX 2.3 的提升非常明顯。運動表現更好,場景調度更自然,整體也更適合拿來做更認真一點的影片生成。

但如果你的硬體根本跑不動,這些提升就沒有實際意義。

這也是為什麼 LTX 2.3 GGUF 這麼重要。它讓沒有頂級顯示卡的用戶,也能真正開始嘗試高品質的本地 AI 影片生成,而不是只停留在看展示的階段。

再配合 Kijai LTX 2.3 節點和一套穩定的 ComfyUI 工作流,這套方案就從概念層面,變成了真正可落地的實作方案。


結論

如果你想在本地執行 LTX Video 2.3,但又沒有很高的顯存預算,那麼 GGUF 路線就是最現實的選擇。

你需要準備正確的量化模型、對應的文字編碼器和 VAE 檔案,再配合 ComfyUI 裡的 Kijai 節點。把這些部分都配好之後,LTX 2.3 在普通消費級硬體上的可用性會高很多。

如果你還是覺得本地配置太重,或者機器實在帶不動,那麼 ltx23.app 仍然是最省事的捷徑。你可以直接獲得 LTX 2.3 的體驗,不需要自己排查節點、處理版本漂移,或者受限於本地硬體。

把工作流匯入進去,載入 GGUF 模型,然後看看你現在這台機器到底能跑到什麼程度。

即刻用 LTX 2.3 生成影片

免費建立你嘅第一條 LTX 2.3 影片。