LTX-2.3
新一代AI视频生成
LTX-2.3是开源220亿参数扩散Transformer模型,支持4K输出、原生音频同步和多模态输入,极速生成电影级AI视频。

AI视频生成器
LTX-2.3有何独特之处
基于DiT架构构建,细节更锐利,提示词还原度远超前代开源视频模型。
重构VAE带来更锐利的视频输出
LTX-2.3全面重构VAE,保留精细纹理、发丝、可读文字和清晰边缘细节。
4倍文本连接器精准理解复杂提示词
LTX-2.3文本连接器扩大四倍,多主体场景和风格指令的理解精度大幅提升。
LTX-2.3核心功能
从文本生成视频到原生竖屏的完整多模态AI视频创作管线。
文本生成视频
用自然语言描述场景,LTX-2.3即可生成流畅运动和逼真光影的电影级视频。
图片转视频
上传静态图片,LTX-2.3将其转化为具有自然镜头运动的动态视频片段。
音频同步视频
输入音频轨道,LTX-2.3生成与节拍和对话时序精确同步的视觉内容。
原生竖屏视频 9:16
LTX-2.3原生1080x1920竖屏输出,专为抖音和Reels训练,非裁切而来。
最高4K 50帧
LTX-2.3支持最高4K分辨率,帧率可选24、25、48或50fps。
开源免费使用
模型权重在Hugging Face开源,年收入低于千万美元可免费商用。
LTX-2.3应用场景
覆盖从社交媒体到影视前期制作的多种专业工作流。
社交媒体内容创作
利用LTX-2.3为抖音和Reels生成短视频,快速产出变体用于测试。
营销与电商视频
通过LTX-2.3制作品牌一致的产品演示视频,规模化输出营销素材。
影视预可视化
使用LTX-2.3在实拍前测试镜头角度和视觉效果,高效创建分镜动态。
教育培训内容
借助LTX-2.3将教案转化为生动的视频内容,可视化呈现复杂概念。
如何使用LTX-2.3
三步创建AI视频,无需剪辑技能即可上手。
输入提示词
用自然语言描述想要的视频内容,或上传图片、视频作为LTX-2.3的创意参考。
选择参数
设置视频时长、画面比例和输出质量,匹配目标平台需求。
生成并下载
点击生成,LTX-2.3稍等片刻即可输出高清视频,直接发布或继续编辑。
LTX-2.3与其他模型对比
开源视频平台与主流AI视频模型的核心能力对比一览。
LTX-2.3 vs Sora 2
Sora 2专注物理模拟生成最长20秒片段,本模型以开源优势和原生音频同步提供同等画质且无需订阅。
LTX-2.3 vs Veo 3.1
Veo 3.1面向4K广播级输出,本模型同样支持原生4K 50fps,并提供完整开源和LoRA微调。
LTX-2.3 vs Kling 3.0
Kling 3.0以自然运动见长,本模型提供更广分辨率支持和开源权重,支持本地部署与自定义。
为何选择LTX-2.3
该模型扩散Transformer在H100上比同类快18倍,结合多模态输入和专业画质,人人可用。
常见问题
关于LTX-2.3视频生成模型的功能、获取方式和技术细节。
LTX-2.3是Lightricks最新的开源AI视频模型,基于DiT架构,约220亿参数,支持文本、图片或音频输入生成最高4K 50fps的视频。
LTX-2.3重构了VAE、扩大了4倍文本连接器、改进了图生视频和音频同步质量。
支持文本生成视频、图片生成视频、音频同步视频和视频转视频。
输出1080p、1440p和4K,帧率可选24、25、48或50fps,支持横屏和原生竖屏。
模型在Hugging Face开源,年收入低于千万美元可免费商用,新用户注册即赠积分。
可以。Lightricks提供bf16和fp8量化权重,支持ComfyUI和桌面端本地运行。
内置音频生成子网络,可同步生成环境音效、对话和音乐。
在H100上比WAN 2.2快18倍,提供快速和专业两种生成模式。
支持。可通过LoRA进行个性化风格适配,旧版LoRA需重新训练。
可在本平台免费体验,也可通过API、Hugging Face、ComfyUI或桌面端使用。
