
Seedance 2 是字节跳动重磅推出的多模态AI视频生成模型,模型支持图像、视频、音频、文本多模态输入,可通过自然语言描述精准参考任意内容,其核心价值在于打破传统视频创作的技术壁垒,为创作者提供精确运动复制、高度统一视觉风格的创作工具,助力从创意构思到成品输出的全流程高效落地。

Seedance 2.0是一款新一代AI视频生成模型,模型支持首尾帧、视频片段、音频多维度综合参考,可精准复刻运镜逻辑、动作细节与音乐氛围,生成效率高效,15秒视频约消耗30积分。

HunyuanCustom是一款多模态定制视频生成框架,可根据用户自定义条件,精准生成特定主题的定制化视频。该框架在人物身份一致性上表现突出,全面支持文本、图像、音频、视频多模态输入,适配虚拟人广告制作、个性化视频编辑等多元应用场景,为创作者提供高效的视频定制解决方案。

Luma Ray3AI是由Luma Ray3打造的全球首个具备推理能力的视频模型,可通过智能思考、规划创作专业级视频内容,搭载原生HDR生成、智能草稿模式等核心能力,能深度理解创作需求、快速完成内容迭代。
Lucy 2.0能有效校正长期运行中的质量漂移问题,实现数小时不间断的连贯生成。针对AWS Trainium3硬件深度优化后,模型可广泛应用于实时角色替换、虚拟试装等视觉特效场景,同时为机器人训练提供物理一致的实时数据增强与模拟环境。

Veo 3.2是一款增强型AI视频生成模型,该模型凭借角色与场景一致性、原生竖屏支持、4K超分等核心优势,大幅降低专业视频制作门槛,无论是业余爱好者还是专业创作者,都能高效实现创意落地。

LTX-2是Lightricks研发的先进AI视频生成模型,专为专业级高质量视频创作打造。该模型可原生输出4K分辨率、50fps帧率的电影级视频,支持文字、图片、草图多模态输入,并提供镜头角度、物体动作、时间节奏等精细化控制能力。

LongCat-Video是美团LongCat团队研发的136亿参数开源AI视频生成模型,支持文本到视频(Text-to-Video)、图像到视频(Image-to-Video)及视频续写(Video-Continuation)全任务流程,核心优势在于高效生成高质量长视频。

Veo 3.1是谷歌推出的旗舰级AI视频生成模型,支持文本提示、图像、视频片段等多模态输入,可直接生成720P、1080P乃至4K高清视频,让用户在生成阶段即可完成音画同步的完整创作,无需额外后期处理。

通义万相2.6是阿里云推出的最新一代AI视频与图像生成模型,于2026年1月正式发布。作为通义万相模型家族的最新版本,它在视频生成和图像创作方面实现了重大突破,是国内首个支持角色扮演功能的视频模型。

Sora 2是OpenAI推出的新一代AI音视频生成模型,该模型实现三大核心技术突破:依托多模态联合训练,首次达成环境音效与画面动态的实时同步生成。
Loopy是由字节跳动和浙江大学的研究团队共同开发的端到端音频驱动的肖像视频生成模型。它通过音频信号生成动态的肖像视频,能够实现音频与视觉内容的同步。

Tellers.ai能够将任何文本、文章或故事快速转化为引人入胜的视频。用户只需提供文章或脚本,选择来源素材,系统即可在几秒钟内生成自动生成的视频。

通义万相2.2是一个功能强大且用户友好的AI视频生成平台,特别适合需要快速生成高质量视频内容的用户。它通过引入混合专家架构、电影级美学、复杂运动生成和高效高清混合TI2V等创新技术,显著提升了视频生成的质量和效率。
