
InfinityStar是字节跳动推出的高效视频生成模型,该模型支持文本到图像、文本到视频、图像到视频及长时间交互视频合成等多类任务,且所有代码与模型均已开源。

Ouro是字节跳动Seed团队联合多家机构研发的循环语言模型,其名称源自象征循环与自迭代的“衔尾蛇”。该模型突破传统语言模型“预训练+微调”的能力构建范式,通过在潜在空间的迭代计算,将推理能力直接融入预训练阶段。

Seed3D 1.0是字节跳动Seed团队研发的3D生成大模型,支持从单张图像直接生成高精度3D模型,凭借高保真资产生成、物理引擎深度兼容、可扩展场景组合三大核心优势,为3D内容生产、物理仿真、具身智能训练等领域提供高效解决方案。

豆包语音2.0是字节跳动推出的升级版AI语音模型,该模型包含三大核心组件:Doubao-Seed-ASR-2.0、Doubao-Seed-TTS 2.0和Doubao-Seed-ICL 2.0,从“听得准、说得好、仿得像”三大维度全面升级。

Mini-o3在VisualProbe、V* Bench等多个权威视觉搜索基准测试中斩获SOTA(State-of-the-Art)性能,全套代码、预训练模型及数据集已完全开源,为全球研究者提供可复现、可拓展的技术底座。

Doubao-Seed-Translation是字节跳动团队研发的先进多语言翻译模型,支持28种语言双向互译,覆盖中英、日韩、德法等主流语种,凭借卓越的翻译性能,成为跨语言沟通的高效助手。

MagicEdit是字节跳动推出的一款智能视频编辑工具,核心技术亮点在于精准区分视频的外观与动作特征,实现高保真度、时间连贯性的视频编辑,让用户对视频内容和流畅度的控制达到更精细的级别。

DiffusionGPT是字节跳动研发的大语言模型驱动型文本生成图像多合一系统,核心目标是精准解析各类文本提示,智能匹配最优图像生成模型,输出高质量、高契合度的图像内容。

HiDiffusion是字节跳动研究团队研发的突破性扩散模型优化工具,无需额外训练,仅需一行代码,即可大幅提升Stable Diffusion(SD)系列模型的图像生成效率与画质。

BuboGPT是字节跳动推出的先进多模态大型语言模型,核心能力在于整合文本、图像、音频三类输入信息,并具备独有的回复与视觉对象精准对接能力,可高效处理对齐或非对齐的任意图像-音频数据,展现出卓越的跨模态对话与理解性能。

DLCM(动态大概念模型)是字节跳动 Seed 团队推出的新型大语言模型架构,核心突破在于将模型推理单位从传统的 token(词)层级,升级至concept(概念)层级。

StoryMem是字节跳动与南洋理工大学联合研发的开源多镜头视频生成框架,核心解决AI视频生成领域长期存在的跨镜头一致性痛点。它创新性地引入显式视觉记忆机制,将传统单镜头视频扩散模型升级为专业多镜头叙事工具;
Loopy是由字节跳动和浙江大学的研究团队共同开发的端到端音频驱动的肖像视频生成模型。它通过音频信号生成动态的肖像视频,能够实现音频与视觉内容的同步。

OmniHuman是字节跳动推出的端到端多模态数字人视频生成框架,上传1张静态照片+音频即可实时合成高自然度说话唱歌视频,支持全身、半身、卡通任意比例输入,口型误差

PhotoDoodle通过其创新的“位置编码克隆”技术和两阶段训练策略,为图像编辑领域带来了新的突破。它不仅能够高效地学习和复制艺术风格,还能在保持背景一致性的前提下,精准地添加装饰元素,为创意表达开辟了全新的可能性。
