
即梦AI(原名Dreamina)是由字节跳动旗下的剪映团队推出的一款一站式AI创作平台。其核心功能包括文生图(文字生成图像)、文/图生视频(文字或图片生成视频)以及智能画布等。

字节旗下AI代码助手程,国内首款原生AI IDE,它不仅提供智能代码生成、优化和调试功能,还通过多模态交互、上下文感知和跨语言支持等创新技术,帮助开发者高效完成项目开发。

Seed3D 1.0是字节跳动Seed团队研发的3D生成大模型,支持从单张图像直接生成高精度3D模型,凭借高保真资产生成、物理引擎深度兼容、可扩展场景组合三大核心优势,为3D内容生产、物理仿真、具身智能训练等领域提供高效解决方案。

Baichuan-M2 Plus是百川智能推出的循证增强医疗大模型,该模型首创六源循证推理(EAR)范式,融合PICO智能检索技术与循证强化训练机制,通过整合六层权威医疗证据,从根源上降低模型幻觉率,大幅提升回答的可信度与专业性。

豆包语音2.0是字节跳动推出的升级版AI语音模型,该模型包含三大核心组件:Doubao-Seed-ASR-2.0、Doubao-Seed-TTS 2.0和Doubao-Seed-ICL 2.0,从“听得准、说得好、仿得像”三大维度全面升级。

豆包大模型1.6 Lite是字节跳动推出的轻量级企业级人工智能模型,相较于旗舰版豆包1.6,它在保持核心能力的基础上实现了更精简的体积、更快的推理速度和更高的性价比。

RTFM是李飞飞团队研发的实时生成式世界模型,支持3D场景的实时生成与持久化用户交互。该模型摒弃传统物理渲染的复杂流程,通过学习海量视频数据中的光影、材质与空间关系,将物理渲染问题转化为数据驱动的感知问题。

Coral NPU是谷歌推出的全栈开源边缘AI计算平台,专为智能手表、AR眼镜等低功耗边缘设备打造,核心解决边缘场景下的AI性能瓶颈、硬件碎片化、用户隐私保护三大关键挑战。

PaddleOCR-VL是百度飞桨团队推出的轻量级多模态文档解析模型,参数量仅0.9B,专为低算力设备部署优化。该模型在国际权威评测OmnidocBench V1.5中以 92.6分斩获全球第一,性能超越GPT-4o等主流模型。

DeepSeek-OCR是DeepSeek团队研发的一款视觉语言模型,主打基于视觉压缩技术的长文本高效处理能力。该模型采用DeepEncoder编码器+DeepSeek3B-MoE解码器的架构,可在保留高分辨率输入信息的前提下,大幅降低激活内存占用与视觉标记数量。

MAI-Image-1是微软推出的首款自研图像生成式AI模型,专攻逼真自然光照效果与复杂场景的生成,尤其擅长还原闪电、风景等对光影细节要求极高的画面。

Youtu-Embedding是腾讯优图实验室重磅推出的开源企业级通用文本表示模型,依托大规模语料预训练与创新协同-判别式微调框架,构建起强大的语义理解能力,可一站式胜任文本检索、意图理解、相似度判断等六大核心任务。

Kandinsky 5.0是俄罗斯AI研究实验室AI-Forever研发的新一代文本到视频生成模型,兼具卓越生成质量与高效推理性能,在跨场景内容创作中展现出强劲竞争力。

FS-DFM是苹果公司联合俄亥俄州立大学研发的快速长文本生成扩散语言模型,核心突破在于将采样步数作为显式参数进行训练,实现了“少步数、高质量”的文本生成效果。

Veo 3.1是谷歌推出的旗舰级AI视频生成模型,支持文本提示、图像、视频片段等多模态输入,可直接生成720P、1080P乃至4K高清视频,让用户在生成阶段即可完成音画同步的完整创作,无需额外后期处理。

DiaMoE-TTS是清华大学与巨人网络联合研发的多方言语音合成框架,框架创新性采用国际音标统一输入体系,融合方言感知的混合专家(MoE)架构与低资源适配策略,实现低成本、低门槛的多方言语音合成。

UserLM-8b是微软重磅推出的专属用户角色模拟语言模型,该模型依托WildChat-1M等大规模真实对话数据集完成深度训练,能够精准复刻真实用户的语言风格与交互逻辑,生成高度贴近现实场景的对话内容。
