
LFM2-24B‑A2B是LiquidAI正式发布的LFM2家族中规模最大的早期模型,采用稀疏混合专家架构,在端侧高性能大模型落地上实现关键突破。模型总参数达240亿,但推理时每个Token仅激活20亿参数,可完美运行在32GB内存的消费级设备上,让高性能大模型真正走向端侧部署。

Grok 4.20是马斯克旗下xAI推出的新一代多智能体AI系统,核心搭载革命性「四Agent协作架构」,内置队长Grok、研究专家Harper、逻辑专家Benjamin及创意专家Lucas四大专业化智能体。

JoyAI-LLM-Flash是京东开源的中型指令大模型,模型创新性引入FiberPO优化框架——首次将纤维丛理论应用于强化学习,结合Muon优化器完成SFT、DPO及RL全阶段训练;同时搭载稠密多Token预测(MTP)技术,吞吐量较非MTP版本提升1.3-1.7倍。

JoyAI-LLM-Flash是京东在Hugging Face正式开源的最新大语言模型,该模型采用混合专家(MoE)架构,总参数达480亿,而每次推理仅激活30亿参数,既能保持强大的模型能力,又能显著降低计算开销。

Ovis2.6-30B-A3B核心升级为MoE架构,实现300亿总参数与仅30亿激活参数的平衡,兼顾大模型能力与小模型推理成本;MoE架构提效降本、64K长上下文+高清图像处理、主动式图像思考、强化的OCR/文档/图表理解。

Intern-S1-Pro是上海AI实验室开源的万亿参数科学多模态大模型,采用MoE混合专家架构,基于「通专融合」SAGE技术打造。模型通过傅里叶位置编码与重构时序编码器赋予独特「物理直觉」,可统一理解从微观生命信号到宏观宇宙波动的全尺度科学数据。
