web建站教程
     
  1. 首页
  2. 前端UI组件库
  3. AI项目和框架
  4. AIGC工具
  5. 百度echarts
  6. 地图大全
  7. 前端知识
  8. 更多
    vuejs
    js入门
    php入门
    mysql
    wordpress
    织梦cms
    帝国cms
    git教程
    IT知识
    模板大全
    休息站
    AI应用

MoE架构

LFM2-24B-A2B模型使用入口,LiquidAI正式发布的LFM2家族模型
LFM2-24B-A2B模型使用入口,LiquidAI正式发布的LFM2家族模型

LFM2-24B‑A2B是LiquidAI正式发布的LFM2家族中规模最大的早期模型,采用稀疏混合专家架构,在端侧高性能大模型落地上实现关键突破。模型总参数达240亿,但推理时每个Token仅激活20亿参数,可完美运行在32GB内存的消费级设备上,让高性能大模型真正走向端侧部署。

AI混合专家大模型MoE架构
Grok 4.20模型使用入口,采用约3T参数的MoE架构,支持256K tokens超长上下文窗口
Grok 4.20模型使用入口,采用约3T参数的MoE架构,支持256K tokens超长上下文窗口

Grok 4.20是马斯克旗下xAI推出的新一代多智能体AI系统,核心搭载革命性「四Agent协作架构」,内置队长Grok、研究专家Harper、逻辑专家Benjamin及创意专家Lucas四大专业化智能体。

MoE架构xAI公司多智能体框架智能体AI模型
JoyAI-LLM-Flash模型官网入口,京东开源的中型指令大模型
JoyAI-LLM-Flash模型官网入口,京东开源的中型指令大模型

JoyAI-LLM-Flash是京东开源的中型指令大模型,模型创新性引入FiberPO优化框架——首次将纤维丛理论应用于强化学习,结合Muon优化器完成SFT、DPO及RL全阶段训练;同时搭载稠密多Token预测(MTP)技术,吞吐量较非MTP版本提升1.3-1.7倍。

AI混合专家大模型MoE架构京东框架
JoyAI-LLM-Flash模型使用入口,京东AI开源的最新大语言模型
JoyAI-LLM-Flash模型使用入口,京东AI开源的最新大语言模型

JoyAI-LLM-Flash是京东在Hugging Face正式开源的最新大语言模型,该模型采用混合专家(MoE)架构,总参数达480亿,而每次推理仅激活30亿参数,既能保持强大的模型能力,又能显著降低计算开销。

HuggingFace模型库MoE架构京东框架
Ovis2.6-30B-A3B模型使用入口,阿里国际Ovis系列多模态大语言模型
Ovis2.6-30B-A3B模型使用入口,阿里国际Ovis系列多模态大语言模型

Ovis2.6-30B-A3B核心升级为MoE架构,实现300亿总参数与仅30亿激活参数的平衡,兼顾大模型能力与小模型推理成本;MoE架构提效降本、64K长上下文+高清图像处理、主动式图像思考、强化的OCR/文档/图表理解。

AI多模态模型HuggingFace模型库MoE架构Ovis系列阿里国际
Intern-S1-Pro:上海AI实验室开源的万亿参数科学多模态大模型
Intern-S1-Pro:上海AI实验室开源的万亿参数科学多模态大模型

Intern-S1-Pro是上海AI实验室开源的万亿参数科学多模态大模型,采用MoE混合专家架构,基于「通专融合」SAGE技术打造。模型通过傅里叶位置编码与重构时序编码器赋予独特「物理直觉」,可统一理解从微观生命信号到宏观宇宙波动的全尺度科学数据。

MoE架构上海AI实验室多模态AI模型
Trae:新一代免费的AI编程工具