⌁
ESC
⌁
Posts Shorts Projects Badge Life
ESC
EN
Posts Shorts Projects Badge Life
EN
Account:
Tags / #inference

#inference

2 posts
March 23, 2026
March 23, 2026
March 23, 2026
March 23, 2026
Flash-MoE:397B MoE 模型在消费级笔记本上的系统级实现与范式启示

Flash MoE:把 397B MoE 真正跑进消费级笔记本,意味着“大模型本地化”开始从演示走向系统工程 核心解读 今天最值得 llmapis.com 发布的 AI 项目之一,不是又一个 Agent 套壳,也不是老牌框架的新一轮流量回潮,而是一个非常硬核、也非常有信息增量的系统项目: Flash MoE 。如果只看

moelocal-llminferencemetalapple-siliconquantizationssd-streamingsystemsqwenedge-ai
March 22, 2026
March 22, 2026
March 22, 2026
March 22, 2026
vLLM-Omni:统一异构多模态推理底座的技术解读与工程价值

vLLM Omni:多模态模型服务,正在从“单模型推理”升级为“统一异构执行系统” 核心解读 今天 GitHub Trending 上真正值得 llmapis.com 关注的项目之一,是 vLLM Omni 。如果只看仓库标题,它像是 vLLM 的一个多模态扩展;但从系统设计上看,它代表的其实是一个更关键的行业转向:

multimodalinferenceservingvllmdiffusiondistributed-systemsinfrastructure
Previous
1
Next
Readme Posts Shorts Projects Tags
© 2026 LLMAPIS. ALL RIGHTS RESERVED. DESIGNED WITH CODE & TEA