AI 助手

智谱 Coding Plan × Oh My OpenCode:多模型编排配置实战

为什么折腾这个 用 AI 写代码这事儿,单模型和多人模型的差距越来越大。一个模型再强,也干不过一组各司其职的模型并行推进。 Oh My OpenCode(下文简称 OmO)是 OpenCode 生态里的多模型编排插件,11 个 Agent 各有分工,48 个 Hook 贯穿整个生命周期。智谱的 Coding Plan 则提供了 GLM 全系列的模型访问。两者搭配起来,就能按角色分配不同的模型——编码强的干编码,推理强的干推理,免费的干杂活。

Continue reading →

国产大模型资源与成本对比:GLM-5 / Kimi K2.5 / MiniMax M2.7

概览 本文对比三款主流国产大模型的资源需求与使用成本,帮助开发者根据场景选择合适的方案。 模型 厂商 架构 最低可部署显存 API 是否可用 GLM-5 智谱AI Dense(多版本) 24GB(8B) ✅ Kimi K2.5 月之暗面 MoE(未公开) 24GB(轻量版) ✅ MiniMax M2.7 MiniMax MoE 2300亿 暂未开源 ✅ GLM-5(智谱AI) 版本与硬件需求 GLM-5 提供 4 个参数版本,是目前覆盖范围最广的国产大模型。

Continue reading →