给博客换了个主题:从 Hugo NexT 到自写的 Zhi
为什么换 这个博客之前用的 Hugo NexT,fork 了一份自己做修改。NexT 本身是个功能很全的主题,但在"自己改"这件事上,体验不太行。
Continue reading →为什么换 这个博客之前用的 Hugo NexT,fork 了一份自己做修改。NexT 本身是个功能很全的主题,但在"自己改"这件事上,体验不太行。
Continue reading →为什么折腾这个 用 AI 写代码这事儿,单模型和多人模型的差距越来越大。一个模型再强,也干不过一组各司其职的模型并行推进。 Oh My OpenCode(下文简称 OmO)是 OpenCode 生态里的多模型编排插件,11 个 Agent 各有分工,48 个 Hook 贯穿整个生命周期。智谱的 Coding Plan 则提供了 GLM 全系列的模型访问。两者搭配起来,就能按角色分配不同的模型——编码强的干编码,推理强的干推理,免费的干杂活。
Continue reading →概览 本文对比三款主流国产大模型的资源需求与使用成本,帮助开发者根据场景选择合适的方案。 模型 厂商 架构 最低可部署显存 API 是否可用 GLM-5 智谱AI Dense(多版本) 24GB(8B) ✅ Kimi K2.5 月之暗面 MoE(未公开) 24GB(轻量版) ✅ MiniMax M2.7 MiniMax MoE 2300亿 暂未开源 ✅ GLM-5(智谱AI) 版本与硬件需求 GLM-5 提供 4 个参数版本,是目前覆盖范围最广的国产大模型。
Continue reading →