📰 来源: 博客园
话接上回,中医游戏第一版惨遭滑铁卢。
我把90%的锅扔给了"需求定义不清楚",但万万没想到跨过需求的坑,就跳进UI的坑,出了UI的坑又进入测试的坑,总之是花式踩坑。当前项目代码在这里tcm_odssey
因为把大量时间花在了UI和地图上,导致这周还没做到最核心的对话环节。
目前只是有了:
✅ youxiyindaohe
✅ 外景地图
✅ 药园和诊所两个核心内景
✅ 问诊、煎药、配伍的小游戏壳子
✅ 让玩家走起来了(请先忽略人在房檐上走这件事……毕竟我主机装不了TileMap Editor,除了Linux Shell啥也用不了)
小游戏、NPC对话啥的都还在doing中
药园后续是"种田玩法",用于种植植物类药物,以及收集从秘境探索回来的动物、金石类药物。
NPC会教授玩家药物炮制技术,玩家需要学习药物的四气五味、升降浮沉才能解锁种子。
诊所(问诊+配伍+煎药)
诊所后续会做三个小游戏:问诊、配伍、煎药一条龙服务。同时中医npc会拥有Agent内核,可以自主教授玩家方剂和内科知识。
诊所地图需要无限扩展,每个诊所NPC只教授一类知识,学完就能解锁下一个诊所。
第一部分:需求澄清——这次终于学聪明了
【Brainstorming/grill】不要上来就写计划,先让AI主动刨根问底质疑一切
为什么你的方案AI执行起来总是错误百出?
或许因为你的方案本身就存在很多可以卡的Bug。
说白了,需求没有被完全澄清,所以AI在所有不完整的需求中,自己YY了一部分。
而这个问题可以通过superpowers:brainstorming 技能缓解,它会先了解你的需求,然后ask question one by one,进行需求澄清。
并且在brainstorming阶段,你可以适当引导模型通过视觉HTML直观展现方案对比——在很多前端设计的决策上,视觉效果比文字效果直观太多。
有了brainstorm进行需求澄清之后,我成功拥有了比之前丰富、详细N个数量级的设计文档。
然后再用superpowers:writing-plans技能,把已有的设计文档按phase进行工作拆解——这一步才是是大家经常使用的 /plan 功能在做的事情
整个项目文字最多的不是代码,而是设计文档和规划文档。
这一次有了详尽的设计文档和细分的任务计划,直到phase1执行完,我打开浏览器验收一切都非常顺利和丝滑。
对需求花了很久,代码只写了2个小时。
而我万万没想到,迈过"需求设计"的坑之后,还有更大的"UI设计"的坑在等着我。
第二部分:开发环节——技能解锁指南
在这个项目开发过程中,我陆续解锁了superpowers和everything-claude-code的多个技能。
而且你会发现,每个优秀的技能,其实都是在日常观测到模型Failure、Diverge的模式后,持续总结迭代出来的。
【search-first】调研先行,别平地起高楼
多数情况下,在需求阶段单独使用 /brainstorming 已经足够。
但其实在测试计划澄清、开发计划澄清上,也可以引入 /brainstorming 来帮你反复推敲:当前技术方案是否足够全面、合理。
但有时候,受限于模型本身的知识粒度(压缩后的知识更侧重High-Level的技术实现),模型在给出技术方案时,更倾向于平地起高楼的纯手搓方式。
但其实很多时候,在某些开源方案、已有技术上二开,往往能节约很多时间,少走很多弯路。
这时候我推荐 everything-claude-code:search_first,技能包括根据不同问题,分别去搜索github、mcp、skill、npm包等资源,尝试找到已有的解决方案。
【sysmetatic-debugging】盲目修复是浪费时间的
当发现bug时,模型多数情况下第一反应是猜测问题、盲目尝试修复。
然后反复失败,或者看起来问题解决了,但实际上引入了硬编码、补丁式修复等各类其他问题。
最开始我在CLAUDE.md中补充了简单的问题排查规则,后面发现 superpowers:/systematic-debugging 已经提供了相对全面的技能解决方案。它采用了4步问题修复法:
但奈何该技能自动触发概率属实不高。很多时候我一个没看见,AI就已经开始无脑修复问题了。所以我在 CLAUDE.md 中增加了直接的技能引用,并补充了问题记录。
尤其在游戏场景,AI会反复陷入同一个问题,每次都要重新进行修复。所以记录问题修复也很重要。
【interleave thinking】复杂问题多思考
虽然当前模型都已支持在工具调用之前
进行思考,但其实大家都能观测到:
在生成最终答案之前和工具调用之前,模型的thinking effort是显著不同的。
那如何动态、在必要时刻提升模型的思考level呢?
其实plan、brainstorming、write-plan这些技能都能提供类似的效果,因为它们强制模型只使用非Coding之外的工具——也就是在执行之前先用更多token进行思考。
但设计都有些重,所以放到整个开发链路中并不太合适。
而 sequential thinking 或者 interleaving thinking 相关的技能,都能提供更轻量化、穿插在工具调用中的深度思考能力。

【refactor-leaner】时刻保持工作区整洁
每个大的task开始或结束,请对当前工作区进行必要清理。不要小看这个看起来只属于强迫症和洁癖的技能。
因为很多次任务中间走偏,竟然是因为用错了测试脚本,或者模型找错了设计文档。
所以保留唯一可用真相,删除所有临时脚本和文档,是非常重要的。
最开始我尝试了everything-claude-code:refactor-cleaner,不过主要针对脚本类文件。
后面我在此基础上补充了一个clean-workspace技能,来补充进行文档和其他测试类脚本的清理,无他一个干净的工作区真的太重要了。

第三部分: 测试和问题修复
上一版虽然我意识到了测试的重要性,但我给出的指令,仅仅是:
"请根据当前phase1的开发范围,设计必要的功能测试、端到端测试。"
然后模型也会象征性地给你一份很丰富的测试规划。但很多次,模型全面测试通过后,一打开网页——崩溃了、黑屏了、啥也没有了。
于是我开始在一次次崩溃后复盘:
为何测试了但还是不能用?是测试时AI撒谎了,测试不全面,还是怎样?
后来发现,最严重的测试问题就是这几类:
<
🔗 原文链接: 点击阅读原文
文章评论