Install
openclaw skills install generate-model-ready-test-cases-cn生成标准化、模型可直接消费的自动化测试用例 JSON 套件。用于 Codex 需要根据需求文档、原型图、页面说明、接口文档、用户故事、缺陷描述或自然语言需求,产出可直接交给其他模型或自动化代理执行的测试用例时;尤其适用于 Web UI、API、端到端流程、回归、冒烟和验收场景。
openclaw skills install generate-model-ready-test-cases-cn生成结构化的自动化测试用例,不生成只适合人读的松散测试点列表。默认输出单个标准 JSON 测试套件,便于后续模型直接按步骤、定位器、请求参数、断言和变量提取规则执行自动化测试。
json 代码块;除非用户要求解释,否则不要附加长篇自然语言说明。scripts/validate_test_suite_json.py <path-to-json>。按 references/test-suite-schema.md 中定义的顶层顺序输出:
suite_idsuite_titletargetassumptionsdefaultscases始终满足以下规则:
case_id,为每个步骤生成稳定的 step_id。assumptions,不要因为基础信息不完整就停住。{{env.TEST_USER}}、{{secret.LOGIN_PASSWORD}}、{{var.order_id}},不要把真实密钥写入结果。enabled: false,并在 assumptions 中写明原因。先把用户提供的材料统一整理成可生成用例的最小事实集合:
web、api、workflow、mobile 或 desktop如果材料来自多种格式,例如 PRD、Figma 文案、Swagger、curl、自然语言描述,先统一成同一份需求理解,再开始写结构化用例。
按任务类型选择步骤动作:
navigate、click、fill、select、wait、assert、extractrequest、assert、extract如果是 Web 场景,优先使用可访问性和业务语义更强的定位器,推荐顺序为:
rolelabeltestidtextcssxpath至少覆盖与任务风险匹配的以下子集:
如果用户没有指定覆盖深度,默认优先保证 P0 和 P1 的核心流程可执行,再补充关键负例;不要为了“看起来全面”而堆砌低价值用例。
为每个用例写全这些核心字段:
case_idtitleobjectiveprioritytagspreconditionstest_datastepscleanupenabled为每个步骤写全这些核心字段:
step_idactiontargetinputexpected每个 expected 都必须是结构化断言对象,不要省略成一句自然语言。
交付前逐项自检:
case_id 和 step_id 是否稳定且唯一如果结果已写入文件,运行 scripts/validate_test_suite_json.py 做结构校验。
当用户没有明确说明时,按以下策略继续,不要反复追问基础问题:
login、order、smoke、negative、regression。preconditions;只有确实需要运行时提取,才使用 extract 和 {{var.xxx}}。在生成或修复 JSON 测试套件前加载它。它定义了字段、动作枚举、断言枚举、占位符规则和标准样例。
在你需要从需求、页面、接口或缺陷描述推导覆盖范围时加载它。它用于帮助你把输入材料转换成更稳、更适合自动化执行的测试用例。
在测试套件已经落成文件时运行它,快速检查 JSON 是否符合此 skill 的标准结构。
assumptions。