Install
openclaw skills install gzh-prohibited-word基于官方违禁词库实时同步,覆盖广告法、医疗美容、金融风险等10+类目,支持文本、文件、图片多形式检测,10秒内输出违禁词标红+替换建议+优化文案,帮你避开封号限流风险。
openclaw skills install gzh-prohibited-word执行完整检测、分批询问、结果版式与文件交付前,必须先读取并严格遵循同目录 references/core_workflow.md(输出模板、输出铁律、示例与注意事项全文在该文件中)。
面向需要在微信公众号场景下预审文案合规的作者与运营:一键识别违禁词、给出可替换说法,并生成仅替换违禁词后的优化稿。
通过本 Skill,你可以:
./公众号_优化文案_{随机6位数字}.txt 并以卡片发送(细则见核心文档)。适用于公众号运营、新媒体编辑、品牌内容审核等需要在发文前自查违禁表述的场景。运行依赖见 frontmatter dependency;在项目根目录执行下文命令。首次部署须配置违禁词检测 API 接入点:设置 GZH_SENSITIVE_WORD_API_HOST,或使用 GZH_SENSITIVE_WORD_API_CONFIG / scripts/gzh_sensitive_word_api.json(示例见 scripts/gzh_sensitive_word_api.example.json);详见 references/core_workflow.md「前置准备」。
scripts/check_sensitive_words.py;--content / --file / --url 三者互斥,单次只传其一;--extract-only 仅返回 content 与 length,用于长文分支判断。word_count=0)仅输出检测结果板块且不写文件(见核心文档)。打开 references/core_workflow.md,对照其中的「操作步骤」「输出模板」「输出格式铁律」「注意事项」执行,不得删减板块或跳过写文件 / 发卡片(检出违禁词时)。
| 用户给出 | 先做 |
|---|---|
| 纯文案 | 统计字符数,按 3000 / 10000 规则分支 |
| 文本文件 | python scripts/check_sensitive_words.py --file=<路径> --extract-only |
| 网页 | python scripts/check_sensitive_words.py --url=<URL> --extract-only |
| 图片 | read_image 仅取文字,再按文本流程 |
未明确是文件还是 URL 时:追问或依据附件类型判断;勿臆造路径。
python scripts/check_sensitive_words.py --content="..."(或用文件/Web 提取后的全文若 ≤3000)。分批检测时每批使用 --content="该批正文";禁止单次混传 --content 与 --file/--url。
严格使用核心文档中的三板块标题与顺序;禁止直接打印原始 JSON。word_count=0 时仅输出第一板块合规提示(见核心文档)。
检出违禁词后:生成 ./公众号_优化文案_{随机6位数字}.txt(内容与「建议优化文案」一致但去除全部 HTML),实际落盘并以文件卡片发给用户;分批时汇总全文后再写一份。
对话示例
用户:帮我看下这篇公众号草稿有没有违禁词。(粘贴 800 字) 助手:已按公众号规则检测;随后输出三板块;若有违禁词则写入
公众号_优化文案_xxxxxx.txt并发送下载卡片。
用户:这个 docx 帮我过一遍。(上传文件) 助手:先用
--file=... --extract-only取全文与 length,再按 3000/10000 规则决定是否追问 1/2/3,再检测。
| 命令示例 | 作用 |
|---|---|
python scripts/check_sensitive_words.py --content="正文" | 直接检测 ≤3000 字片段或某批正文 |
python scripts/check_sensitive_words.py --file=/path/to/a.docx --extract-only | 仅提取文本与 length |
python scripts/check_sensitive_words.py --file=/path/to/a.txt | 文件路径检测(短文本) |
python scripts/check_sensitive_words.py --url=https://example.com --extract-only | 仅抓取网页正文与 length |
python scripts/check_sensitive_words.py --url=https://example.com | URL 短正文直接检测 |
说明:--content、--file、--url 每次只用其一;检测平台在脚本内固定为公众号,不可切换。
| 场景 | 角色 | 需求描述 | 使用方式 |
|---|---|---|---|
| 发文前自检 | 公众号运营 | 避免推文因违禁词被拦或删改 | 粘贴正文或上传 DOCX;按输出调整替换;下载优化 txt |
| 落地页抽查 | 市场 / 增长 | 检查活动页文案是否踩线 | 提供 URL;--extract-only 后按字数规则检测 |
| 批量物料预审 | 新媒体编辑 | 多篇短文或单篇长文分段合规 | 长文触发 1/2/3 询问;选 2 则按 3000 字分批并汇总 txt |
| 图片海报字稿 | 设计师协作 | 图上文字需可达规 | read_image 提取字幕后按 --content 流程 |
scripts/gzh_sensitive_word_api.json),公开 Skill 包内不含第三方域名;未配置时脚本拒绝调用并返回说明,避免误连未知服务。word_count、违禁词列表或 JSON 字段。--file 文字提取路径,须 OCR 后走 --content。