Install
openclaw skills install xhs-prohibited-word当用户需要查询小红书平台违禁词、检查笔记或推广文案是否含敏感词、限流词,或希望获得标红结果、安全替换词与「仅替换违禁词后的优化文案」时使用;能力摘要:文本 / 文件 / 网页多路输入(图片需先 OCR 成文本),脚本检测与固定三板块输出,并按规范写入可下载的纯文本优化文案文件。
openclaw skills install xhs-prohibited-word需要执行完整流程(字数分界、分批询问、输出模板、文件写入与卡片发送等)时,必须先读取并严格遵守 references/core_workflow.md;本页为提纲与入口说明,不可替代该文档中的全部约束。
面向在小红书发布种草笔记、活动海报、商品详情与私域话术的创作者、品牌运营与营销同学,在投稿前快速发现平台侧敏感/违禁表述,并拿到可执行的改稿建议。
通过本 Skill,你可以:
运行依赖见 frontmatter 中的 dependency;具体脚本参数、输出铁律与异常处理以 references/core_workflow.md 为准。
--content 直传文案、--file 读本地文本类文件、--url 拉取网页正文(Playwright 优先,失败回退 urllib 静态 HTML)./小红书_优化文案_{随机6位数字}.txt 并以卡片发送(详见核心文档,含分批汇总要求)加载核心工作流
打开 references/core_workflow.md,对其中的任务目标、操作步骤、输出模板、格式铁律与注意事项全文生效,不得以「只读过 SKILL.md」为由省略分批追问、三板块格式或文件卡片发送。
判断用户给的是纯文本、文件路径、URL 还是图片。
文件 / URL 先用 --extract-only 取正文与 length(命令见下表);图片先用对话工具提取文字,再按字数规则决定是否追问分批。PDF 不支持,引导用户转为图片或文本。
严格使用核心文档中的三板块模板呈现;word_count=0 时仅输出第一板块且不写文件。有违禁词时完成优化文案文件写入与卡片发送。
用户:帮我看下这段笔记有没有违禁词:「这款美白神器真的太有效了……」 助手:已统计字数(≤3000),调用
check_sensitive_words.py --content="...";随后仅输出三板块结果,并在有需要时写入 txt 并以卡片发送。
用户:这是我的稿子文件
/path/note.docx,检查一下。 助手:先--file=... --extract-only查看 length,再按核心文档决定是直接检测还是暂停询问分批。
| 命令示例 | 功能 |
|---|---|
python scripts/check_sensitive_words.py --content="文案" | 直接检测(单次 ≤3000 字符由脚本侧校验) |
python scripts/check_sensitive_words.py --file=/path/a.txt --extract-only | 仅从文件提取全文与字数 |
python scripts/check_sensitive_words.py --url=https://example.com --extract-only | 仅从网页提取正文与字数 |
python scripts/check_sensitive_words.py --file=/path/a.docx | 从文件读入并检测(通常建议仍先 extract-only 再走字数流程) |
--content、--file、--url 三者互斥;平台固定为小红书,无需也不支持切换平台。更多说明见核心文档「资源索引」。
| 场景 | 角色 | 需求描述 | 使用方式 |
|---|---|---|---|
| 笔记发布前自检 | 创作者 | 担心文案触发审核或限流,需要具体词级提示 | 粘贴正文或上传 DOCX;按字数规则调用脚本;输出标红与替换表 |
| 营销物料合规 | 品牌运营 | 活动页、海报字多且来源杂,需统一过一遍 | 文件或 URL 提取 → 字数判断 → 分批或单次检测;汇总优化文案文件 |
| 投放脚本批量改稿 | 效果投放 | 多条卖点话术需快速扫雷并给可替换说法 | 分批 --content;每批三板块;最终合并一份 txt 随卡片下发 |
| 网页落地页抽查 | 增长 / 运营 | 需检查线上 H5/文章纯文本是否含敏感表述 | --url --extract-only 再检测;动态页依赖 Playwright,失败则静态 HTML 回退 |