Skill flagged — suspicious patterns detected

ClawHub Security flagged this skill as suspicious. Review the scan results before using.

Tender Analysis System

v1.0.0

自动化抓取并智能分析各行业招标信息,生成多维度结构化标书风险与付款方式分析报告。

0· 86·1 current·1 all-time

Install

OpenClaw Prompt Flow

Install with OpenClaw

Best for remote or guided setup. Copy the exact prompt, then paste it into OpenClaw for ylbwjf/tender-analysis-system.

Previewing Install & Setup.
Prompt PreviewInstall & Setup
Install the skill "Tender Analysis System" (ylbwjf/tender-analysis-system) from ClawHub.
Skill page: https://clawhub.ai/ylbwjf/tender-analysis-system
Keep the work scoped to this skill only.
After install, inspect the skill metadata and help me finish setup.
Use only the metadata you can verify from ClawHub; do not invent missing requirements.
Ask before making any broader environment changes.

Command Line

CLI Commands

Use the direct CLI path if you want to install manually and keep every step visible.

OpenClaw CLI

Bare skill slug

openclaw skills install tender-analysis-system

ClawHub CLI

Package manager switcher

npx clawhub@latest install tender-analysis-system
Security Scan
VirusTotalVirusTotal
Suspicious
View report →
OpenClawOpenClaw
Suspicious
medium confidence
!
Purpose & Capability
SKILL.md and README describe automated hourly scraping of many external sites and LLM-based deep analysis. The repository contains a reporter and DB helper but no implemented scraping/crawl logic or push implementation; requests is imported but not used for crawling. That means the declared purpose (automated scraping + analysis) is not implemented by the code as-is — a notable mismatch.
Instruction Scope
Runtime instructions and scripts (run.sh, cron_setup.sh, SKILL.md) limit actions to installing dependencies, running the analyzer, and scheduling cron jobs. The SKILL.md asks users to configure API keys/webhooks in config.yaml; there are no instructions to read unrelated system files. However, SKILL.md expects LLM integration and push channels that would require network access and credentials provided in config.yaml.
Install Mechanism
There is no packaged install step; run.sh performs a pip install of small, common packages (pyyaml, requests). No downloads from external arbitrary URLs or archive extraction are present. This is low-to-moderate install risk.
!
Credentials
The project does not declare required environment variables, yet config.yaml contains fields for LLM api_key, Feishu webhook, and SMTP credentials (including a pre-filled username). These credentials are expected to be stored in plaintext in config.yaml rather than environment variables, increasing risk of accidental leakage. No unrelated high-privilege credentials are requested, but plaintext credential storage is disproportionate and risky.
Persistence & Privilege
cron_setup.sh will add crontab entries to run the script hourly and every 2 hours for reports. Scheduling itself is reasonable for a monitoring tool, but it modifies the user's crontab (persistence) and will run periodically if the user executes that script — users should be aware and review before running.
What to consider before installing
This package looks like a template for a tender-scraping and analysis system but the actual crawling and push logic are missing. Before installing or running: 1) Don't place secrets (LLM API keys, SMTP passwords, webhook URLs) in config.yaml on shared machines — prefer environment variables or a secure secret store. 2) Inspect and, if needed, implement or review any scraping code to ensure it follows robots.txt and legal constraints; the current code does not perform scraping. 3) Review cron_setup.sh before running — it will modify your crontab and create persistent scheduled jobs. 4) If you plan to enable push notifications (Feishu/SMTP) verify webhook URLs and SMTP credentials and test in an isolated environment. 5) If you need the described scraping features, request or implement the missing network/crawl modules and re-audit them for unexpected endpoints or data exfiltration.

Like a lobster shell, security has layers — review code before you run it.

latestvk9745h1sde2mhpq3ca10wvrdex8454wp
86downloads
0stars
1versions
Updated 3w ago
v1.0.0
MIT-0

标书分析助手 - Tender Analysis Assistant

系统概述

自动化抓取金融、政府、运营商、交通、大型央企等领域的招标信息,智能分析标书内容,按维度生成结构化分析报告。

核心功能模块

1. 数据采集层

监控的招标网站类型

类型代表网站更新频率
政府采购中国政府采购网、各省市政府采购网每小时
金融招标中国招标投标公共服务平台、各大银行采购平台每小时
运营商中国移动/联通/电信采购与招标网每小时
交通基建中国招标投标公共服务平台、各省交通厅每小时
央企采购央企阳光采购平台、各央企电子招标平台每小时
综合平台千里马、剑鱼标讯、比地招标网每小时

数据抓取策略

  • 使用 RSS/API 优先,网页抓取兜底
  • 关键词过滤:IT、信息化、数字化、系统集成、软件开发、硬件采购、服务外包
  • 金额阈值:根据类型设定(如政府>100万,金融>500万等)
  • 去重机制:基于项目编号+标题哈希

2. 智能分析层

分析维度

A. 合同维度

  • 合同类型(固定总价/单价/成本加酬金)
  • 合同期限与续约条款
  • 违约责任与赔偿机制
  • 知识产权归属
  • 保密条款强度

B. 技术参数维度

  • 核心技术要求提取
  • 性能指标量化分析
  • 兼容性/扩展性要求
  • 安全合规要求(等保、密评等)
  • 与行业标准的符合度

C. 付款方式维度

  • 付款节奏(预付款/进度款/验收款/质保金比例)
  • 付款条件与里程碑
  • 质保金比例与释放条件
  • 逾期付款条款
  • 资金占用成本估算

D. 评标办法维度

  • 评标方法(综合评分法/最低评标价法)
  • 分值分布(技术/商务/价格权重)
  • 资格门槛要求
  • 加分项与扣分项
  • 废标条款风险点

E. 其他关键维度

  • 交付周期合理性
  • 售后服务要求
  • 培训与文档要求
  • 投标人资质门槛
  • 历史中标价格参考

3. 报告生成层

报告模板

# 标书分析报告 - [项目名称]

## 📋 基本信息
- 项目编号:
- 招标单位:
- 预算金额:
- 投标截止:
- 信息来源:

## 💰 付款方式分析
| 阶段 | 比例 | 条件 | 风险评估 |
|------|------|------|----------|
| 预付款 |  |  |  |
| 进度款 |  |  |  |
| 验收款 |  |  |  |
| 质保金 |  |  |  |

**资金占用成本估算**:
**付款风险评级**:⭐⭐⭐⭐⭐

## 📊 评标办法分析
- 评标方法:
- 技术分权重:
- 商务分权重:
- 价格分权重:
- 关键加分项:
- 废标风险点:

## ⚙️ 技术参数要点
- 核心技术要求:
- 性能指标:
- 合规要求:
- 技术难度评估:

## 📄 合同条款风险
- 高风险条款:
- 建议关注点:

## 🎯 投标建议
- 机会评估:
- 风险提示:
- 策略建议:

4. 定时汇报机制

汇报频率

  • 实时推送:高价值项目(金额>1000万)立即推送
  • 每小时汇总:一般项目每小时生成简报
  • 重点汇报:每1-2小时向用户汇报进展

汇报内容

  1. 新增标书数量(按类型统计)
  2. 高价值项目TOP5(金额、行业、截止日期)
  3. 紧急项目提醒(24-48小时内截止)
  4. 重点分析摘要(已完成的深度分析报告)

技术架构

┌─────────────────────────────────────────────────────────┐
│                    标书分析助手系统                      │
├─────────────────────────────────────────────────────────┤
│  数据采集层  │  智能分析层  │  报告生成层  │  推送层   │
├─────────────┼─────────────┼─────────────┼───────────┤
│ • RSS订阅   │ • LLM解析   │ • 模板渲染  │ • 飞书   │
│ • API调用   │ • 规则引擎  │ • 数据聚合  │ • 邮件   │
│ • 网页抓取  │ • 知识库    │ • 可视化    │ • 微信   │
│ • 去重存储  │ • 风险评分  │ • 导出PDF   │ • 钉钉   │
└─────────────┴─────────────┴─────────────┴───────────┘

数据源配置

推荐监控的网站列表

政府采购类

  1. 中国政府采购网 (ccgp.gov.cn)
  2. 中国招标投标公共服务平台 (cebpubservice.com)
  3. 各省级政府采购网

金融类

  1. 各大银行采购平台(工行、农行、中行、建行、招行等)
  2. 保险公司采购平台
  3. 证券公司采购公告

运营商类

  1. 中国移动采购与招标网 (b2b.10086.cn)
  2. 中国联通采购与招标网 (chinaunicombidding.cn)
  3. 中国电信阳光采购网 (chinatelecom.com.cn)

交通类

  1. 中国招标投标公共服务平台
  2. 各省交通运输厅招标公告
  3. 铁路局采购平台
  4. 机场集团采购平台

央企类

  1. 央企阳光采购平台
  2. 国家电网电子商务平台
  3. 南方电网采购平台
  4. 中石油/中石化采购平台

第三方平台(付费/免费)

  1. 千里马招标网
  2. 剑鱼标讯
  3. 比地招标网
  4. 乙方宝

实施建议

阶段一:基础搭建(1-2天)

  1. 配置数据源RSS/API
  2. 搭建基础抓取框架
  3. 实现去重存储

阶段二:分析能力(2-3天)

  1. 接入LLM进行标书解析
  2. 构建分析维度规则
  3. 生成结构化报告

阶段三:自动化(1-2天)

  1. 配置定时任务
  2. 搭建推送机制
  3. 优化汇报模板

阶段四:优化迭代(持续)

  1. 根据反馈调整分析维度
  2. 扩充数据源
  3. 优化风险评分模型

风险提示

  1. 数据合规:遵守各网站的robots协议和使用条款
  2. 抓取频率:避免过高频率导致IP被封
  3. 数据准确性:自动分析结果需人工复核
  4. 时效性:招标信息变化快,需及时更新

预期产出

每小时自动产出:

  • 新增标书清单(按行业分类)
  • 高价值项目TOP榜
  • 重点标书深度分析报告
  • 紧急截止提醒

Comments

Loading comments...