Skill flagged — suspicious patterns detected

ClawHub Security flagged this skill as suspicious. Review the scan results before using.

支持图片生成(SEEDREAM5_0/NANO_BANANA_2)和视频生成(SEEDANCE_1_5_PRO/SORA2/VEO3.1/WAN2.6),SORA2 支持文生视频和首尾帧图生视频

v1.0.7

AI 图片与视频异步生成技能,调用 AI Artist API 根据文本提示词生成图片或视频,自动轮询直到任务完成。 ⚠️ 使用前必须设置环境变量 AI_ARTIST_TOKEN 为你自己的 API Key! 获取 API Key:访问 https://ai.deepsop.com/ 注册登录后创建。 支持图片模...

0· 332·0 current·0 all-time

Install

OpenClaw Prompt Flow

Install with OpenClaw

Best for remote or guided setup. Copy the exact prompt, then paste it into OpenClaw for 2393970875/deepsop-image-video-generator.

Previewing Install & Setup.
Prompt PreviewInstall & Setup
Install the skill "支持图片生成(SEEDREAM5_0/NANO_BANANA_2)和视频生成(SEEDANCE_1_5_PRO/SORA2/VEO3.1/WAN2.6),SORA2 支持文生视频和首尾帧图生视频" (2393970875/deepsop-image-video-generator) from ClawHub.
Skill page: https://clawhub.ai/2393970875/deepsop-image-video-generator
Keep the work scoped to this skill only.
After install, inspect the skill metadata and help me finish setup.
Use only the metadata you can verify from ClawHub; do not invent missing requirements.
Ask before making any broader environment changes.

Command Line

CLI Commands

Use the direct CLI path if you want to install manually and keep every step visible.

OpenClaw CLI

Bare skill slug

openclaw skills install deepsop-image-video-generator

ClawHub CLI

Package manager switcher

npx clawhub@latest install deepsop-image-video-generator
Security Scan
Capability signals
Requires sensitive credentials
These labels describe what authority the skill may exercise. They are separate from suspicious or malicious moderation verdicts.
VirusTotalVirusTotal
Benign
View report →
OpenClawOpenClaw
Suspicious
medium confidence
!
Purpose & Capability
技能目的是通过 AI Artist API 异步生成图片/视频;脚本(scripts/generate_image.py)确实调用 https://ai.deepsop.com 的端点并实现文件上传、任务创建、轮询和下载,功能上与说明一致。但注册表元数据没有声明需要的环境变量(AI_ARTIST_TOKEN),这是不一致且容易误导用户。可选的 FEISHU_WEBHOOK_URL 也未在元数据中声明。
!
Instruction Scope
SKILL.md 与 README 指示会:读取本地参考文件并自动上传到 ai.deepsop.com、轮询任务状态、下载生成的媒体、将图片编码为 data URI/base64,以及(可选)向飞书 webhook 发送交付结果。这些行为与生成图片/视频目的有关,但文档中还引用了缺失的脚本(scripts/test_config.py、scripts/generate_video.py 等),表明说明与实际包不完全匹配。上传本地文件到第三方服务和将结果推送到用户提供的 webhook 是需要用户事先知情的敏感操作。
Install Mechanism
无安装规范(instruction-only + 包含 Python 脚本),不会在安装阶段从不可信 URL 下载或解压执行文件。风险主要来自运行时网络交互,而不是安装过程本身。
!
Credentials
脚本会强制读取环境变量 AI_ARTIST_TOKEN(且若未设置会退出),但注册表的 requires.env/primary credential 没有声明该变量,导致权限/凭据要求未被透明声明。另有可选的 FEISHU_WEBHOOK_URL 用于将结果发送到第三方端点,也未声明。除这些外,技能未请求与其目的无关的凭据(例如云管理凭据)。
Persistence & Privilege
flags 显示 always:false,技能不会强制常驻或修改其他技能/系统配置;默认的模型自动调用能力也未与其他高权限要求结合出现。
What to consider before installing
要点和建议: 1) 必须的凭据:此技能在运行时需要环境变量 AI_ARTIST_TOKEN(你的 ai.deepsop.com API Key)。注册表未声明这一点——安装前请确认你愿意将该 Key 用于此脚本。不要把与云/仓库/邮箱等无关的高权限凭据放进 AI_ARTIST_TOKEN。 2) 本地文件上传:脚本会把本地参考图/视频上传到 https://ai.deepsop.com(文件将离开你的机器并存储在提供方的 OSS/CDN)。不要上传敏感或受限制的文件。 3) 可选的外发 webhook:如果设置 FEISHU_WEBHOOK_URL,脚本会把生成结果与提示词发送到该 webhook(这会把提示词和生成链接推送到第三方)。仅在你信任接收方时启用。 4) 文档不一致:SKILL.md/README 引用了一些缺失的脚本(例如 test_config.py、generate_video.py),这表明发布包可能不完整或文档未同步。建议先打开并审查 scripts/generate_image.py 的完整源码(已包含在包内),确认行为后再运行。 5) 运行建议:在受控环境中运行(隔离环境/临时容器),先用一个专用且权限受限的 API Key 测试(不要使用敏感生产密钥),并监控网络请求。若你希望更高信任度,请联系发布者:要求在 registry metadata 中声明 AI_ARTIST_TOKEN,并修正文档中缺失或错误的脚本引用。

Like a lobster shell, security has layers — review code before you run it.

latestvk972n5dm61k74hwnprbzevw90h85f9p3
332downloads
0stars
5versions
Updated 21h ago
v1.0.7
MIT-0

AI Image Generator

异步生成 AI 图片与视频的技能。

⚠️ 首次使用必读

1. 获取 API Key

访问 https://ai.deepsop.com/ 注册并登录,然后创建你的 API Key。

2. 设置环境变量

在使用前,你必须先设置自己的 API Key:

# Linux/macOS/Git Bash (Windows)
export AI_ARTIST_TOKEN="sk-your_api_key_here"

# Windows PowerShell
$env:AI_ARTIST_TOKEN="sk-your_api_key_here"

3. 验证配置

验证配置是否正确:

python3 scripts/test_config.py

详细配置说明请查看下方"环境配置"章节。

快速开始

# 图片生成(默认 DeepSop·3.1Nano2-Evo)
python3 scripts/generate_image.py "一只可爱的猫"

# 视频生成(默认 DeepSop·V3.1FB)
python3 scripts/generate_video.py "海边日落风景"

参考图/视频上传流程

当用户提供本地文件作为参考图或参考视频时,需要先调用文件上传 API 转换为可访问的 URL:

文件上传 API

curl --location --request POST 'https://ai.deepsop.com/prod-api/system/fileUpload/upload' \
--header 'x-api-key: sk-your_api_key_here' \
--form 'file=@"C:\\Users\\admin\\Downloads\\image.png"'

返回结果:

{
  "msg": "操作成功",
  "fileName": "image.png",
  "code": 200,
  "url": "https://kocgo-ai-sales-test.oss-cn-hangzhou.aliyuncs.com/material/100/xxx.png"
}

使用上传后的 URL

获取到 url 后,可作为 firstImageUrllastImageUrlimageUrlListvideoUrlListelementList 等参数传入生成接口。

在对话中直接返回图片/视频

方式 1: Markdown 语法(推荐)

生成图片后,直接在回复中使用 Markdown 语法:

![图片描述](图片URL)
![视频描述](视频URL)

平台支持情况:

  • ✅ WebChat、Discord、Telegram:完全支持
  • ✅ 飞书:支持(需公开 URL)
  • ❌ WhatsApp:不支持

方式 2: 下载后发送(需要 message 工具)

使用 --download 参数下载媒体文件,然后通过 message 工具发送:

python3 scripts/generate_image.py "风景画" --download
python3 scripts/generate_video.py "海边" --download

比如图片生成接着在代码中读取图片并发送:

from scripts.generate_image import generate_image
import base64

result = generate_image(prompt="风景画", download=True)

if result and result["status"] == "SUCCESS":
    # 方式 A: 使用 data URI
    image_uri = result["data_uri"]  # data:image/png;base64,...
    
    # 方式 B: 读取本地文件
    with open(result["local_path"], "rb") as f:
        image_data = f.read()
        base64_data = base64.b64encode(image_data).decode()

参数说明

通用参数

参数默认值说明
prompt必填生成提示词(图片或视频描述)
--model图片: DeepSop·3.1Nano2-Evo / 视频: DeepSop·V3.1FB生成模型(详见下方模型列表)
--interval5轮询间隔(秒)
--download-下载媒体文件到本地
--output-dirworkspace/images(图片) / workspace/videos(视频)文件保存目录

图片专属参数

参数默认值说明
--quality按模型自动匹配图片质量:1K2K3K4K(具体支持见下方模型能力表)
--size按模型自动匹配图片比例:1:13:44:316:99:162:33:24:55:41:44:11:88:121:9auto(具体支持见下方模型能力表)
--download-下载图片到本地
--output-dirworkspace/images图片保存目录
--markdown-output-以 Markdown 格式输出图片链接
--reference-image-参考图本地路径,自动上传后作为 image-to-image 参考
--web-search-开启联网搜索(仅 S5.0L 和 Nano2-Evo 支持)

视频专属参数

参数默认值说明
--generation-typeTEXT生成类型:TEXT(文生视频)、FIRST&LAST(首尾帧生视频)、REFERENCE(参考图生视频)、CONTINUATION(视频续写)、EDIT(视频编辑)、FEATURE(参考视频生视频)
--ratio按模型自动匹配画面比例(具体支持见下方模型能力表)
--resolution按模型自动匹配视频分辨率:480p720p1080p2K4K(具体支持见下方模型能力表)
--duration按模型自动匹配视频时长(秒),不同模型支持范围不同
--modestd生成模式:std(标准模式)、pro(专家模式/高品质)(仅 Kling V3 Omni 支持)
--first-image-url-首帧参考图 URL
--last-image-url-尾帧参考图 URL
--first-image-首帧参考图本地路径,自动上传后转换为 URL
--last-image-尾帧参考图本地路径,自动上传后转换为 URL
--first-clip-url-续写/编辑参考视频 URL
--first-clip-续写/编辑参考视频本地路径,自动上传后转换为 URL
--image-url-list-参考图片 URL 列表(用于参考图生视频)
--video-url-list-参考视频 URL 列表(用于 R2V 模型)
--element-list-参考主体 URL 列表(用于 Kling V3 Omni)
--generate-audio-开启音频生成(按模型能力生效)
--no-audio-关闭音频生成(按模型能力生效)
--keep-original-sound-保留视频原声(仅 Kling V3 Omni)
--prompt-extend-开启智能提示词改写(Wan系列支持)
--enhance-prompt-开启提示词翻译成英文(Veo3.1系列支持)
--negative-prompt-负向提示词(Veo3.1 Fast/Pro、Wan系列支持)
--shot-typesingle镜头模式:single(单镜头)、multi(智能分镜)、customize(自定义分镜)
--duration-switch-时长模式开关(仅 S1.5Pro)
--person-generationallow_adult是否允许生成人物:allow_adultdont_allow(仅 Veo3.1 Fast/Pro)
--resize-modepad图像缩放模式:pad(调整图片)、crop(裁剪图片)(仅 Veo3.1 Fast/Pro)
--multi-shot-是否多镜头(仅 Kling V3 Omni)
--n1生成视频数量(仅 Veo3.1 Fast/Pro)
--audio-url-参考音频 URL(Wan系列 T2V/I2V 支持)

支持的模型

图片模型

| 模型 | methodType | 支持质量 | 支持比例 | 联网搜索 | 特点 | |------|-----------|---------|------| | S4.5 | 0 | 2K, 4K | 除 auto 外所有比例 | ❌ | 电影级画质4K,角色一致性 | N1 | 1 | 1K | 除 21:9、4:5、5:4、1:4、4:1、1:8、8:1 外 | ❌ | 支持多模态输入,精细参数调节 | N2 | 2 | 1K, 2K, 4K | 所有比例 | ❌ | 卓越的文字渲染和角色一致性 | N2-147 | 3 | 1K, 2K, 4K | 除 auto、1:4、4:1、1:8、8:1 外 | ❌ | 147版本,支持多模态输入 | S5.0L | 4 | 2K, 3K | 除 auto 外所有比例 | ✅ | 默认模型,生成快、风格全、易用 | N2-Pro | 5 | 1K, 2K, 4K | 除 auto、1:4、4:1、1:8、8:1 外 | ✅ | Pro版本,画质细节更优 | W2.7 | 6 | 1K, 2K | 除 auto、21:9 外 | ❌ | 画质清晰,细节丰富 | W2.7Pro | 7 | 1K, 2K | 除 auto、21:9 外 | ❌ | 精准控图与风格迁移 | N2-Evo | 8 | 1K, 2K, 4K | 所有比例 | ✅ | Evo版本,卓越的文字渲染 | N2-Beta | 9 | 1K, 2K, 4K | 所有比例 | ❌ | Beta测试版 | Auto | auto | 2K 除 auto、1:4、4:1、1:8、8:1、21:9 外 | ❌ | 自动选择最佳模型

视频模型

模型名称methodType支持生成类型支持比例支持分辨率时长范围特殊能力
S1.5Pro2TEXT, FIRST&LAST1:1, 3:4, 4:3, 16:9, 9:16, 21:9, adaptive480p, 720p, 1080p4-12s影视级叙事,支持音频生成、时长模式
Sora2 Beta1TEXT, FIRST&LAST16:9, 9:16720p10-15sBeta版本
Sora211TEXT, FIRST&LAST16:9, 9:16720p4-12s基础版本
Sora2 Pro12TEXT, FIRST&LAST16:9, 9:16, 7:4, 4:7720p, 2K4-12sPro版本
V3.1FB3TEXT, FIRST&LAST, REFERENCE16:9, 9:16, adaptive720p, 1080p, 4K8s快速轻量版,支持提示词翻译
V3.1PB4TEXT, FIRST&LAST, REFERENCE16:9, 9:16, adaptive720p, 1080p, 4K8s专业轻量版,多图参考
V3.1Fast5TEXT, FIRST&LAST16:9, 9:16, adaptive720p, 1080p, 4K4s, 8s快速版,支持音画同步
V3.1Pro6TEXT, FIRST&LAST16:9, 9:16, adaptive720p, 1080p, 4K4s, 8s专业版,4K超清,商业级
W2.6t7TEXT1:1, 3:4, 4:3, 16:9, 9:16720p, 1080p3-15s文生视频,支持音频、提示词改写
W2.6i8FIRST&LAST固定720p, 1080p3-15s首帧图生视频,比例由图片决定
W2.6r9REFERENCE1:1, 3:4, 4:3, 16:9, 9:16720p, 1080p3-10s参考视频生视频
W2.7i14FIRST&LAST, CONTINUATION固定720p, 1080p3-15s首帧图生视频,支持续写
W2.7t15TEXT1:1, 3:4, 4:3, 16:9, 9:16720p, 1080p3-15s文生视频,支持音频、提示词改写
W2.7r16REFERENCE1:1, 3:4, 4:3, 16:9, 9:16720p, 1080p3-15s(无视频引用)<br>3-10s(有视频引用)参考视频生视频
Kling V3 Omni10TEXT, FIRST&LAST, REFERENCE, EDIT, FEATURE1:1, 16:9, 9:16720p, 1080p3-15s全能模型,支持主体参考、多镜头
AutoautoFIRST&LAST16:9, 9:16720p4-12s自动选择最佳模型

VEO3.1 系列(V3.1FB、V3.1PB、V3.1Fast、V3.1Pro)共同说明:

模型名称支持特性
V3.1FB / V3.1PB支持 --enhance-prompt(提示词翻译成英文)
V3.1Fast / V3.1Pro支持 --n--person-generation--resize-mode--negative-prompt--enhance-prompt--generate-audio

WAN2.6 系列共同说明:

模型名称支持特性
W2.6t / W2.7t文生视频,支持 --audio-url(自定义音频)
W2.6i / W2.7i首帧图生视频,不支持 --ratio 参数(比例由首帧图决定),W2.7i 支持 --first-clip-url(续写)
W2.6r / W2.7r参考视频生视频,支持 --video-url-list(参考视频列表),W2.7r 时长根据是否有视频引用动态变化
全系列支持 --prompt-extend(智能提示词改写)、--negative-prompt(负向提示词)

Kling V3 Omni 特有能力:

能力说明
--element-list参考主体选择
--keep-original-sound保留视频原声
--mode生成模式(std/pro)
--multi-shot是否多镜头
--shot-type镜头模式(single/multi/customize)
--generate-audio生成声音
不支持 --resolution分辨率固定

参数联动规则(自动处理)

图片质量按模型自动过滤

model支持质量
Auto2K
S4.5 (0)2K, 4K
N1 (1)1K
N2 (2)、N2-147 (3)、N2-Pro (5)、N2-Evo (8)、N2-Beta (9)1K, 2K, 4K
S5.0L (4)2K, 3K
W2.7 (6)、W2.7Pro (7)1K, 2K

图片比例按模型自动过滤

model排除比例
Autoauto1:44:11:88:121:9
S4.5 (0)、S5.0L (4)auto
N1 (1)21:94:55:41:44:11:88:1
N2-147 (3)、N2-Pro (5)auto1:44:11:88:1
W2.7 (6)、W2.7Pro (7)auto21:9
N2 (2)、N2-Evo (8)、N2-Beta (9)无(支持所有比例)

视频生成类型按模型自动过滤

model支持生成类型
AutoFIRST&LAST
Sora2 Beta (1)、S1.5Pro (2)、V3.1PB (4)、V3.1Fast (5)、V3.1Pro (6)、Sora2 (11)、Sora2 Pro (12)TEXT, FIRST&LAST
W2.6t (7)、W2.7t (15)TEXT
W2.6i (8)FIRST&LAST
W2.7i (14)FIRST&LAST, CONTINUATION
W2.6r (9)、W2.7r (16)REFERENCE
Kling V3 Omni (10)TEXT, FIRST&LAST, REFERENCE, EDIT, FEATURE
V3.1FB (3)TEXT, FIRST&LAST, REFERENCE

视频分辨率按模型自动过滤

model支持分辨率
Auto、Sora2 Beta (1)、Sora2 (11)720p
S1.5Pro (2)480p, 720p, 1080p
V3.1FB (3)、V3.1PB (4)、V3.1Fast (5)、V3.1Pro (6)720p, 1080p, 4K
W2.6t (7)、W2.6i (8)、W2.6r (9)、Kling V3 Omni (10)、W2.7i (14)、W2.7t (15)、W2.7r (16)720p, 1080p
Sora2 Pro (12)720p, 2K

视频比例按模型自动过滤

model支持比例
Auto、Sora2 Beta (1)16:9, 9:16
S1.5Pro (2)1:1, 3:4, 4:3, 16:9, 9:16, 21:9, adaptive
V3.1FB (3)、V3.1PB (4)、V3.1Fast (5)、V3.1Pro (6)16:9, 9:16, adaptive
Kling V3 Omni (10)1:1, 16:9, 9:16
W2.6t (7)、W2.6r (9)、W2.7t (15)、W2.7r (16)1:1, 3:4, 4:3, 16:9, 9:16
W2.6i (8)、W2.7i (14)固定(由首帧图比例决定)
Sora2 Pro (12)16:9, 9:16, 7:4, 4:7

视频时长按模型自动配置

model时长范围可选档位
Sora2 Beta (1)5-15s10s15s
V3.1FB (3)、V3.1PB (4)8s(固定)8s
V3.1Fast (5)、V3.1Pro (6)4-8s4s8s
W2.6t (7)、W2.6i (8)、Kling V3 Omni (10)、W2.7i (14)、W2.7t (15)3-15s3s15s
W2.6r (9)3-10s3s10s
W2.7r (16)3-15s(无视频引用)<br>3-10s(有视频引用)3s10s3s15s
Sora2 (11)、Sora2 Pro (12)4-12s4s12s
S1.5Pro (2)、Auto4-12s4s12s

镜头模式按模型自动过滤

model支持镜头模式
W2.6t (7)、W2.6i (8)、W2.6r (9)singlemulti
Kling V3 Omni (10)singlemulticustomize
其他single(默认)

参数显隐逻辑(自动处理)

按模型显示的参数

参数支持的 model (methodType)
web_search(联网搜索)S5.0L (4)、N2-Evo (8)
audio_url(参考音频)W2.6t (7)、W2.6i (8)、W2.7i (14)、W2.7t (15)、W2.7r (16)
prompt_extend(智能改写)W2.6t (7)、W2.6i (8)、W2.6r (9)、W2.7i (14)、W2.7t (15)、W2.7r (16)
first_clip_url(续写视频)Kling V3 Omni (10)、W2.7i (14)
keep_original_sound(保留原声)Kling V3 Omni (10)
element_list(参考主体)Kling V3 Omni (10)
video_url_list(参考视频)W2.6r (9)、W2.7r (16)
mode(生成模式)Kling V3 Omni (10)
duration_switch(时长模式)S1.5Pro (2)
generate_audio(生成声音)S1.5Pro (2)、V3.1Fast (5)、V3.1Pro (6)、Kling V3 Omni (10)
enhance_prompt(翻译英文)V3.1FB (3)、V3.1PB (4)、V3.1Fast (5)、V3.1Pro (6)
n(生成数量)V3.1Fast (5)、V3.1Pro (6)
person_generation(人物生成)V3.1Fast (5)、V3.1Pro (6)
resize_mode(缩放模式)V3.1Fast (5)、V3.1Pro (6)
negative_prompt(负向提示词)V3.1Fast (5)、V3.1Pro (6)、W2.6t (7)、W2.6i (8)、W2.6r (9)、W2.7i (14)、W2.7t (15)、W2.7r (16)
multi_shot(多镜头)Kling V3 Omni (10)
shot_type(镜头模式)W2.6t (7)、W2.6i (8)、W2.6r (9)、Kling V3 Omni (10)

按模型隐藏的参数

参数不支持该参数的 model
last_image_url(尾帧图片)Auto、Sora2 Beta (1)、W2.6i (8)、Sora2 (11)、Sora2 Pro (12)
ratio(生成比例)W2.6i (8)、W2.7i (14)
resolution(分辨率)Kling V3 Omni (10)
duration(时长)Auto

参数联动显隐(同模型下受其他参数影响)

参数依赖参数显示条件
text(提示词)shot_typeshot_type = 'customize'
multi_prompt(多镜头内容)shot_typeshot_type = 'customize'
image_url_list(参考图片)generation_typegeneration_type 为 REFERENCE、EDIT、FEATURE
first_image_url(首帧图)generation_typegeneration_type = FIRST&LAST
last_image_url(尾帧图)generation_typegeneration_type = FIRST&LAST
first_clip_url(续写视频)generation_typegeneration_type 为 CONTINUATION、EDIT、FEATURE
keep_original_sound(保留原声)first_clip_urlfirst_clip_url 有值
element_list(参考主体)generation_typegeneration_type ≠ TEXT
ratio(比例)generation_typeKling V3 Omni 除外:generation_type ≠ FIRST&LAST 且 ≠ EDIT
duration(时长)duration_switchduration_switch = '1'

使用示例

图片生成

# 基础用法 - 默认模型 DeepSop·3.1Nano2-Evo
python3 scripts/generate_image.py "一匹狼"

# 指定质量
python3 scripts/generate_image.py "风景画" --quality "4K"

# 指定比例
python3 scripts/generate_image.py "风景画" --ratio "16:9"

# 使用 N2 模型
python3 scripts/generate_image.py "生成一只狗" --model N2

# 使用 N2-Pro 并开启联网搜索
python3 scripts/generate_image.py "2024年流行的装修风格" --model N2-Pro --web-search

# 使用 W2.7Pro
python3 scripts/generate_image.py "山水画" --model W2.7Pro --quality "2K" --ratio "9:16"

# 使用 N2-Evo
python3 scripts/generate_image.py "赛博朋克城市" --model N2-Evo --quality "4K" --ratio "16:9"

# 下载图片到本地
python3 scripts/generate_image.py "风景画" --download

# 直接输出 Markdown 图片链接
python3 scripts/generate_image.py "一只可爱的猫" --markdown-output

# 使用参考图生成
python3 scripts/generate_image.py "基于这张图生成变体" --reference-image "./reference.png"

图片生成

# 基础用法 - 默认 DeepSop·V3.1FB
python3 scripts/generate_video.py "海边日落风景"

# 指定比例和分辨率
python3 scripts/generate_video.py "海边日落风景" --ratio "9:16" --resolution "1080p"

# 指定时长
python3 scripts/generate_video.py "一只猫在玩耍" --duration 5

# 专家模式
python3 scripts/generate_video.py "海边日落风景" --mode pro

# 首尾帧生视频
python3 scripts/generate_video.py "花朵绽放" --generation-type FIRST&LAST --first-image "./flower_start.jpg" --last-image "./flower_end.jpg"

# 参考图生视频
python3 scripts/generate_video.py "产品展示" --generation-type REFERENCE --image-url-list "https://example.com/product1.jpg,https://example.com/product2.jpg"

# 视频续写
python3 scripts/generate_video.py "继续这个视频" --generation-type CONTINUATION --first-clip "./my_video.mp4" --duration 5

# Veo3.1 系列 - 文生视频
python3 scripts/generate_video.py "现代轻奢吊灯" --model V3.1FB --ratio "16:9" --duration 8

# Veo3.1 系列 - 首尾帧控制
python3 scripts/generate_video.py "灯具变形动画" --model V3.1Pro --first-image "./start.jpg" --last-image "./end.jpg" --duration 8

# Veo3.1 系列 - 负向提示词
python3 scripts/generate_video.py "人物奔跑" --model V3.1Pro --negative-prompt "模糊, 抖动" --duration 8

# Veo3.1Fast - 生成多个视频
python3 scripts/generate_video.py "产品广告" --model V3.1Fast --n 3 --duration 4

# W2.7t - 文生视频
python3 scripts/generate_video.py "现代轻奢吊灯宣传" --model W2.7t --ratio "16:9" --duration 10 --prompt-extend

# W2.7t - 带参考音频
python3 scripts/generate_video.py "产品展示" --model W2.7t --audio-url "https://example.com/audio.mp3" --duration 10

# W2.7i - 首帧图生视频
python3 scripts/generate_video.py "水晶灯展示" --model W2.7i --first-image "./lamp.jpg" --duration 8

# W2.7i - 视频续写
python3 scripts/generate_video.py "继续这个动画" --model W2.7i --first-image "./lamp.jpg" --first-clip "./lamp_animation.mp4" --duration 5

# W2.7r - 参考视频生视频
python3 scripts/generate_video.py "参考素材风格生成" --model W2.7r --video-url-list "https://example.com/video.mp4" --duration 10

# W2.7r - 多参考视频
python3 scripts/generate_video.py "风格迁移" --model W2.7r --video-url-list "https://example.com/style1.mp4,https://example.com/style2.mp4" --duration 8

# Kling V3 Omni - 多镜头分镜
python3 scripts/generate_video.py "电影预告片" --model "Kling V3 Omni" --shot-type multi --multi-shot --mode pro

# Kling V3 Omni - 参考主体
python3 scripts/generate_video.py "角色在行走" --model "Kling V3 Omni" --element-list "https://example.com/character.jpg"

# Kling V3 Omni - 保留原声的视频编辑
python3 scripts/generate_video.py "编辑这段视频" --model "Kling V3 Omni" --generation-type EDIT --first-clip "./original.mp4" --keep-original-sound

# Sora2 Pro - 高分辨率
python3 scripts/generate_video.py "风景大片" --model Sora2Pro --ratio "7:4" --resolution "2K" --duration 12

模型名称速查表

图片模型(methodType → 模型名称)

methodType模型名称CLI 参数
0DeepSop·S4.5S4.5
1DeepSop·N1N1
2DeepSop·N2N2
3DeepSop·3-Nano2-147N2-147
4DeepSop·S5.0LS5.0L
5DeepSop·3.1Nano2-147N2-Pro
6DeepSop.W2.7W2.7
7DeepSop.W2.7ProW2.7Pro
8DeepSop·3.1Nano2-EvoN2-Evo(默认)
9DeepSop·Nano2 Beta-EvoN2-Beta
autoDeepSop·AutoAuto

视频模型(methodType → 模型名称)

methodType模型名称CLI 参数
1DeepSop·Sora2 Beta Max EvolinkSora2Beta
2DeepSop·S1.5ProS1.5Pro
3DeepSop·V3.1FBV3.1FB(默认)
4DeepSop·V3.1PBV3.1PB
5DeepSop·V3.1FastV3.1Fast
6DeepSop·V3.1ProV3.1Pro
7DeepSop·W2.6tW2.6t
8DeepSop·W2.6iW2.6i
9DeepSop·W2.6rW2.6r
10DeepSop.klingV3OmniKlingV3Omni
11DeepSop·Sora2.147Sora2
12DeepSop·Sora2 Pro.147Sora2Pro
14DeepSop·W2.7iW2.7i
15DeepSop·W2.7tW2.7t
16DeepSop·W2.7rW2.7r
autoDeepSop·AutoAuto

程序化调用

from scripts.generate_image import generate_image, generate_video

# 图片 - 默认 DeepSop·3.1Nano2-Evo
result = generate_image(prompt="一只可爱的猫咪")

# 图片 - N2 模型
result = generate_image(prompt="生成一只狗", model="N2")

# 图片 - 带联网搜索
result = generate_image(prompt="2024年流行的装修风格", model="N2-Pro", web_search=True)

# 图片 - 下载到本地
result = generate_image(prompt="风景画", model="S5.0L", download=True, output_dir="./images")

# 视频 - 默认 DeepSop·V3.1FB
result = generate_video(prompt="小骏马祝福大家新年快乐")

# 视频 - S1.5Pro 带音频
result = generate_video(
    prompt="海边日落风景",
    model="S1.5Pro",
    ratio="9:16",
    resolution="1080p",
    duration=5,
    generate_audio=True
)

# 视频 - V3.1Pro 首尾帧控制
result = generate_video(
    prompt="灯具变形动画",
    model="V3.1Pro",
    first_image_url="https://example.com/start.jpg",
    last_image_url="https://example.com/end.jpg",
    ratio="16:9",
    resolution="1080p",
    duration=8
)

# 视频 - V3.1Fast 生成多个
result = generate_video(
    prompt="产品广告",
    model="V3.1Fast",
    n=3,
    duration=4,
    person_generation="allow_adult"
)

# 视频 - W2.7t 带参考音频和提示词改写
result = generate_video(
    prompt="产品宣传片",
    model="W2.7t",
    ratio="16:9",
    resolution="1080p",
    duration=10,
    audio_url="https://example.com/music.mp3",
    prompt_extend=True
)

# 视频 - W2.7r 多参考视频
result = generate_video(
    prompt="风格迁移视频",
    model="W2.7r",
    video_url_list=["https://example.com/style1.mp4", "https://example.com/style2.mp4"],
    ratio="16:9",
    duration=10
)

# 视频 - Kling V3 Omni 多镜头模式
result = generate_video(
    prompt="电影预告片",
    model="KlingV3Omni",
    generation_type="TEXT",
    shot_type="multi",
    multi_shot=True,
    mode="pro"
)

# 视频 - Kling V3 Omni 参考主体
result = generate_video(
    prompt="角色在奔跑",
    model="KlingV3Omni",
    generation_type="REFERENCE",
    element_list=["https://example.com/character.jpg"],
    keep_original_sound=False
)

if result and result["status"] == "SUCCESS":
    print(f"媒体链接: {result['url']}")
    print(f"本地路径: {result.get('local_path')}")

图像生成前处理与参数变动

模型切换时的自动参数调整

当用户切换生成模型时,系统会自动调整以下参数:

切换场景自动调整规则
切换到 N1 (methodType=1)quality 自动设置为 1K
切换到其他模型quality 自动设置为 2K(默认)
切换到 S5.0L (methodType=4)web_search 自动开启
切换到其他模型web_search 自动关闭

模型与尺寸/质量的关系

图片生成时,size 参数会根据 methodTypequality 和用户选择的 ratio 自动计算:

模型类型methodTypesize 格式计算公式
S4.5、S5.0L0, 4{width}x{height}根据 quality 和 ratio 解析宽高后拼接
W2.7、W2.7Pro6, 7{width}*{height}根据 quality 和 ratio 解析宽高后用 * 拼接
N1、N2 系列1, 2, 3, 5, 8, 9比例字符串直接使用用户选择的 ratio 值(如 16:9
Autoauto比例字符串直接使用用户选择的 ratio 值

生成前预处理参数

在调用生成 API 前,系统会自动添加以下限制参数:

参数说明来源
targetMaxSize目标图片最大尺寸(字节)根据模型类型自动匹配
targetMinLength提示词最小长度根据模型类型自动匹配
targetMaxLength提示词最大长度根据模型类型自动匹配

图片生成限制参数说明

各模型的输入限制参数

根据选择的模型,系统会自动应用以下限制参数(targetMaxSizetargetMinLengthtargetMaxLength):

methodType模型名称maxSize (MB)minLength (字)maxLength (字)maxQuantity (张)上传说明
autoAuto.jpeg,.jpg,.png,.webp102000360500
0S4.5.jpeg,.jpg,.png,.webp,.bmp,.tiff,.gif306000300500
1N1.jpeg,.jpg,.png,.webp106000-1000
2N2.jpeg,.jpg,.png,.webp106000-1000
3N2-147.jpeg,.jpg,.png,.webp106000-1000
4S5.0L.jpeg,.jpg,.png,.webp,.bmp,.tiff,.gif106000-300
5N2-Pro.jpeg,.jpg,.png,.webp106000-1000
6W2.7.jpeg,.jpg,.png,.bmp,.webp2080002402500
7W2.7Pro.jpeg,.jpg,.png,.bmp,.webp2080002402500
8N2-Evo.jpeg,.jpg,.png,.webp206000-1000
9N2-Beta.jpeg,.jpg,.png,.webp106000-1000

图片生成提示词长度限制

methodType模型名称textLength (最大提示词字数)
0S4.5500
1,2,3,5,8,9N1/N2 系列1000
4S5.0L300
6,7W2.7/W2.7Pro2500
autoAuto500

参数说明

参数类型说明
targetAcceptstring支持的图片文件格式
targetMaxSizeint (MB)上传图片的最大文件大小限制
targetMaxLengthint (px)图片最长边的最大像素限制
targetMinLengthint (px)图片最短边的最小像素限制
targetTextLengthint (字)提示词的最大长度限制
targetMaxQuantityint (张)参考图片的最大上传数量
targetUploadTipsstring上传说明和合规性提示

图片上传合规性要求

通用要求:

  • 支持格式:JPEG、JPG、PNG、WEBP(部分模型支持 BMP、TIFF、GIF)
  • 文件大小:根据模型不同,限制为 10MB-30MB
  • 最长边限制:根据模型不同,限制为 2000px-8000px

内容审查要求(Sora2/Veo 系列):

  1. 不得包含真人或拟真人图像
  2. 提示词禁止暴力、色情、版权侵权或涉及名人信息

Wan 系列特殊要求:

  1. 不支持透明通道(PNG 透明部分会被处理)
  2. 宽高比必须在 [1:8, 8:1] 范围内

Seedance 系列特殊要求:

  1. 宽高比(宽/高)必须在 (0.4, 2.5) 范围内
  2. 上传图片最长边 ≤ 6000px,最短边 ≥ 300px

图片分辨率映射规则

质量等级与分辨率对照表

系统根据选择的 quality(图片质量)和 ratio(画面比例)自动计算输出图片的分辨率(宽 x 高)。

质量1:116:99:163:44:32:33:24:55:41:44:11:88:121:9
1K1024x10241920x10801080x1920768x10241024x768682x10241024x6821024x12801280x1024512x20482048x512362x28962896x3622560x1080
2K2048x20482560x14401440x25601728x23042304x17281664x24962496x16641843x23042304x18431024x40964096x1024724x57925792x7243584x1536
3K3072x30724096x23042304x40962592x34563456x25922496x37443744x24962884x36053605x28841536x61446144x15361088x87048704x10884704x2016
4K4096x40963840x21602160x38403072x40964096x30722730x40964096x27303277x40964096x32772048x81928192x20481448x1158411584x14485040x2160

不同模型的分辨率格式

模型类型methodType输出格式示例
S4.5、S5.0L0, 4{width}x{height}2048x2048
W2.7、W2.7Pro6, 7{width}*{height}2048*2048
N1、N2 系列1, 2, 3, 5, 8, 9比例字符串1:116:9
Autoauto比例字符串1:116:9

分辨率计算示例

from scripts.generate_image import get_image_resolution

# 获取 2K 质量、16:9 比例的分辨率
resolution = get_image_resolution(quality="2K", ratio="16:9")
print(resolution)  # 输出: [2560, 1440]

# 获取 4K 质量、1:1 比例的分辨率
resolution = get_image_resolution(quality="4K", ratio="1:1")
print(resolution)  # 输出: [4096, 4096]

# 仅获取质量对应的所有分辨率
resolutions = get_image_resolution(quality="2K")
print(resolutions)  # 输出: {'1:1': [2048, 2048], '16:9': [2560, 1440], ...}

视频生成前处理与参数变动

模型切换时的自动参数调整

当用户切换视频模型时,系统会自动调整以下参数:

切换场景自动调整规则
切换到 W2.6t/W2.7t (methodType=7)generation_type 自动设置为 TEXT(文生视频)
切换到 W2.6r/W2.7r (methodType=9,16)generation_type 自动设置为 REFERENCE(参考图/视频生视频)
切换到 Kling V3 Omni (methodType=10)generation_type 自动设置为 REFERENCE
切换到其他模型generation_type 自动设置为 FIRST&LAST(首尾帧生视频)
切换到 Kling V3 Omni (methodType=10)shot_type 自动设置为 multi(智能分镜)
切换到其他模型shot_type 自动设置为 single(单镜头)
切换到 V3.1系列/Sora2系列 (3,4,5,6,11,12)duration 自动设置为 8
切换到其他视频模型duration 自动设置为 10

镜头模式切换规则

当用户切换镜头模式时,系统会自动调整以下参数:

切换场景自动调整规则
切换到 Kling 多镜头模式(multi/customize)multi_shot 自动设置为 true
切换到 Kling 自定义多镜头(customize)text 参数清空,multi_prompt 初始化为 [{ index: 1, prompt: text, duration }]
切换到 Kling 智能分镜(multi)text 参数设置为 multi_prompt[0].promptmulti_prompt 清空
切换到单镜头模式(single)text 参数设置为 multi_prompt[0].promptmulti_prompt 清空,multi_shot 设置为 false
Kling 多镜头模式下禁止首尾帧生视频如果 generation_typeFIRST&LAST,自动切换为 REFERENCE

分辨率与比例的联动规则

模型分辨率比例联动规则
Sora2 Pro (methodType=12)720p支持比例:16:9、9:16
Sora2 Pro (methodType=12)2K支持比例:7:4、4:7
其他模型-无特殊联动

生成类型切换时的参数重置

当用户切换生成类型时,系统会自动清空以下关联参数:

清空的参数说明
image_url_list参考图片列表
first_image_url首帧图片
last_image_url尾帧图片
first_clip_url续写/编辑参考视频
element_list参考主体列表
video_url_list参考视频列表
audio_url参考音频
duration_list参考视频时长列表
generate_audio视频编辑/参考视频生视频模式下自动关闭音频生成

在调用生成 API 前,系统会自动进行以下处理:

处理项规则说明
size(尺寸)methodType=7,9(Wan系列)转换为 {width}*{height} 格式<br>methodType=11,12(Sora2系列)转换为 {width}x{height} 格式<br>其他模型保持比例字符串
duration(时长)durationSwitch='2' 时设置为 -1(智能时长)<br>否则使用用户选择的值
shot_type(镜头类型)Kling 多镜头模式(shot_type='multi')转换为 intelligence<br>其他保持原值
generate_audio(生成声音)Kling 视频编辑模式(first_clip_url 有值)时自动设置为 false
video_list(视频列表)Kling 视频编辑/参考视频生视频模式时构建视频对象

参数校验规则

生成前系统会进行以下校验:

校验项条件错误提示
提示词非 Wan I2V 模式且无提示词,且非 Kling 自定义多镜头请填写生成视频的提示词!
Wan I2V 首帧Wan I2V 模式且生成类型为首尾帧生视频,无首帧图片请上传首帧图片!
Wan2.7 I2V 续写methodType=14 且生成类型为续写模式,无续写视频请上传续写视频!
Kling 首尾帧/参考图Kling 首尾帧模式无首帧图片且无参考主体<br>或参考图模式无参考图片且无参考主体请上传首帧图片或选择参考主体!<br>或:请至少上传一张参考图片或选择一个参考主体!
Kling 自定义多镜头Kling 自定义多镜头模式,分镜时长或提示词为空分镜信息的时长不能为空或为0,镜头描述不能为空!
Kling 视频编辑Kling 视频编辑模式且生成类型为 EDIT/FEATURE,无编辑视频请上传编辑视频/参考视频!
Wan R2V 数量Wan R2V 模式,参考图片+参考视频总数为0或大于5上传的参考图片+参考视频总数不能为0且不能大于5!
尾帧图片有尾帧图片但无首帧图片请上传首帧图片!

使用示例

from scripts.generate_video import generate_video

# 1. 模型切换示例 - 切换到 W2.6t 自动变为文生视频
result = generate_video(
    prompt="海边日落",
    model="W2.6t"
    # generation_type 会自动设置为 "TEXT"
)

# 2. 模型切换示例 - 切换到 Kling 自动变为多镜头模式
result = generate_video(
    prompt="电影预告片",
    model="KlingV3Omni"
    # shot_type 会自动设置为 "multi"
    # multi_shot 会自动设置为 True
)

# 3. 自定义多镜头模式
result = generate_video(
    prompt="",
    model="KlingV3Omni",
    shot_type="customize",
    multi_prompt=[
        {"index": 1, "prompt": "镜头1描述", "duration": 3},
        {"index": 2, "prompt": "镜头2描述", "duration": 3}
    ],
    duration=6
)

# 4. Kling 视频编辑模式(自动关闭音频生成)
result = generate_video(
    prompt="编辑这段视频",
    model="KlingV3Omni",
    generation_type="EDIT",
    first_clip_url="https://example.com/video.mp4",
    keep_original_sound=True
    # generate_audio 会自动设置为 False
)

# 5. Sora2 Pro - 分辨率与比例联动
result = generate_video(
    prompt="风景大片",
    model="Sora2Pro",
    resolution="2K",  # 2K 分辨率时比例会自动推荐 7:4
    ratio="7:4"
)

# 6. Wan R2V - 多参考素材
result = generate_video(
    prompt="风格迁移",
    model="W2.7r",
    image_url_list=["https://example.com/img1.jpg", "https://example.com/img2.jpg"],
    video_url_list=["https://example.com/style.mp4"]
    # 总数不能超过 5 个(图片+视频)
)

使用示例

from scripts.generate_image import generate_image

# 模型切换时的自动参数调整示例
# 1. 切换到 N1 模型时,quality 自动变为 "1K"
result = generate_image(
    prompt="一只猫",
    model="N1"  # quality 会自动设为 "1K"
)

# 2. 切换到 S5.0L 模型时,web_search 自动开启
result = generate_image(
    prompt="2024年流行的设计趋势",
    model="S5.0L"  # web_search 会自动设为 True
)

# 3. 手动覆盖自动参数(按此优先级:用户指定 > 系统默认)
result = generate_image(
    prompt="一只猫",
    model="N1",
    quality="2K"  # 手动指定会覆盖系统的 "1K" 默认值
)

视频模型输入限制参数

各视频模型的输入限制

根据选择的模型,系统会自动应用以下限制参数(图片、音频、视频上传):

图片上传限制

methodType模型名称支持格式maxSize (MB)maxLength (px)minLength (px)textLength (字)maxQuantity (张)特殊说明
autoAuto.jpeg,.jpg,.png,.webp102000360500-最长边≤2000px,最短边≥360px
0Seedance1.0 Pro.jpeg,.jpg,.png,.webp,.bmp,.tiff,.gif306000300500-宽高比 (0.4, 2.5)
1Sora2 Beta.jpeg,.jpg,.png,.webp1060003002500-不得包含真人或拟真人图像
2Seedance1.5 Pro.jpeg,.jpg,.png,.webp,.bmp,.heic,.heif,.tiff,.gif306000300500-宽高比 (0.4, 2.5)
3Veo3.1 Fast Lite.jpeg,.jpg,.png,.webp10600030025002支持负向提示词(250字)
4Veo3.1 Pro Lite.jpeg,.jpg,.png,.webp1060003002500-支持负向提示词(250字)
5Veo3.1 Fast.jpeg,.jpg,.png,.webp1060003002500-支持负向提示词(250字)
6Veo3.1 Pro.jpeg,.jpg,.png,.webp1060003002500-支持负向提示词(250字)
8Wan2.6 i2v.jpeg,.jpg,.png,.bmp,.webp102000360750-宽高比 [1:8, 8:1]
9Wan2.6 r2v.jpeg,.jpg,.png,.bmp,.webp1050002407505图片+视频≤5
10Kling V3 Omni.jpeg,.jpg,.png10-30012507宽高比 [1:2.5, 2.5:1]
11Sora2.jpeg,.jpg,.png,.webp1060003002500-图片比例必须符合生成比例
12Sora2 Pro.jpeg,.jpg,.png,.webp1060003002500-图片比例必须符合生成比例
14Wan2.7 i2v.jpeg,.jpg,.png,.bmp,.webp2080002402500-宽高比 [1:8, 8:1]
16Wan2.7 r2v.jpeg,.jpg,.png,.bmp,.webp10800024025005图片+视频≤5,宽高比 [1:8, 8:1]

音频上传限制

methodType模型名称支持格式maxSize (MB)maxLength (秒)minLength (秒)说明
7Wan2.6 t2v.wav,.mp315303时长超出视频则截取,不足则无声
8Wan2.6 i2v.wav,.mp315303时长超出视频则截取,不足则无声
14Wan2.7 i2v.wav,.mp315303时长超出视频则截取,不足则无声
15Wan2.7 t2v.wav,.mp315303时长超出视频则截取,不足则无声
16Wan2.7 r2v.wav,.mp315102用于指定参考素材中主体角色的音色

视频上传限制

methodType模型名称支持格式maxSize (MB)maxLength (秒)minLength (秒)maxQuantity说明
9Wan2.6 r2v.mp4,.mov1003013图片+视频≤5
10Kling V3 Omni.mp4,.mov200103-视频编辑/参考视频生视频
14Wan2.7 i2v.mp4,.mov1001021视频续写模式,宽高比 [1:8, 8:1]
16Wan2.7 r2v.mp4,.mov1003013图片+视频≤5

负向提示词支持

methodType模型名称negativeTextLength (字)
3Veo3.1 Fast Lite250
4Veo3.1 Pro Lite250
5Veo3.1 Fast250
6Veo3.1 Pro250
7Wan2.6 t2v250
8Wan2.6 i2v250
9Wan2.6 r2v250
14Wan2.7 i2v250
15Wan2.7 t2v250
16Wan2.7 r2v250

Kling V3 Omni 特殊限制

当使用 Kling V3 Omni 模型时,参考图片数量限制根据是否有编辑视频动态变化:

场景参考图片 + 多图主体数量限制
无编辑视频/参考视频≤ 7
有编辑视频/参考视频≤ 4

参数说明

参数类型说明
targetMaxSizeint (MB)上传文件的最大大小限制
targetMinLengthint (px/秒)图片最短边像素 / 音视频最短时长
targetMaxLengthint (px/秒)图片最长边像素 / 音视频最长时长
targetTextLengthint (字)提示词的最大长度限制
targetNegativeTextLengthint (字)负向提示词的最大长度限制
targetMaxQuantityint单次最多上传文件数量
targetAcceptstring支持的文件格式
targetUploadTipsstring上传说明提示

视频分辨率映射规则

质量等级与分辨率对照表

系统根据选择的 resolution(视频质量)和 ratio(画面比例)自动计算输出视频的分辨率(宽 x 高)。

质量1:116:99:163:44:37:44:7
720p960x9601280x720720x1280832x10881088x832--
1080p1440x14401920x10801080x19201248x16321632x1248--
2K-----1792x10241024x1792

不同视频模型的尺寸输出格式

模型类型methodType输出格式示例
Wan2.6/2.7 系列 (T2V/R2V)7, 9, 15, 16{width}*{height}1280*720
Sora2 系列11, 12{width}x{height}1280x720
其他视频模型其他比例字符串16:99:16

分辨率计算示例

from scripts.generate_video import get_video_resolution

# 获取 1080p 质量、16:9 比例的分辨率
resolution = get_video_resolution(quality="1080p", ratio="16:9")
print(resolution)  # 输出: [1920, 1080]

# 获取 720p 质量、1:1 比例的分辨率
resolution = get_video_resolution(quality="720p", ratio="1:1")
print(resolution)  # 输出: [960, 960]

# 获取 2K 质量、7:4 比例的分辨率
resolution = get_video_resolution(quality="2K", ratio="7:4")
print(resolution)  # 输出: [1792, 1024]

# 仅获取质量对应的所有分辨率
resolutions = get_video_resolution(quality="1080p")
print(resolutions)  # 输出: {'1:1': [1440, 1440], '16:9': [1920, 1080], '9:16': [1080, 1920], '3:4': [1248, 1632], '4:3': [1632, 1248]}

视频提示词写作建议

推荐书写模版:主体 + 运动,背景 + 运动,镜头 + 运动 ...

  1. 基础结构:图生视频已经有了场景,因此尽量减少(甚至避免)对静止/无变化部分的描述,在明确指出运动对象的情况下,多描述运动的部分,包括主体的运动、背景的运动/变化、以及镜头的运动。

  2. 简单直接:尽量使用简单词语和句子结构,模型会根据我们的表达与对图像画面的理解进行提示词扩写,生成符合预期的视频。

  3. 特征描述:当主体具有一些突出特征时,可以加上突出特征来更好定位主体,比如老人、戴墨镜的女人等。描述运动时,关键的程度副词一定要明确,比如快速、幅度大。

  4. 遵从图片:需要基于输入的图片内容来写,需要明确写出主体以及想做的动作或者运镜,需注意提示词不要与图片内容/基础参数存在事实矛盾。

  5. 负向提示词:部分模型不响应负向提示词(如 Kling V3 Omni),请查阅上方各模型说明。

返回字段

字段说明
statusSUCCESS / FAILED / TIMEOUT
url媒体文件URL
message状态描述
local_path本地保存路径(需 --download)
data_uriBase64 Data URI(需 --download)
image_data原始图片字节(需 --download)

环境配置

必需配置 - API Key

重要:使用前必须设置你自己的 API Key!

获取 API Key

  1. 访问 https://ai.deepsop.com/
  2. 注册并登录账号
  3. 在控制台创建你的 API Key
  4. 复制生成的 API Key(格式:sk-xxxxxx...

方式 1:使用 .env 文件(推荐)

  1. 复制 .env.example.env

    cp .env.example .env
    
  2. 编辑 .env 文件,填入你的 API Key:

    AI_ARTIST_TOKEN=sk-your_api_key_here
    
  3. 在运行脚本前加载环境变量:

    # Linux/macOS/Git Bash
    source .env
    
    # 或使用 export
    export $(cat .env | xargs)
    

方式 2:直接设置环境变量

Linux / macOS / Git Bash (Windows)
export AI_ARTIST_TOKEN="sk-your_api_key_here"

为了永久生效,将上述命令添加到 ~/.bashrc~/.zshrc 文件中。

Windows PowerShell
$env:AI_ARTIST_TOKEN="sk-your_api_key_here"

永久设置(系统级):

[System.Environment]::SetEnvironmentVariable('AI_ARTIST_TOKEN', 'sk-your_api_key_here', 'User')
Windows CMD
set AI_ARTIST_TOKEN=sk-your_api_key_here

验证配置

运行以下命令验证 API Key 是否设置成功:

# Linux/macOS/Git Bash
echo $AI_ARTIST_TOKEN

# Windows PowerShell
echo $env:AI_ARTIST_TOKEN

# Windows CMD
echo %AI_ARTIST_TOKEN%

如果输出为空或显示默认值,说明环境变量未正确设置。

测试配置(推荐)

运行配置测试脚本,验证 API Key 是否正确设置:

python3 scripts/test_config.py

该脚本会检查:

  • API Key 是否已设置
  • 是否使用了默认 Key(需要替换为你自己的)
  • 配置是否可以正常使用

可选配置 - 飞书通知

export FEISHU_WEBHOOK_URL="https://open.feishu.cn/open-apis/bot/v2/hook/xxx"

相关文件

  • scripts/generate_image.py - 图片生成脚本
  • scripts/generate_video.py - 视频生成脚本
  • references/api.md - API 详细文档

Comments

Loading comments...