Install
openclaw skills install neuralpoolMonetize idle LLM API capacity or access 100+ models through a unified OpenAI-compatible API. No GPU required.
openclaw skills install neuralpoolNeuralPool is a decentralized LLM API marketplace. Think of it as an "Airbnb for LLM API access" — a peer-to-peer network where API resource owners and AI developers meet.
1. As a Node Operator (Earn Money)
If you have cloud compute credits or access to LLM APIs sitting idle, you can monetize them:
Your API keys never leave your machine. The Node Agent connects to NeuralPool's central server via an encrypted tunnel, receives inference requests, forwards them to your configured upstream provider, and streams the response back. The server handles all billing, user management, and payment settlement.
2. As an API Consumer (Save Money)
If you build AI applications and need affordable, reliable access to LLM models:
API Consumer Central Server Node Operator
│ │ │
│ OpenAI-format request │ │
│──────────────────────────────>│ │
│ │ Encrypted tunnel │
│ │──────────────────────────────>│
│ │ │──> Upstream LLM
│ │ │<── Provider API
│<──────────────────────────────│ │
│ OpenAI-format response │ Billing: token-by-token │
│ │ Settlement: NC credits │
Visit neuralpool.ai and create an account. Navigate to the Nodes section and generate an authentication token.
Run the installer script — it auto-detects your OS and architecture:
curl -fsSL https://neuralpool.ai/install.sh | bash
Or download manually from GitHub Releases:
| Platform | File |
|---|---|
| Linux x86_64 | npnode-linux-amd64 |
| Linux ARM64 | npnode-linux-arm64 |
| macOS x86_64 | npnode-darwin-amd64 |
| macOS ARM64 | npnode-darwin-arm64 |
| Windows x86_64 | npnode-windows-amd64.exe |
| Windows ARM64 | npnode-windows-arm64.exe |
npnode setup
The interactive wizard will guide you through:
npnode start
Your Node connects to the NeuralPool network and begins receiving requests. You earn NC credits for every token forwarded.
from openai import OpenAI
client = OpenAI(
base_url="https://neuralpool.ai/v1",
api_key="sk-YOUR_API_KEY_HERE"
)
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "Hello!"}]
)
| Command | Description |
|---|---|
npnode setup | Interactive configuration wizard |
npnode start | Start the Node and begin forwarding requests |
npnode config | Display current configuration |
npnode reset-quota [model] | Reset token quota counter for a model (or all) |
npnode version | Print version |
| URL | Purpose | Data Sent |
|---|---|---|
| NeuralPool server | Encrypted tunnel to central server | Auth token, model requests/responses, billing data |
| Upstream LLM providers | Pre-configured provider API endpoints | LLM prompts, receives completions |
MIT
NeuralPoolは、分散型LLM APIマーケットプレイスです。「LLM APIアクセスのAirbnb」のような存在で、APIリソースの所有者とAI開発者が出会うP2Pネットワークです。
1. ノードオペレーターとして(収益化)
クラウドコンピューティングクレジットやLLM APIへのアクセスが余っている場合、それを収益化できます:
APIキーはマシンから一切送信されません。ノードエージェントは暗号化トンネルでNeuralPoolの中央サーバーに接続し、推論リクエストを受信、設定された上流プロバイダーに転送し、レスポンスをストリーミングします。サーバーは課金、ユーザー管理、決済をすべて処理します。
2. API利用者として(コスト削減)
AIアプリケーションを構築していて、安価で信頼性の高いLLMモデルアクセスが必要な場合:
ステップ1: neuralpool.ai で登録し、認証トークンを生成
ステップ2: インストール
curl -fsSL https://neuralpool.ai/install.sh | bash
ステップ3: 設定
npnode setup
ステップ4: 起動
npnode start
ステップ5: ダッシュボードでリアルタイム収益を確認し、Solanaウォレットに出金
from openai import OpenAI
client = OpenAI(
base_url="https://neuralpool.ai/v1",
api_key="sk-YOUR_API_KEY_HERE"
)
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "こんにちは!"}]
)
| コマンド | 説明 |
|---|---|
npnode setup | 対話型設定ウィザード |
npnode start | ノードを起動しリクエストの転送を開始 |
npnode config | 現在の設定を表示 |
npnode reset-quota [model] | モデルのトークンクォータカウンターをリセット(全モデルも可) |
npnode version | バージョンを表示 |
| URL | 目的 | 送信データ |
|---|---|---|
| NeuralPoolサーバー | 暗号化トンネルでセントラルサーバーに接続 | 認証トークン、モデルリクエスト/レスポンス、課金データ |
| 上流LLMプロバイダー | 事前設定済みのプロバイダーAPIエンドポイント | LLMプロンプト、レスポンス受信 |
MIT
NeuralPool 是一个去中心化的 LLM API 市场。你可以把它想象成"LLM API 访问的 Airbnb"——一个 API 资源拥有者和 AI 开发者直接对接的 P2P 网络。
1. 作为节点运营者(赚钱)
如果你有云计算额度或 LLM API 访问权限处于闲置状态,你可以把它们变现:
你的 API 密钥永远不会离开你的机器。节点代理通过加密隧道连接到 NeuralPool 中央服务器,接收推理请求,转发到配置的上游供应商,并流式返回响应。服务器负责所有计费、用户管理和支付结算。
2. 作为 API 使用者(省钱)
如果你在构建 AI 应用,需要经济实惠、稳定可靠的 LLM 模型访问:
第1步: 在 neuralpool.ai 注册并生成认证令牌
第2步: 安装
curl -fsSL https://neuralpool.ai/install.sh | bash
第3步: 配置
npnode setup
第4步: 启动
npnode start
第5步: 在仪表盘查看实时收益,T+1 或 T+30 结算后提现到 Solana 钱包
from openai import OpenAI
client = OpenAI(
base_url="https://neuralpool.ai/v1",
api_key="sk-YOUR_API_KEY_HERE"
)
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "你好!"}]
)
| 命令 | 说明 |
|---|---|
npnode setup | 交互式配置向导 |
npnode start | 启动节点并开始转发请求 |
npnode config | 显示当前配置 |
npnode reset-quota [model] | 重置某模型(或全部)的 token 配额计数 |
npnode version | 打印版本号 |
| URL | 用途 | 发送的数据 |
|---|---|---|
| NeuralPool 服务器 | 加密隧道连接中央服务器 | 认证令牌、模型请求/响应、计费数据 |
| 上游 LLM 供应商 | 预配置的供应商 API 端点 | LLM 提示词,接收回复 |
MIT