Skill flagged — suspicious patterns detected

ClawHub Security flagged this skill as suspicious. Review the scan results before using.

Ralph Wiggum Loop

v1.0.0

Iteracyjnie doskonali kod lub tekst AI, wykrywając i naprawiając błędy, optymalizacje, bezpieczeństwo i styl w maksymalnie trzech krokach.

0· 75·0 current·0 all-time

Install

OpenClaw Prompt Flow

Install with OpenClaw

Best for remote or guided setup. Copy the exact prompt, then paste it into OpenClaw for nerua1/ralph-wiggum-loop.

Previewing Install & Setup.
Prompt PreviewInstall & Setup
Install the skill "Ralph Wiggum Loop" (nerua1/ralph-wiggum-loop) from ClawHub.
Skill page: https://clawhub.ai/nerua1/ralph-wiggum-loop
Keep the work scoped to this skill only.
After install, inspect the skill metadata and help me finish setup.
Use only the metadata you can verify from ClawHub; do not invent missing requirements.
Ask before making any broader environment changes.

Command Line

CLI Commands

Use the direct CLI path if you want to install manually and keep every step visible.

OpenClaw CLI

Bare skill slug

openclaw skills install ralph-wiggum-loop

ClawHub CLI

Package manager switcher

npx clawhub@latest install ralph-wiggum-loop
Security Scan
VirusTotalVirusTotal
Benign
View report →
OpenClawOpenClaw
Suspicious
medium confidence
Purpose & Capability
Name/description (iterative code/text improvement) matches the included components (generator.py, critic.py, ralph-loop.sh) and the declared runtime behavior (send code to LLM, get issues, fix, verify). No unrelated credentials or services are requested.
Instruction Scope
Runtime instructions and scripts read user-supplied code/files and send them to an LLM endpoint (LM Studio). That is expected for this skill. However: (1) the SKILL.md and scripts assume LM Studio runs at http://127.0.0.1:1234 but the code honors LMSTUDIO_URL/--api-url overrides — if LMSTUDIO_URL is pointed to a remote host, user code will be transmitted off-host; (2) the scripts call external tools (curl, jq) and Python packages (requests) but the SKILL.md omits jq and the Python dependency; (3) there are CLI argument mismatches between ralph-loop.sh and generator.py (the shell passes -u/-s which generator.py's argparse does not define), which is an implementation inconsistency that can cause failures.
Install Mechanism
No install spec is provided (instruction-only deployment). Included files are local scripts and Python modules; there are no downloads from arbitrary URLs or archive extraction. Risk from install mechanism is low, but running the code writes nothing special to disk beyond user-specified outputs.
Credentials
The skill requests no secrets and declares no required env vars. In practice the code uses LMSTUDIO_URL, optional model env vars (LMSTUDIO_MODEL*, RALPH_MODEL) and RALPH_MAX_ITER — these are proportional to the purpose. Important caveat: LMSTUDIO_URL can be set to any URL, which would redirect all code and diagnostics to that endpoint; that is expected behavior but a potential data-exfiltration vector if misconfigured.
Persistence & Privilege
always:false and no special persistence. The skill does not modify other skills or system-wide agent config and does not request elevated privileges. Autonomous invocation is allowed (platform default) but not excessive here.
What to consider before installing
This skill appears to implement the advertised iterative improvement loop, but review and test before using on sensitive code. Specific recommendations: - Ensure LM Studio runs locally and do NOT set LMSTUDIO_URL to a remote host unless you intend to send your code there (the scripts will transmit the full code to whatever LMSTUDIO_URL is used). - Install required tools first: Python 3.9+, the 'requests' package (pip install requests), curl, and jq (the shell scripts use jq but SKILL.md didn't mention it). - Be aware of a small implementation mismatch: ralph-loop.sh passes flags (-u, -s) that generator.py's CLI doesn't define; run the Python modules directly or inspect/fix the shell script before relying on it. - Review the scripts' behavior (especially fix_code which posts code and issues to the LM endpoint) on non-sensitive examples to confirm behavior and outputs. - If you plan to run this in a production environment, run it in an isolated environment and audit network traffic to confirm LM Studio is local.

Like a lobster shell, security has layers — review code before you run it.

latestvk976cg7kh54j1h0260cd6bbp4584qcr8
75downloads
0stars
1versions
Updated 2w ago
v1.0.0
MIT-0

Ralph Wiggum - AI Loop Technique

Iteracyjny system doskonalenia kodu i outputów AI. Nazwany na cześć Ralpha Wigguma z Simpsons - bo "mówi jak dziecko, ale myśli jak krytyk".

Architektura

┌─────────────┐
│  Generator  │ → Tworzy początkowy output
└──────┬──────┘
       ▼
┌─────────────┐
│   Krytyk    │ → Szuka błędów, optymalizacji, problemów
└──────┬──────┘
       ▼
┌─────────────┐
│  Naprawiacz │ → Poprawia zgłoszone problemy
└──────┬──────┘
       ▼
┌─────────────┐
│ Weryfikator │ → Sprawdza czy poprawki działają
└──────┬──────┘
       │
       ├─ Problemy? → Wraca do Krytyka (max 3 iteracje)
       ▼
   [OUTPUT]

Wymagania

  • LM Studio uruchomione na http://127.0.0.1:1234/v1
  • Model preferowany: uncensored/liberated (np. dolphin, wizard-vicuna)
  • Python 3.9+
  • curl / wget

Instalacja

# Skill jest gotowy do użycia po sklonowaniu
# Sprawdź czy LM Studio działa:
curl http://127.0.0.1:1234/v1/models

Użycie

Podstawowe

# Ulepsz kod z pliku
ralph-loop.sh -f input.py -o output.py

# Ulepsz kod inline
ralph-loop.sh -c "def hello(): print('world')"

# Ulepsz z promptem kontekstowym
ralph-loop.sh -f input.py -p "Optymalizuj pod kątem wydajności"

Opcje

FlagOpis
-f FILEPlik wejściowy
-c CODEKod inline (zamiast pliku)
-o FILEPlik wyjściowy (domyślnie: stdout)
-p PROMPTDodatkowy kontekst/prompt
-i NMax iteracji (domyślnie: 3)
-m MODELNazwa modelu w LM Studio
-vVerbose - pokaż proces
--jsonOutput w formacie JSON

Przykłady

Przykład 1: Refaktoryzacja kodu

ralph-loop.sh -f examples/bad_code.py -o fixed.py -v

Przykład 2: Generowanie od zera

ralph-loop.sh -c "Napisz funkcję sortowania quicksort w Python" \
  -o quicksort.py -p "Dodaj type hints i docstrings"

Przykład 3: Analiza tekstu

ralph-loop.sh -f examples/article.txt -o analysis.json --json

Jak to działa

  1. Generator (generator.py)

    • Tworzy początkowy output używając LLM
    • Używa promptu systemowego z kontekstem zadania
  2. Krytyk (critic.py)

    • Analizuje kod pod kątem:
      • Błędów składniowych i logicznych
      • OPTYMALIZACJI (złożoność, wydajność)
      • BEZPIECZEŃSTWA (podatności, injection)
      • STYLU (PEP8, czytelność, konwencje)
      • DOKUMENTACJI (docstrings, komentarze)
    • Zwraca listę problemów w formacie JSON
  3. Naprawiacz (część ralph-loop.sh)

    • Wysyła kod + listę problemów do LLM
    • Prosi o poprawienie wszystkich zgłoszonych problemów
  4. Weryfikator (część ralph-loop.sh)

    • Sprawdza czy poprawki faktycznie rozwiązują problemy
    • Ocenia czy kod jest gotowy czy potrzebna kolejna iteracja
  5. Pętla

    • Jeśli weryfikator znajdzie nowe problemy → wraca do Krytyka
    • Max 3 iteracje (konfigurowalne)

Prompt Engineering

System używa specyficznych promptów dla każdej roli:

Prompt Generatora

Jesteś ekspertem programistą. Twoim zadaniem jest {task}.
Stwórz najlepszy możliwy kod/tekst. Używaj najnowszych praktyk.
{context}

Prompt Krytyka

Jesteś bezwzględnym code reviewerem. Twoim zadaniem jest znalezienie
WSZYSTKICH problemów w podanym kodzie. Sprawdź:
- Błędy składniowe i logiczne
- Optymalizację (czasowa i pamięciowa)
- Bezpieczeństwo (SQL injection, XSS, etc.)
- Styl kodu (PEP8, konwencje)
- Dokumentację

Zwróć listę problemów w formacie JSON:
{
  "issues": [
    {"severity": "high|medium|low", "category": "...", "description": "...", "suggestion": "..."}
  ]
}

Prompt Naprawiacza

Otrzymałeś kod i listę problemów do naprawy. Napraw KAŻDY problem
z listy. Nie dodawaj nowych funkcji - tylko napraw.

KOD:
{code}

PROBLEMY:
{issues}

Zwróć TYLKO poprawiony kod, bez dodatkowych komentarzy.

API (Python)

Możesz używać modułów bezpośrednio w Pythonie:

from ralph_loop import Generator, Critic, Verifier

gen = Generator(model="qwen2.5-coder-32b")
code = gen.generate("Napisz funkcję FizzBuzz", context="Użyj list comprehension")

critic = Critic()
issues = critic.analyze(code)

verifier = Verifier()
result = verifier.verify(code, issues)

Debugowanie

# Sprawdź czy LM Studio działa
curl http://127.0.0.1:1234/v1/models | jq .

# Testuj pojedynczy komponent
python scripts/generator.py -t "Napisz hello world"
python scripts/critic.py -f test.py

# Verbose mode
ralph-loop.sh -f input.py -vvv

Troubleshooting

"Connection refused"

  • Upewnij się że LM Studio jest uruchomione
  • Sprawdź czy API jest włączone w ustawieniach LM Studio
  • Domyślny port: 1234

"Model not found"

  • Sprawdź dostępne modele: curl http://127.0.0.1:1234/v1/models
  • Użyj flagi -m aby wskazać konkretny model

Słaba jakość outputu

  • Użyj lepszego modelu (min. 7B parametrów)
  • Zwiększ max iteracji: -i 5
  • Dodaj szczegółowy kontekst: -p "Szczegółowe wymagania"

Autor

Stworzone jako narzędzie OpenClaw. Nazwa inspirowana Ralphem Wiggumem - "I'm helping!"

Comments

Loading comments...