Zadanie LLM
llm-task to opcjonalne narzędzie wtyczki, które uruchamia zadanie LLM wyłącznie w JSON i
zwraca ustrukturyzowane wyjście (opcjonalnie walidowane względem JSON Schema).
Jest to idealne rozwiązanie dla silników workflow, takich jak Lobster: możesz dodać pojedynczy krok LLM
bez pisania niestandardowego kodu OpenClaw dla każdego workflow.
Włączanie wtyczki
- Włącz wtyczkę:
- Dodaj narzędzie do listy dozwolonych (jest zarejestrowane jako
optional: true):
Konfiguracja (opcjonalnie)
allowedModels to lista dozwolonych ciągów provider/model. Jeśli jest ustawiona, każde żądanie
spoza listy jest odrzucane.
Parametry narzędzia
prompt(string, wymagane)input(dowolny typ, opcjonalne)schema(obiekt, opcjonalny JSON Schema)provider(string, opcjonalne)model(string, opcjonalne)authProfileId(string, opcjonalne)temperature(number, opcjonalne)maxTokens(number, opcjonalne)timeoutMs(number, opcjonalne)
Wyjście
Zwracadetails.json zawierające sparsowany JSON (i waliduje go względem
schema, gdy jest podany).
Przykład: krok workflow Lobster
Uwagi dotyczące bezpieczeństwa
- Narzędzie działa wyłącznie w JSON i instruuje model, aby zwracał tylko JSON (bez bloków kodu, bez komentarzy).
- Podczas tego uruchomienia żadne narzędzia nie są udostępniane modelowi.
- Traktuj wyjście jako niezaufane, dopóki nie zostanie zwalidowane za pomocą
schema. - Umieszczaj zatwierdzenia przed każdym krokiem wywołującym skutki uboczne (send, post, exec).