Το ZeroClaw σας επιτρέπει να συνδεθείτε με δικές σας υπηρεσίες AI, όπως τοπικούς διακομιστές ή εταιρικά δίκτυα.
Για υπηρεσίες που λειτουργούν όπως το OpenAI:
default_provider = "custom:https://το-api-σας.com"
api_key = "το-κλειδί-σας"
default_model = "το-όνομα-του-μοντέλου"Για υπηρεσίες που λειτουργούν όπως το Anthropic:
default_provider = "anthropic-custom:https://το-api-σας.com"
api_key = "το-κλειδί-σας"
default_model = "το-όνομα-του-μοντέλου"Αν τρέχετε το δικό σας μοντέλο AI τοπικά, μπορείτε να χρησιμοποιήσετε τα εξής:
- llama.cpp: Ρυθμίστε το
default_provider = "llamacpp". - vLLM: Ρυθμίστε το
default_provider = "vllm". - SGLang: Ρυθμίστε το
default_provider = "sglang".
Παράδειγμα για το llama.cpp:
default_provider = "llamacpp"
api_url = "http://127.0.0.1:8033/v1"
default_model = "το-μοντέλο-σας"Αφού αλλάξετε τις ρυθμίσεις, τρέξτε:
zeroclaw agent -m "γεια σου"
Αν η AI απαντήσει, η σύνδεση πέτυχε!
- Ελέγξτε το κλειδί (API Key): Βεβαιωθείτε ότι είναι σωστό.
- Ελέγξτε τη διεύθυνση (URL): Πρέπει να ξεκινάει με
http://ήhttps://. - Το μοντέλο δεν βρίσκεται: Σιγουρευτείτε ότι το όνομα του μοντέλου είναι γραμμένο ακριβώς όπως το ορίζει ο πάροχος.
Μπορείτε να ελέγξετε αν η διεύθυνση λειτουργεί γράφοντας στο τερματικό:
curl -I https://το-api-σας.com