Cette page est une passerelle enrichie. Elle fournit le positionnement du sujet, un guidage par sections source et des conseils d'exécution.
Source anglaise:
- Catégorie : Providers et intégrations
- Profondeur : passerelle enrichie (guidage de sections + conseils d'exécution)
- Usage : comprendre la structure puis appliquer les étapes selon la source normative anglaise.
- H2 · Provider Types
- H3 · OpenAI-Compatible Endpoints (
custom:) - H3 · Anthropic-Compatible Endpoints (
anthropic-custom:) - H2 · Configuration Methods
- H3 · Config File
- H3 · Environment Variables
- H2 · llama.cpp Server (Recommended Local Setup)
- H2 · SGLang Server
- H2 · vLLM Server
- H2 · Testing Configuration
- H2 · Troubleshooting
- H3 · Authentication Errors
- H3 · Model Not Found
- H3 · Connection Issues
- H2 · Examples
- H3 · Local LLM Server (Generic Custom Endpoint)
- H3 · Corporate Proxy
- H3 · Cloud Provider Gateway
- Commencer par la structure des sections source, puis cibler les parties directement liées au changement en cours.
- Les noms de commandes, clés de configuration, chemins API et identifiants de code restent en anglais.
- En cas d'ambiguïté d'interprétation, la source anglaise fait foi.