Aufgaben können auch so eingerichtet werden, dass sie gegen eine oder mehrere Large Language Model (LLM)-Bereitstellungen über einen unterstützten Dienstanbieter wie OpenAI, Azure oder Hugging Face arbeiten. Diese bieten einen gehosteten Endpunkt (API), auf den wir mit den richtigen Anmeldeinformationen (API-Schlüssel oder Token) programmgesteuert zugreifen können. In diesem Kurs besprechen wir diese Anbieter:
- OpenAI mit diversen Modellen, einschließlich der Kern-GPT-Serie.
- Azure OpenAI für OpenAI-Modelle mit Fokus auf Unternehmensreife
- Hugging Face für Open-Source-Modelle und Inferenzserver
Sie müssen für diese Übungen Ihre eigenen Konten verwenden. Aufgaben sind optional, sodass Sie je nach Interesse einen, alle oder keinen der Anbieter einrichten können. Einige Hinweise zur Anmeldung:
| Anmeldung | Kosten | API-Schlüssel | Playground | Kommentare |
|---|---|---|---|---|
| OpenAI | Preise | Projektbasiert | No-Code, Web | Mehrere Modelle verfügbar |
| Azure | Preise | SDK Quickstart | Studio Quickstart | Zugang muss vorab beantragt werden |
| Hugging Face | Preise | Zugangstoken | Hugging Chat | Hugging Chat hat begrenzte Modelle |
Folgen Sie den untenstehenden Anweisungen, um dieses Repository für die Verwendung mit verschiedenen Anbietern zu konfigurieren. Aufgaben, die einen bestimmten Anbieter erfordern, enthalten eines dieser Tags im Dateinamen:
aoai- erfordert Azure OpenAI-Endpunkt, Schlüsseloai- erfordert OpenAI-Endpunkt, Schlüsselhf- erfordert Hugging Face-Token
Sie können einen, keinen oder alle Anbieter konfigurieren. Verwandte Aufgaben schlagen einfach mit einem Fehler fehl, wenn Anmeldeinformationen fehlen.
Wir gehen davon aus, dass Sie die obigen Hinweise bereits gelesen, sich beim entsprechenden Anbieter angemeldet und die erforderlichen Authentifizierungsdaten (API_KEY oder Token) erhalten haben. Im Fall von Azure OpenAI gehen wir davon aus, dass Sie auch eine gültige Bereitstellung eines Azure OpenAI-Dienstes (Endpunkt) mit mindestens einem GPT-Modell für Chat Completion haben.
Der nächste Schritt ist, Ihre lokalen Umgebungsvariablen wie folgt zu konfigurieren:
-
Suchen Sie im Stammordner nach einer
.env.copy-Datei, die Inhalte wie folgt haben sollte:# OpenAI Anbieter OPENAI_API_KEY='<add your OpenAI API key here>' ## Azure OpenAI AZURE_OPENAI_API_VERSION='2024-02-01' # Standard ist gesetzt! AZURE_OPENAI_API_KEY='<add your AOAI key here>' AZURE_OPENAI_ENDPOINT='<add your AOIA service endpoint here>' AZURE_OPENAI_DEPLOYMENT='<add your chat completion model name here>' AZURE_OPENAI_EMBEDDINGS_DEPLOYMENT='<add your embeddings model name here>' ## Hugging Face HUGGING_FACE_API_KEY='<add your HuggingFace API or token here>'
-
Kopieren Sie diese Datei mit dem folgenden Befehl zu
.env. Diese Datei ist gitignore-d, um Geheimnisse sicher zu halten.cp .env.copy .env
-
Füllen Sie die Werte aus (ersetzen Sie die Platzhalter rechts vom
=) wie im nächsten Abschnitt beschrieben. -
(Optional) Wenn Sie GitHub Codespaces verwenden, haben Sie die Möglichkeit, Umgebungsvariablen als Codespaces-Geheimnisse zu speichern, die mit diesem Repository verknüpft sind. In diesem Fall müssen Sie keine lokale .env-Datei einrichten. Beachten Sie jedoch, dass diese Option nur funktioniert, wenn Sie GitHub Codespaces verwenden. Wenn Sie stattdessen Docker Desktop verwenden, müssen Sie die .env-Datei weiterhin einrichten.
Werfen wir einen kurzen Blick auf die Variablennamen, um zu verstehen, was sie repräsentieren:
| Variable | Beschreibung |
|---|---|
| HUGGING_FACE_API_KEY | Dies ist das Benutzerzugangstoken, das Sie in Ihrem Profil eingerichtet haben |
| OPENAI_API_KEY | Dies ist der Autorisierungsschlüssel für die Nutzung des Dienstes für Nicht-Azure OpenAI-Endpunkte |
| AZURE_OPENAI_API_KEY | Dies ist der Autorisierungsschlüssel für die Nutzung dieses Dienstes |
| AZURE_OPENAI_ENDPOINT | Dies ist der bereitgestellte Endpunkt für eine Azure OpenAI-Ressource |
| AZURE_OPENAI_DEPLOYMENT | Dies ist der Textgenerierung-Modellbereitstellungsendpunkt |
| AZURE_OPENAI_EMBEDDINGS_DEPLOYMENT | Dies ist der Text-Embedding-Modellbereitstellungsendpunkt |
Hinweis: Die letzten beiden Azure OpenAI-Variablen spiegeln standardmäßig ein Modell für Chat Completion (Textgenerierung) und Vektorsuche (Embeddings) wider. Anweisungen zum Einrichten werden in den entsprechenden Aufgaben definiert.
Die Azure OpenAI-Endpunkt- und Schlüsselwerte finden Sie im Azure-Portal, beginnen wir also dort.
- Gehen Sie zum Azure-Portal
- Klicken Sie in der Seitenleiste (linkes Menü) auf die Option Schlüssel und Endpunkt.
- Klicken Sie auf Schlüssel anzeigen – Sie sollten Folgendes sehen: SCHLÜSSEL 1, SCHLÜSSEL 2 und Endpunkt.
- Verwenden Sie den Wert von SCHLÜSSEL 1 für AZURE_OPENAI_API_KEY
- Verwenden Sie den Wert des Endpunkts für AZURE_OPENAI_ENDPOINT
Als Nächstes benötigen wir die Endpunkte für die spezifischen Modelle, die wir bereitgestellt haben.
- Klicken Sie in der Seitenleiste (linkes Menü) für die Azure OpenAI-Ressource auf die Option Modellbereitstellungen.
- Klicken Sie auf der Zielseite auf Bereitstellungen verwalten
Dies führt Sie zur Azure OpenAI Studio-Website, wo wir die anderen Werte wie unten beschrieben finden.
- Navigieren Sie zu Azure OpenAI Studio von Ihrer Ressource aus, wie oben beschrieben.
- Klicken Sie auf die Registerkarte Bereitstellungen (Seitenleiste, links), um die aktuell bereitgestellten Modelle anzuzeigen.
- Wenn Ihr gewünschtes Modell nicht bereitgestellt ist, verwenden Sie Neue Bereitstellung erstellen, um es bereitzustellen.
- Sie benötigen ein Textgenerierungs-Modell – wir empfehlen: gpt-35-turbo
- Sie benötigen ein Text-Embedding-Modell – wir empfehlen text-embedding-ada-002
Aktualisieren Sie nun die Umgebungsvariablen, um den verwendeten Bereitstellungsnamen widerzuspiegeln. Dies ist normalerweise derselbe wie der Modellname, sofern Sie ihn nicht explizit geändert haben. Zum Beispiel könnten Sie haben:
AZURE_OPENAI_DEPLOYMENT='gpt-35-turbo'
AZURE_OPENAI_EMBEDDINGS_DEPLOYMENT='text-embedding-ada-002'Vergessen Sie nicht, die .env-Datei nach dem Bearbeiten zu speichern. Sie können die Datei jetzt schließen und zu den Anweisungen zum Ausführen des Notebooks zurückkehren.
Ihren OpenAI-API-Schlüssel finden Sie in Ihrem OpenAI-Konto. Wenn Sie noch keinen haben, können Sie sich anmelden und einen API-Schlüssel erstellen. Sobald Sie den Schlüssel haben, können Sie ihn verwenden, um die Variable OPENAI_API_KEY in der .env-Datei zu befüllen.
Ihr Hugging Face-Token finden Sie in Ihrem Profil unter Access Tokens. Veröffentlichen oder teilen Sie diese nicht öffentlich. Erstellen Sie stattdessen ein neues Token für die Nutzung in diesem Projekt und kopieren Sie es in die .env-Datei unter der Variable HUGGING_FACE_API_KEY. Hinweis: Dies ist technisch gesehen kein API-Schlüssel, wird aber für die Authentifizierung verwendet, daher behalten wir diese Namenskonvention zur Konsistenz bei.
Haftungsausschluss:
Dieses Dokument wurde mit dem KI-Übersetzungsdienst Co-op Translator übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner Ursprungssprache ist als maßgebliche Quelle zu betrachten. Für wichtige Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die aus der Nutzung dieser Übersetzung entstehen.