Les scripts de préparation des données de transcription téléchargent les transcriptions de vidéos YouTube et les préparent pour une utilisation avec l'exemple de Recherche Sémantique avec OpenAI Embeddings et Functions.
Les scripts de préparation des données de transcription ont été testés sur les dernières versions de Windows 11, macOS Ventura et Ubuntu 22.04 (et au-delà).
Important
Nous vous suggérons de mettre à jour l'Azure CLI à la dernière version pour garantir la compatibilité avec OpenAI Voir Documentation
- Créer un groupe de ressources
Note
Pour ces instructions, nous utilisons le groupe de ressources nommé "semantic-video-search" dans l'Est des États-Unis. Vous pouvez changer le nom du groupe de ressources, mais lorsque vous modifiez l'emplacement des ressources, vérifiez le tableau de disponibilité des modèles.
az group create --name semantic-video-search --location eastus- Créer une ressource Azure OpenAI Service.
az cognitiveservices account create --name semantic-video-openai --resource-group semantic-video-search \
--location eastus --kind OpenAI --sku s0- Obtenez le point de terminaison et les clés pour l'utilisation dans cette application
az cognitiveservices account show --name semantic-video-openai \
--resource-group semantic-video-search | jq -r .properties.endpoint
az cognitiveservices account keys list --name semantic-video-openai \
--resource-group semantic-video-search | jq -r .key1- Déployez les modèles suivants :
text-embedding-ada-002version2or greater, namedtext-embedding-ada-002gpt-35-turboversion0613or greater, namedgpt-35-turbo
az cognitiveservices account deployment create \
--name semantic-video-openai \
--resource-group semantic-video-search \
--deployment-name text-embedding-ada-002 \
--model-name text-embedding-ada-002 \
--model-version "2" \
--model-format OpenAI \
--scale-settings-scale-type "Standard"
az cognitiveservices account deployment create \
--name semantic-video-openai \
--resource-group semantic-video-search \
--deployment-name gpt-35-turbo \
--model-name gpt-35-turbo \
--model-version "0613" \
--model-format OpenAI \
--sku-capacity 100 \
--sku-name "Standard"- Python 3.9 ou supérieur
Les variables d'environnement suivantes sont nécessaires pour exécuter les scripts de préparation des données de transcription YouTube.
Il est recommandé d'ajouter les variables à votre user environment variables.
Windows Start > Edit the system environment variables > Environment Variables > User variables for [USER] > New.
AZURE_OPENAI_API_KEY \<your Azure OpenAI Service API key>
AZURE_OPENAI_ENDPOINT \<your Azure OpenAI Service endpoint>
AZURE_OPENAI_MODEL_DEPLOYMENT_NAME \<your Azure OpenAI Service model deployment name>
GOOGLE_DEVELOPER_API_KEY = \<your Google developer API key>
Il est recommandé d'ajouter les exports suivants à votre fichier ~/.bashrc or ~/.zshrc.
export AZURE_OPENAI_API_KEY=<your Azure OpenAI Service API key>
export AZURE_OPENAI_ENDPOINT=<your Azure OpenAI Service endpoint>
export AZURE_OPENAI_MODEL_DEPLOYMENT_NAME=<your Azure OpenAI Service model deployment name>
export GOOGLE_DEVELOPER_API_KEY=<your Google developer API key>-
Installez le client git s'il n'est pas déjà installé.
-
Depuis une fenêtre de
Terminal, clonez l'exemple dans votre dossier de dépôt préféré.git clone https://github.com/gloveboxes/semanic-search-openai-embeddings-functions.git
-
Accédez au dossier
data_prep.cd semanic-search-openai-embeddings-functions/src/data_prep -
Créez un environnement virtuel Python.
Sur Windows :
python -m venv .venvSur macOS et Linux :
python3 -m venv .venv
-
Activez l'environnement virtuel Python.
Sur Windows :
.venv\Scripts\activate
Sur macOS et Linux :
source .venv/bin/activate -
Installez les bibliothèques requises.
Sur Windows :
pip install -r requirements.txtSur macOS et Linux :
pip3 install -r requirements.txt
.\transcripts_prepare.ps1./transcripts_prepare.shClause de non-responsabilité :
Ce document a été traduit à l'aide du service de traduction automatique Co-op Translator. Bien que nous nous efforcions d'assurer l'exactitude, veuillez noter que les traductions automatisées peuvent contenir des erreurs ou des inexactitudes. Le document original dans sa langue d'origine doit être considéré comme la source faisant autorité. Pour des informations critiques, il est recommandé de faire appel à une traduction professionnelle humaine. Nous ne sommes pas responsables des malentendus ou des interprétations erronées résultant de l'utilisation de cette traduction.