Skip to content

Latest commit

 

History

History
178 lines (127 loc) · 6.16 KB

File metadata and controls

178 lines (127 loc) · 6.16 KB

Préparation des données de transcription

Les scripts de préparation des données de transcription téléchargent les transcriptions des vidéos YouTube et les préparent pour une utilisation avec l'exemple Semantic Search avec OpenAI Embeddings et Functions.

Les scripts de préparation des données de transcription ont été testés sur les dernières versions de Windows 11, macOS Ventura et Ubuntu 22.04 (et versions supérieures).

Créer les ressources Azure OpenAI Service requises

Important

Nous vous recommandons de mettre à jour l'Azure CLI vers la dernière version afin d'assurer la compatibilité avec OpenAI Voir la Documentation

  1. Créez un groupe de ressources

Note

Pour ces instructions, nous utilisons le groupe de ressources nommé "semantic-video-search" dans la région East US. Vous pouvez changer le nom du groupe de ressources, mais si vous modifiez la localisation des ressources, vérifiez le tableau de disponibilité des modèles.

az group create --name semantic-video-search --location eastus
  1. Créez une ressource Azure OpenAI Service.
az cognitiveservices account create --name semantic-video-openai --resource-group semantic-video-search \
    --location eastus --kind OpenAI --sku s0
  1. Récupérez le point de terminaison et les clés pour les utiliser dans cette application
az cognitiveservices account show --name semantic-video-openai \
   --resource-group  semantic-video-search | jq -r .properties.endpoint
az cognitiveservices account keys list --name semantic-video-openai \
   --resource-group semantic-video-search | jq -r .key1
  1. Déployez les modèles suivants :
    • text-embedding-ada-002 version 2 ou supérieure, nommé text-embedding-ada-002
    • gpt-35-turbo version 0613 ou supérieure, nommé gpt-35-turbo
az cognitiveservices account deployment create \
    --name semantic-video-openai \
    --resource-group  semantic-video-search \
    --deployment-name text-embedding-ada-002 \
    --model-name text-embedding-ada-002 \
    --model-version "2"  \
    --model-format OpenAI \
    --scale-settings-scale-type "Standard"
az cognitiveservices account deployment create \
    --name semantic-video-openai \
    --resource-group  semantic-video-search \
    --deployment-name gpt-35-turbo \
    --model-name gpt-35-turbo \
    --model-version "0613"  \
    --model-format OpenAI \
    --sku-capacity 100 \
    --sku-name "Standard"

Logiciels requis

Variables d’environnement

Les variables d’environnement suivantes sont nécessaires pour exécuter les scripts de préparation des données de transcription YouTube.

Sous Windows

Il est recommandé d’ajouter les variables aux variables d’environnement user. Démarrer Windows > Modifier les variables d’environnement système > Variables d’environnement > Variables utilisateur pour [USER] > Nouveau.

AZURE_OPENAI_API_KEY  \<your Azure OpenAI Service API key>
AZURE_OPENAI_ENDPOINT \<your Azure OpenAI Service endpoint>
AZURE_OPENAI_MODEL_DEPLOYMENT_NAME \<your Azure OpenAI Service model deployment name>
GOOGLE_DEVELOPER_API_KEY = \<your Google developer API key>

Sous Linux et macOS

Il est recommandé d’ajouter les exports suivants dans votre fichier ~/.bashrc ou ~/.zshrc.

export AZURE_OPENAI_API_KEY=<your Azure OpenAI Service API key>
export AZURE_OPENAI_ENDPOINT=<your Azure OpenAI Service endpoint>
export AZURE_OPENAI_MODEL_DEPLOYMENT_NAME=<your Azure OpenAI Service model deployment name>
export GOOGLE_DEVELOPER_API_KEY=<your Google developer API key>

Installer les bibliothèques Python requises

  1. Installez le client git s’il n’est pas déjà installé.

  2. Depuis une fenêtre Terminal, clonez l’exemple dans le dossier de votre choix.

    git clone https://github.com/gloveboxes/semanic-search-openai-embeddings-functions.git
  3. Rendez-vous dans le dossier data_prep.

    cd semanic-search-openai-embeddings-functions/src/data_prep
  4. Créez un environnement virtuel Python.

    Sous Windows :

    python -m venv .venv

    Sous macOS et Linux :

    python3 -m venv .venv
  5. Activez l’environnement virtuel Python.

    Sous Windows :

    .venv\Scripts\activate

    Sous macOS et Linux :

    source .venv/bin/activate
  6. Installez les bibliothèques requises.

    Sous Windows :

    pip install -r requirements.txt

    Sous macOS et Linux :

    pip3 install -r requirements.txt

Exécuter les scripts de préparation des données de transcription YouTube

Sous Windows

.\transcripts_prepare.ps1

Sous macOS et Linux

./transcripts_prepare.sh

Avertissement :
Ce document a été traduit à l’aide du service de traduction automatique Co-op Translator. Bien que nous nous efforçons d’assurer l’exactitude, veuillez noter que les traductions automatiques peuvent contenir des erreurs ou des inexactitudes. Le document original dans sa langue d’origine doit être considéré comme la source faisant foi. Pour les informations critiques, une traduction professionnelle réalisée par un humain est recommandée. Nous déclinons toute responsabilité en cas de malentendus ou de mauvaises interprétations résultant de l’utilisation de cette traduction.