Skip to content

Latest commit

 

History

History
122 lines (83 loc) · 9.26 KB

File metadata and controls

122 lines (83 loc) · 9.26 KB

Elegir y Configurar un Proveedor de LLM 🔑

Las tareas pueden también configurarse para trabajar con uno o más despliegues de Modelos de Lenguaje Grande (LLM) a través de un proveedor de servicios compatible como OpenAI, Azure o Hugging Face. Estos proporcionan un endpoint alojado (API) al que podemos acceder programáticamente con las credenciales adecuadas (clave API o token). En este curso, discutimos estos proveedores:

  • OpenAI con modelos diversos incluyendo la serie principal GPT.
  • Azure OpenAI para modelos OpenAI con enfoque en preparación empresarial
  • Hugging Face para modelos de código abierto y servidor de inferencia

Necesitarás usar tus propias cuentas para estos ejercicios. Las tareas son opcionales, por lo que puedes elegir configurar uno, todos o ninguno de los proveedores según tus intereses. Algunas indicaciones para el registro:

Registro Costo Clave API Playground Comentarios
OpenAI Precios Basado en proyecto Sin código, Web Múltiples modelos disponibles
Azure Precios Inicio rápido SDK Inicio rápido Studio Debe solicitar acceso previamente
Hugging Face Precios Tokens de acceso Hugging Chat Hugging Chat tiene modelos limitados

Sigue las instrucciones a continuación para configurar este repositorio para usar diferentes proveedores. Las tareas que requieran un proveedor específico contendrán una de estas etiquetas en su nombre de archivo:

  • aoai - requiere endpoint y clave de Azure OpenAI
  • oai - requiere endpoint y clave de OpenAI
  • hf - requiere token de Hugging Face

Puedes configurar uno, ninguno o todos los proveedores. Las tareas relacionadas simplemente fallarán si faltan las credenciales.

Crear archivo .env

Asumimos que ya has leído la guía anterior, te has registrado con el proveedor relevante y has obtenido las credenciales de autenticación necesarias (API_KEY o token). En el caso de Azure OpenAI, también asumimos que tienes un despliegue válido de un Servicio Azure OpenAI (endpoint) con al menos un modelo GPT desplegado para completado de chat.

El siguiente paso es configurar tus variables de entorno locales de la siguiente manera:

  1. Busca en la carpeta raíz un archivo .env.copy que debería tener un contenido como este:

    # Proveedor OpenAI
    OPENAI_API_KEY='<add your OpenAI API key here>'
    
    ## Azure OpenAI
    AZURE_OPENAI_API_VERSION='2024-02-01' # ¡El valor predeterminado está establecido!
    AZURE_OPENAI_API_KEY='<add your AOAI key here>'
    AZURE_OPENAI_ENDPOINT='<add your AOIA service endpoint here>'
    AZURE_OPENAI_DEPLOYMENT='<add your chat completion model name here>' 
    AZURE_OPENAI_EMBEDDINGS_DEPLOYMENT='<add your embeddings model name here>'
    
    ## Hugging Face
    HUGGING_FACE_API_KEY='<add your HuggingFace API or token here>'
  2. Copia ese archivo a .env usando el siguiente comando. Este archivo está gitignoreado, manteniendo los secretos seguros.

    cp .env.copy .env
  3. Completa los valores (reemplaza los marcadores a la derecha del =) como se describe en la siguiente sección.

  4. (Opcional) Si usas GitHub Codespaces, tienes la opción de guardar variables de entorno como secretos de Codespaces asociados a este repositorio. En ese caso, no necesitarás configurar un archivo .env local. Sin embargo, ten en cuenta que esta opción funciona solo si usas GitHub Codespaces. Aún necesitarás configurar el archivo .env si usas Docker Desktop.

Rellenar archivo .env

Echemos un vistazo rápido a los nombres de variables para entender qué representan:

Variable Descripción
HUGGING_FACE_API_KEY Este es el token de acceso de usuario que configuraste en tu perfil
OPENAI_API_KEY Esta es la clave de autorización para usar el servicio en endpoints que no son Azure OpenAI
AZURE_OPENAI_API_KEY Esta es la clave de autorización para usar ese servicio
AZURE_OPENAI_ENDPOINT Este es el endpoint desplegado para un recurso Azure OpenAI
AZURE_OPENAI_DEPLOYMENT Este es el endpoint de despliegue del modelo de generación de texto
AZURE_OPENAI_EMBEDDINGS_DEPLOYMENT Este es el endpoint de despliegue del modelo de embeddings de texto

Nota: Las dos últimas variables de Azure OpenAI reflejan un modelo predeterminado para completado de chat (generación de texto) y búsqueda vectorial (embeddings) respectivamente. Las instrucciones para configurarlas se definirán en las tareas relevantes.

Configurar Azure: Desde el Portal

Los valores del endpoint y clave de Azure OpenAI se encuentran en el Portal de Azure, así que comencemos allí.

  1. Ve al Portal de Azure
  2. Haz clic en la opción Claves y Endpoint en la barra lateral (menú a la izquierda).
  3. Haz clic en Mostrar claves - deberías ver lo siguiente: CLAVE 1, CLAVE 2 y Endpoint.
  4. Usa el valor de CLAVE 1 para AZURE_OPENAI_API_KEY
  5. Usa el valor del Endpoint para AZURE_OPENAI_ENDPOINT

Luego, necesitamos los endpoints para los modelos específicos que hemos desplegado.

  1. Haz clic en la opción Despliegues de modelo en la barra lateral (menú izquierdo) para el recurso Azure OpenAI.
  2. En la página de destino, haz clic en Administrar despliegues

Esto te llevará al sitio web de Azure OpenAI Studio, donde encontraremos los otros valores como se describe a continuación.

Configurar Azure: Desde Studio

  1. Navega a Azure OpenAI Studio desde tu recurso como se describió arriba.
  2. Haz clic en la pestaña Despliegues (barra lateral, izquierda) para ver los modelos actualmente desplegados.
  3. Si tu modelo deseado no está desplegado, usa Crear nuevo despliegue para desplegarlo.
  4. Necesitarás un modelo de generación de texto - recomendamos: gpt-35-turbo
  5. Necesitarás un modelo de embedding de texto - recomendamos text-embedding-ada-002

Ahora actualiza las variables de entorno para reflejar el Nombre del despliegue usado. Esto normalmente será igual al nombre del modelo a menos que lo hayas cambiado explícitamente. Por ejemplo, podrías tener:

AZURE_OPENAI_DEPLOYMENT='gpt-35-turbo'
AZURE_OPENAI_EMBEDDINGS_DEPLOYMENT='text-embedding-ada-002'

No olvides guardar el archivo .env cuando termines. Ahora puedes salir del archivo y volver a las instrucciones para ejecutar el notebook.

Configurar OpenAI: Desde Perfil

Tu clave API de OpenAI puede encontrarse en tu cuenta OpenAI. Si no tienes una, puedes registrarte para obtener una cuenta y crear una clave API. Una vez que tengas la clave, puedes usarla para completar la variable OPENAI_API_KEY en el archivo .env.

Configurar Hugging Face: Desde Perfil

Tu token de Hugging Face puede encontrarse en tu perfil bajo Tokens de acceso. No publiques ni compartas estos públicamente. En su lugar, crea un nuevo token para el uso de este proyecto y cópialo en el archivo .env bajo la variable HUGGING_FACE_API_KEY. Nota: Técnicamente esto no es una clave API pero se usa para autenticación, por lo que mantenemos esa convención de nombres para consistencia.


Aviso Legal:
Este documento ha sido traducido utilizando el servicio de traducción automática Co-op Translator. Aunque nos esforzamos por la precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o inexactitudes. El documento original en su idioma nativo debe considerarse la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas derivadas del uso de esta traducción.