Las tareas pueden también configurarse para trabajar con uno o más despliegues de Modelos de Lenguaje Grande (LLM) a través de un proveedor de servicios compatible como OpenAI, Azure o Hugging Face. Estos proporcionan un endpoint alojado (API) al que podemos acceder programáticamente con las credenciales adecuadas (clave API o token). En este curso, discutimos estos proveedores:
- OpenAI con modelos diversos incluyendo la serie principal GPT.
- Azure OpenAI para modelos OpenAI con enfoque en preparación empresarial
- Hugging Face para modelos de código abierto y servidor de inferencia
Necesitarás usar tus propias cuentas para estos ejercicios. Las tareas son opcionales, por lo que puedes elegir configurar uno, todos o ninguno de los proveedores según tus intereses. Algunas indicaciones para el registro:
| Registro | Costo | Clave API | Playground | Comentarios |
|---|---|---|---|---|
| OpenAI | Precios | Basado en proyecto | Sin código, Web | Múltiples modelos disponibles |
| Azure | Precios | Inicio rápido SDK | Inicio rápido Studio | Debe solicitar acceso previamente |
| Hugging Face | Precios | Tokens de acceso | Hugging Chat | Hugging Chat tiene modelos limitados |
Sigue las instrucciones a continuación para configurar este repositorio para usar diferentes proveedores. Las tareas que requieran un proveedor específico contendrán una de estas etiquetas en su nombre de archivo:
aoai- requiere endpoint y clave de Azure OpenAIoai- requiere endpoint y clave de OpenAIhf- requiere token de Hugging Face
Puedes configurar uno, ninguno o todos los proveedores. Las tareas relacionadas simplemente fallarán si faltan las credenciales.
Asumimos que ya has leído la guía anterior, te has registrado con el proveedor relevante y has obtenido las credenciales de autenticación necesarias (API_KEY o token). En el caso de Azure OpenAI, también asumimos que tienes un despliegue válido de un Servicio Azure OpenAI (endpoint) con al menos un modelo GPT desplegado para completado de chat.
El siguiente paso es configurar tus variables de entorno locales de la siguiente manera:
-
Busca en la carpeta raíz un archivo
.env.copyque debería tener un contenido como este:# Proveedor OpenAI OPENAI_API_KEY='<add your OpenAI API key here>' ## Azure OpenAI AZURE_OPENAI_API_VERSION='2024-02-01' # ¡El valor predeterminado está establecido! AZURE_OPENAI_API_KEY='<add your AOAI key here>' AZURE_OPENAI_ENDPOINT='<add your AOIA service endpoint here>' AZURE_OPENAI_DEPLOYMENT='<add your chat completion model name here>' AZURE_OPENAI_EMBEDDINGS_DEPLOYMENT='<add your embeddings model name here>' ## Hugging Face HUGGING_FACE_API_KEY='<add your HuggingFace API or token here>'
-
Copia ese archivo a
.envusando el siguiente comando. Este archivo está gitignoreado, manteniendo los secretos seguros.cp .env.copy .env
-
Completa los valores (reemplaza los marcadores a la derecha del
=) como se describe en la siguiente sección. -
(Opcional) Si usas GitHub Codespaces, tienes la opción de guardar variables de entorno como secretos de Codespaces asociados a este repositorio. En ese caso, no necesitarás configurar un archivo .env local. Sin embargo, ten en cuenta que esta opción funciona solo si usas GitHub Codespaces. Aún necesitarás configurar el archivo .env si usas Docker Desktop.
Echemos un vistazo rápido a los nombres de variables para entender qué representan:
| Variable | Descripción |
|---|---|
| HUGGING_FACE_API_KEY | Este es el token de acceso de usuario que configuraste en tu perfil |
| OPENAI_API_KEY | Esta es la clave de autorización para usar el servicio en endpoints que no son Azure OpenAI |
| AZURE_OPENAI_API_KEY | Esta es la clave de autorización para usar ese servicio |
| AZURE_OPENAI_ENDPOINT | Este es el endpoint desplegado para un recurso Azure OpenAI |
| AZURE_OPENAI_DEPLOYMENT | Este es el endpoint de despliegue del modelo de generación de texto |
| AZURE_OPENAI_EMBEDDINGS_DEPLOYMENT | Este es el endpoint de despliegue del modelo de embeddings de texto |
Nota: Las dos últimas variables de Azure OpenAI reflejan un modelo predeterminado para completado de chat (generación de texto) y búsqueda vectorial (embeddings) respectivamente. Las instrucciones para configurarlas se definirán en las tareas relevantes.
Los valores del endpoint y clave de Azure OpenAI se encuentran en el Portal de Azure, así que comencemos allí.
- Ve al Portal de Azure
- Haz clic en la opción Claves y Endpoint en la barra lateral (menú a la izquierda).
- Haz clic en Mostrar claves - deberías ver lo siguiente: CLAVE 1, CLAVE 2 y Endpoint.
- Usa el valor de CLAVE 1 para AZURE_OPENAI_API_KEY
- Usa el valor del Endpoint para AZURE_OPENAI_ENDPOINT
Luego, necesitamos los endpoints para los modelos específicos que hemos desplegado.
- Haz clic en la opción Despliegues de modelo en la barra lateral (menú izquierdo) para el recurso Azure OpenAI.
- En la página de destino, haz clic en Administrar despliegues
Esto te llevará al sitio web de Azure OpenAI Studio, donde encontraremos los otros valores como se describe a continuación.
- Navega a Azure OpenAI Studio desde tu recurso como se describió arriba.
- Haz clic en la pestaña Despliegues (barra lateral, izquierda) para ver los modelos actualmente desplegados.
- Si tu modelo deseado no está desplegado, usa Crear nuevo despliegue para desplegarlo.
- Necesitarás un modelo de generación de texto - recomendamos: gpt-35-turbo
- Necesitarás un modelo de embedding de texto - recomendamos text-embedding-ada-002
Ahora actualiza las variables de entorno para reflejar el Nombre del despliegue usado. Esto normalmente será igual al nombre del modelo a menos que lo hayas cambiado explícitamente. Por ejemplo, podrías tener:
AZURE_OPENAI_DEPLOYMENT='gpt-35-turbo'
AZURE_OPENAI_EMBEDDINGS_DEPLOYMENT='text-embedding-ada-002'No olvides guardar el archivo .env cuando termines. Ahora puedes salir del archivo y volver a las instrucciones para ejecutar el notebook.
Tu clave API de OpenAI puede encontrarse en tu cuenta OpenAI. Si no tienes una, puedes registrarte para obtener una cuenta y crear una clave API. Una vez que tengas la clave, puedes usarla para completar la variable OPENAI_API_KEY en el archivo .env.
Tu token de Hugging Face puede encontrarse en tu perfil bajo Tokens de acceso. No publiques ni compartas estos públicamente. En su lugar, crea un nuevo token para el uso de este proyecto y cópialo en el archivo .env bajo la variable HUGGING_FACE_API_KEY. Nota: Técnicamente esto no es una clave API pero se usa para autenticación, por lo que mantenemos esa convención de nombres para consistencia.
Aviso Legal:
Este documento ha sido traducido utilizando el servicio de traducción automática Co-op Translator. Aunque nos esforzamos por la precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o inexactitudes. El documento original en su idioma nativo debe considerarse la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas derivadas del uso de esta traducción.