Skip to content

Latest commit

 

History

History
131 lines (92 loc) · 9.37 KB

File metadata and controls

131 lines (92 loc) · 9.37 KB

Escolhendo e Configurando um Provedor de LLM 🔑

As tarefas podem também ser configuradas para funcionar com uma ou mais implantações de Large Language Model (LLM) por meio de um provedor de serviço suportado como OpenAI, Azure ou Hugging Face. Estes fornecem um endpoint hospedado (API) que podemos acessar programaticamente com as credenciais corretas (chave API ou token). Neste curso, discutimos esses provedores:

  • OpenAI com diversos modelos incluindo a série principal GPT.
  • Azure OpenAI para modelos OpenAI com foco em prontidão empresarial
  • Hugging Face para modelos open-source e servidor de inferência

Você precisará usar suas próprias contas para esses exercícios. As tarefas são opcionais, então você pode escolher configurar um, todos - ou nenhum - dos provedores com base em seus interesses. Algumas orientações para cadastro:

Cadastro Custo Chave API Playground Comentários
OpenAI Preços Baseado em projeto Sem código, Web Múltiplos Modelos Disponíveis
Azure Preços Início rápido SDK Início rápido Studio É necessário solicitar acesso antecipadamente
Hugging Face Preços Tokens de Acesso Hugging Chat Hugging Chat tem modelos limitados

Siga as instruções abaixo para configurar este repositório para uso com diferentes provedores. As tarefas que requerem um provedor específico conterão uma dessas tags no nome do arquivo:

  • aoai - requer endpoint e chave Azure OpenAI
  • oai - requer endpoint e chave OpenAI
  • hf - requer token Hugging Face

Você pode configurar um, nenhum ou todos os provedores. As tarefas relacionadas simplesmente apresentarão erro se as credenciais estiverem ausentes.

Criar arquivo .env

Assumimos que você já leu as orientações acima, se cadastrou no provedor relevante e obteve as credenciais de autenticação necessárias (API_KEY ou token). No caso do Azure OpenAI, assumimos também que você possui uma implantação válida de um Serviço Azure OpenAI (endpoint) com pelo menos um modelo GPT implantado para conclusão de chat.

O próximo passo é configurar suas variáveis de ambiente locais da seguinte forma:

  1. Procure na pasta raiz um arquivo .env.copy que deve conter algo assim:

    # Provedor OpenAI
    OPENAI_API_KEY='<add your OpenAI API key here>'
    
    ## Azure OpenAI
    AZURE_OPENAI_API_VERSION='2024-02-01' # Padrão definido!
    AZURE_OPENAI_API_KEY='<add your AOAI key here>'
    AZURE_OPENAI_ENDPOINT='<add your AOIA service endpoint here>'
    AZURE_OPENAI_DEPLOYMENT='<add your chat completion model name here>' 
    AZURE_OPENAI_EMBEDDINGS_DEPLOYMENT='<add your embeddings model name here>'
    
    ## Hugging Face
    HUGGING_FACE_API_KEY='<add your HuggingFace API or token here>'
  2. Copie esse arquivo para .env usando o comando abaixo. Este arquivo está gitignore-d, mantendo os segredos seguros.

    cp .env.copy .env
  3. Preencha os valores (substitua os espaços reservados à direita do =) conforme descrito na próxima seção.

  4. (Opcional) Se você usar GitHub Codespaces, tem a opção de salvar variáveis de ambiente como segredos do Codespaces associados a este repositório. Nesse caso, não será necessário configurar um arquivo .env local. No entanto, note que essa opção funciona apenas se você usar GitHub Codespaces. Você ainda precisará configurar o arquivo .env se usar Docker Desktop.

Preencher arquivo .env

Vamos dar uma olhada rápida nos nomes das variáveis para entender o que representam:

Variável Descrição
HUGGING_FACE_API_KEY Este é o token de acesso do usuário que você configurou no seu perfil
OPENAI_API_KEY Esta é a chave de autorização para usar o serviço em endpoints OpenAI não Azure
AZURE_OPENAI_API_KEY Esta é a chave de autorização para usar esse serviço
AZURE_OPENAI_ENDPOINT Este é o endpoint implantado para um recurso Azure OpenAI
AZURE_OPENAI_DEPLOYMENT Este é o endpoint de implantação do modelo de geração de texto
AZURE_OPENAI_EMBEDDINGS_DEPLOYMENT Este é o endpoint de implantação do modelo de embeddings de texto

Nota: As duas últimas variáveis do Azure OpenAI refletem um modelo padrão para conclusão de chat (geração de texto) e busca vetorial (embeddings), respectivamente. As instruções para configurá-las serão definidas nas tarefas relevantes.

Configurar Azure: Pelo Portal

Os valores do endpoint e da chave Azure OpenAI serão encontrados no Portal Azure, então vamos começar por lá.

  1. Acesse o Portal Azure
  2. Clique na opção Chaves e Endpoint na barra lateral (menu à esquerda).
  3. Clique em Mostrar Chaves - você deverá ver o seguinte: CHAVE 1, CHAVE 2 e Endpoint.
  4. Use o valor da CHAVE 1 para AZURE_OPENAI_API_KEY
  5. Use o valor do Endpoint para AZURE_OPENAI_ENDPOINT

Em seguida, precisamos dos endpoints para os modelos específicos que implantamos.

  1. Clique na opção Implantações de modelo na barra lateral (menu à esquerda) do recurso Azure OpenAI.
  2. Na página de destino, clique em Gerenciar Implantações

Isso o levará ao site Azure OpenAI Studio, onde encontraremos os outros valores conforme descrito abaixo.

Configurar Azure: Pelo Studio

  1. Navegue até o Azure OpenAI Studio a partir do seu recurso conforme descrito acima.
  2. Clique na aba Implantações (barra lateral, à esquerda) para ver os modelos atualmente implantados.
  3. Se o modelo desejado não estiver implantado, use Criar nova implantação para implantá-lo.
  4. Você precisará de um modelo de geração de texto - recomendamos: gpt-35-turbo
  5. Você precisará de um modelo de embedding de texto - recomendamos text-embedding-ada-002

Agora atualize as variáveis de ambiente para refletir o Nome da implantação usado. Isso normalmente será o mesmo nome do modelo, a menos que você tenha alterado explicitamente. Então, como exemplo, você pode ter:

AZURE_OPENAI_DEPLOYMENT='gpt-35-turbo'
AZURE_OPENAI_EMBEDDINGS_DEPLOYMENT='text-embedding-ada-002'

Não esqueça de salvar o arquivo .env quando terminar. Agora você pode sair do arquivo e retornar às instruções para executar o notebook.

Configurar OpenAI: Pelo Perfil

Sua chave API OpenAI pode ser encontrada na sua conta OpenAI. Se você não tiver uma, pode se cadastrar e criar uma chave API. Depois de obter a chave, você pode usá-la para preencher a variável OPENAI_API_KEY no arquivo .env.

Configurar Hugging Face: Pelo Perfil

Seu token Hugging Face pode ser encontrado no seu perfil em Tokens de Acesso. Não publique ou compartilhe esses tokens publicamente. Em vez disso, crie um novo token para uso neste projeto e copie-o no arquivo .env sob a variável HUGGING_FACE_API_KEY. Nota: Tecnicamente, isso não é uma chave API, mas é usado para autenticação, então mantemos essa convenção de nomenclatura para consistência.


Aviso Legal:
Este documento foi traduzido utilizando o serviço de tradução por IA Co-op Translator. Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original em seu idioma nativo deve ser considerado a fonte autorizada. Para informações críticas, recomenda-se tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes do uso desta tradução.