Skip to content

Latest commit

 

History

History
133 lines (79 loc) · 7.08 KB

File metadata and controls

133 lines (79 loc) · 7.08 KB

Introdução aos Modelos Phi-Family no Foundry Local

Introdução ao Foundry Local

Foundry Local é uma poderosa solução de inferência de IA no dispositivo que traz recursos de IA em nível empresarial diretamente para seu hardware local. Este tutorial irá guiá-lo na configuração e uso dos modelos Phi-Family com Foundry Local, oferecendo controle total sobre suas cargas de trabalho de IA enquanto mantém a privacidade e reduz os custos.

Foundry Local oferece vantagens de desempenho, privacidade, personalização e custo ao executar modelos de IA localmente no seu dispositivo. Ele se integra perfeitamente aos seus fluxos de trabalho e aplicações existentes por meio de uma CLI intuitiva, SDK e API REST.

arch

Por que escolher o Foundry Local?

Compreender os benefícios do Foundry Local ajudará você a tomar decisões informadas sobre sua estratégia de implantação de IA:

  • Inferência no dispositivo: Execute modelos localmente no seu próprio hardware, reduzindo seus custos enquanto mantém todos os seus dados no dispositivo.

  • Personalização de modelos: Selecione entre modelos predefinidos ou use seus próprios para atender a requisitos e casos de uso específicos.

  • Eficiência de custo: Elimine custos recorrentes de serviços em nuvem usando seu hardware existente, tornando a IA mais acessível.

  • Integração contínua: Conecte-se com suas aplicações através de um SDK, endpoints de API ou a CLI, com fácil escalabilidade para o Microsoft Foundry à medida que suas necessidades crescem.

Nota para Iniciantes: Este tutorial foca no uso do Foundry Local através das interfaces CLI e SDK. Você aprenderá ambas as abordagens para escolher o melhor método para seu caso de uso.

Parte 1: Configurando a CLI do Foundry Local

Passo 1: Instalação

A CLI do Foundry Local é seu portal para gerenciar e executar modelos de IA localmente. Começaremos instalando-a no seu sistema.

Plataformas Suportadas: Windows e macOS

Para instruções detalhadas de instalação, consulte a documentação oficial do Foundry Local.

Passo 2: Explorando os Modelos Disponíveis

Depois de instalar a CLI do Foundry Local, você pode descobrir quais modelos estão disponíveis para seu caso de uso. Este comando mostrará todos os modelos suportados:

foundry model list

Passo 3: Compreendendo os Modelos Phi Family

A Phi Family oferece uma variedade de modelos otimizados para diferentes casos de uso e configurações de hardware. Aqui estão os modelos Phi disponíveis no Foundry Local:

Modelos Phi Disponíveis:

  • phi-3.5-mini - Modelo compacto para tarefas básicas
  • phi-3-mini-128k - Versão com contexto estendido para conversas mais longas
  • phi-3-mini-4k - Modelo de contexto padrão para uso geral
  • phi-4 - Modelo avançado com capacidades aprimoradas
  • phi-4-mini - Versão leve do Phi-4
  • phi-4-mini-reasoning - Especializado para tarefas complexas de raciocínio

Compatibilidade de Hardware: Cada modelo pode ser configurado para diferentes acelerações de hardware (CPU, GPU), dependendo das capacidades do seu sistema.

Passo 4: Executando seu Primeiro Modelo Phi

Vamos começar com um exemplo prático. Executaremos o modelo phi-4-mini-reasoning, que se destaca na resolução de problemas complexos passo a passo.

Comando para executar o modelo:

foundry model run Phi-4-mini-reasoning-generic-cpu

Configuração Inicial: Ao executar um modelo pela primeira vez, o Foundry Local realizará o download automático para seu dispositivo local. O tempo de download varia conforme a velocidade da sua rede, por favor, tenha paciência durante a configuração inicial.

Passo 5: Testando o Modelo com um Problema Real

Agora vamos testar nosso modelo com um problema clássico de lógica para ver como ele realiza o raciocínio passo a passo:

Problema de Exemplo:

Please calculate the following step by step: Now there are pheasants and rabbits in the same cage, there are thirty-five heads on top and ninety-four legs on the bottom, how many pheasants and rabbits are there?

Comportamento Esperado: O modelo deve decompor esse problema em passos lógicos, usando o fato de que faisões têm 2 pernas e coelhos têm 4 pernas para resolver o sistema de equações.

Resultados:

cli

Parte 2: Construindo Aplicações com o SDK Foundry Local

Por que usar o SDK?

Enquanto a CLI é perfeita para testes e interações rápidas, o SDK permite integrar o Foundry Local em suas aplicações de forma programática. Isso abre possibilidades para:

  • Construir aplicações personalizadas com IA
  • Criar fluxos de trabalho automatizados
  • Integrar capacidades de IA em sistemas existentes
  • Desenvolver chatbots e ferramentas interativas

Linguagens de Programação Suportadas

Foundry Local oferece suporte SDK para várias linguagens de programação para se adequar às suas preferências de desenvolvimento:

📦 SDKs Disponíveis:

Próximos Passos

  1. Escolha seu SDK preferido com base no seu ambiente de desenvolvimento
  2. Siga a documentação específica do SDK para guias detalhados de implementação
  3. Comece com exemplos simples antes de construir aplicações complexas
  4. Explore o código de exemplo fornecido em cada repositório do SDK

Conclusão

Agora você aprendeu a:

  • ✅ Instalar e configurar a CLI do Foundry Local
  • ✅ Descobrir e executar modelos Phi Family
  • ✅ Testar modelos com problemas do mundo real
  • ✅ Compreender as opções de SDK para desenvolvimento de aplicações

Foundry Local oferece uma base poderosa para trazer capacidades de IA diretamente ao seu ambiente local, dando a você controle sobre desempenho, privacidade e custos, enquanto mantém a flexibilidade de escalar para soluções em nuvem quando necessário.


Aviso legal:
Este documento foi traduzido usando o serviço de tradução por IA Co-op Translator. Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original em seu idioma nativo deve ser considerado a fonte autorizada. Para informações críticas, recomenda-se tradução humana profissional. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações errôneas decorrentes do uso desta tradução.