Foundry Local é uma poderosa solução de inferência de IA no dispositivo que traz recursos de IA em nível empresarial diretamente para seu hardware local. Este tutorial irá guiá-lo na configuração e uso dos modelos Phi-Family com Foundry Local, oferecendo controle total sobre suas cargas de trabalho de IA enquanto mantém a privacidade e reduz os custos.
Foundry Local oferece vantagens de desempenho, privacidade, personalização e custo ao executar modelos de IA localmente no seu dispositivo. Ele se integra perfeitamente aos seus fluxos de trabalho e aplicações existentes por meio de uma CLI intuitiva, SDK e API REST.
Compreender os benefícios do Foundry Local ajudará você a tomar decisões informadas sobre sua estratégia de implantação de IA:
-
Inferência no dispositivo: Execute modelos localmente no seu próprio hardware, reduzindo seus custos enquanto mantém todos os seus dados no dispositivo.
-
Personalização de modelos: Selecione entre modelos predefinidos ou use seus próprios para atender a requisitos e casos de uso específicos.
-
Eficiência de custo: Elimine custos recorrentes de serviços em nuvem usando seu hardware existente, tornando a IA mais acessível.
-
Integração contínua: Conecte-se com suas aplicações através de um SDK, endpoints de API ou a CLI, com fácil escalabilidade para o Microsoft Foundry à medida que suas necessidades crescem.
Nota para Iniciantes: Este tutorial foca no uso do Foundry Local através das interfaces CLI e SDK. Você aprenderá ambas as abordagens para escolher o melhor método para seu caso de uso.
A CLI do Foundry Local é seu portal para gerenciar e executar modelos de IA localmente. Começaremos instalando-a no seu sistema.
Plataformas Suportadas: Windows e macOS
Para instruções detalhadas de instalação, consulte a documentação oficial do Foundry Local.
Depois de instalar a CLI do Foundry Local, você pode descobrir quais modelos estão disponíveis para seu caso de uso. Este comando mostrará todos os modelos suportados:
foundry model listA Phi Family oferece uma variedade de modelos otimizados para diferentes casos de uso e configurações de hardware. Aqui estão os modelos Phi disponíveis no Foundry Local:
Modelos Phi Disponíveis:
- phi-3.5-mini - Modelo compacto para tarefas básicas
- phi-3-mini-128k - Versão com contexto estendido para conversas mais longas
- phi-3-mini-4k - Modelo de contexto padrão para uso geral
- phi-4 - Modelo avançado com capacidades aprimoradas
- phi-4-mini - Versão leve do Phi-4
- phi-4-mini-reasoning - Especializado para tarefas complexas de raciocínio
Compatibilidade de Hardware: Cada modelo pode ser configurado para diferentes acelerações de hardware (CPU, GPU), dependendo das capacidades do seu sistema.
Vamos começar com um exemplo prático. Executaremos o modelo phi-4-mini-reasoning, que se destaca na resolução de problemas complexos passo a passo.
Comando para executar o modelo:
foundry model run Phi-4-mini-reasoning-generic-cpuConfiguração Inicial: Ao executar um modelo pela primeira vez, o Foundry Local realizará o download automático para seu dispositivo local. O tempo de download varia conforme a velocidade da sua rede, por favor, tenha paciência durante a configuração inicial.
Agora vamos testar nosso modelo com um problema clássico de lógica para ver como ele realiza o raciocínio passo a passo:
Problema de Exemplo:
Please calculate the following step by step: Now there are pheasants and rabbits in the same cage, there are thirty-five heads on top and ninety-four legs on the bottom, how many pheasants and rabbits are there?Comportamento Esperado: O modelo deve decompor esse problema em passos lógicos, usando o fato de que faisões têm 2 pernas e coelhos têm 4 pernas para resolver o sistema de equações.
Resultados:
Enquanto a CLI é perfeita para testes e interações rápidas, o SDK permite integrar o Foundry Local em suas aplicações de forma programática. Isso abre possibilidades para:
- Construir aplicações personalizadas com IA
- Criar fluxos de trabalho automatizados
- Integrar capacidades de IA em sistemas existentes
- Desenvolver chatbots e ferramentas interativas
Foundry Local oferece suporte SDK para várias linguagens de programação para se adequar às suas preferências de desenvolvimento:
📦 SDKs Disponíveis:
- C# (.NET): Documentação & Exemplos do SDK
- Python: Documentação & Exemplos do SDK
- JavaScript: Documentação & Exemplos do SDK
- Rust: Documentação & Exemplos do SDK
- Escolha seu SDK preferido com base no seu ambiente de desenvolvimento
- Siga a documentação específica do SDK para guias detalhados de implementação
- Comece com exemplos simples antes de construir aplicações complexas
- Explore o código de exemplo fornecido em cada repositório do SDK
Agora você aprendeu a:
- ✅ Instalar e configurar a CLI do Foundry Local
- ✅ Descobrir e executar modelos Phi Family
- ✅ Testar modelos com problemas do mundo real
- ✅ Compreender as opções de SDK para desenvolvimento de aplicações
Foundry Local oferece uma base poderosa para trazer capacidades de IA diretamente ao seu ambiente local, dando a você controle sobre desempenho, privacidade e custos, enquanto mantém a flexibilidade de escalar para soluções em nuvem quando necessário.
Aviso legal:
Este documento foi traduzido usando o serviço de tradução por IA Co-op Translator. Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original em seu idioma nativo deve ser considerado a fonte autorizada. Para informações críticas, recomenda-se tradução humana profissional. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações errôneas decorrentes do uso desta tradução.

