Phi é uma série de modelos de IA open source desenvolvidos pela Microsoft.
Atualmente, Phi é o modelo de linguagem pequena (SLM) mais poderoso e econômico, com excelentes benchmarks em múltiplos idiomas, raciocínio, geração de texto/chat, codificação, imagens, áudio e outros cenários.
Você pode implantar Phi na nuvem ou em dispositivos de borda, e construir facilmente aplicações de IA generativa com poder computacional limitado.
Siga estes passos para começar a usar estes recursos:
- Faça um fork do repositório: Clique
- Clone o repositório:
git clone https://github.com/microsoft/PhiCookBook.git - Junte-se à Comunidade Discord da Microsoft AI e conheça especialistas e outros desenvolvedores
Árabe | Bengali | Búlgaro | Birmanês (Myanmar) | Chinês (Simplificado) | Chinês (Tradicional, Hong Kong) | Chinês (Tradicional, Macau) | Chinês (Tradicional, Taiwan) | Croata | Tcheco | Dinamarquês | Holandês | Estoniano | Finlandês | Francês | Alemão | Grego | Hebraico | Hindi | Húngaro | Indonésio | Italiano | Japonês | Kannada | Coreano | Lituano | Malaio | Malaiala | Marata | Nepali | Pidgin Nigeriano | Norueguês | Persa (Farsi) | Polonês | Português (Brasil) | Português (Portugal) | Punjabi (Gurmukhi) | Romeno | Russo | Sérvio (Cirílico) | Eslovaco | Esloveno | Espanhol | Suaíli | Sueco | Tagalog (Filipino) | Tâmil | Telugu | Tailandês | Turco | Ucraniano | Urdu | Vietnamita
Prefere clonar localmente?
Este repositório inclui traduções para mais de 50 idiomas, o que aumenta significativamente o tamanho do download. Para clonar sem traduções, use checkout esparso:
Bash / macOS / Linux:
git clone --filter=blob:none --sparse https://github.com/microsoft/PhiCookBook.git cd PhiCookBook git sparse-checkout set --no-cone '/*' '!translations' '!translated_images'CMD (Windows):
git clone --filter=blob:none --sparse https://github.com/microsoft/PhiCookBook.git cd PhiCookBook git sparse-checkout set --no-cone "/*" "!translations" "!translated_images"Isso fornece tudo que você precisa para completar o curso com um download muito mais rápido.
- Introdução - Bem-vindo à Família Phi - Configurando seu ambiente - Entendendo Tecnologias-Chave - Segurança em IA para Modelos Phi - Suporte de Hardware Phi - Modelos Phi e Disponibilidade em várias plataformas - Usando Guidance-ai e Phi - Modelos GitHub Marketplace - Catálogo de Modelos AI do Azure - Inferência Phi em diferentes ambientes - Hugging face - Modelos GitHub - Catálogo de Modelos Microsoft Foundry - Ollama - AI Toolkit VSCode (AITK) - NVIDIA NIM - Foundry Local - Inferência Família Phi - Inferência Phi no iOS - Inferência Phi no Android - Inferência Phi no Jetson - Inferência Phi no PC de IA - Inferência Phi com Apple MLX Framework - Inferência Phi em Servidor Local - Inferência Phi em Servidor Remoto usando AI Toolkit - Inferência Phi com Rust - Inferência Phi--Visão Local - Inferência Phi com Kaito AKS, Contêineres Azure (suporte oficial) - Quantificando Família Phi - Quantizando Phi-3.5 / 4 usando llama.cpp - Quantizando Phi-3.5 / 4 usando Extensões de IA Generativa para onnxruntime - Quantizando Phi-3.5 / 4 usando Intel OpenVINO - Quantizando Phi-3.5 / 4 usando Apple MLX Framework - Avaliação Phi - IA Responsável - Microsoft Foundry para Avaliação - Usando Promptflow para Avaliação - RAG com Azure AI Search - Como usar Phi-4-mini e Phi-4-multimodal (RAG) com Azure AI Search - Exemplos de desenvolvimento de aplicações Phi - Aplicações de Texto e Chat - Exemplos Phi-4 - [📓] Chat com Modelo ONNX Phi-4-mini - Chat com Modelo ONNX Phi-4 local .NET - App Console Chat .NET com Phi-4 ONNX usando Semantic Kernel - Exemplos Phi-3 / 3.5 - Chatbot local no navegador usando Phi3, ONNX Runtime Web e WebGPU - Chat OpenVino - Modelo Múltiplo - Phi-3-mini interativo e OpenAI Whisper - MLFlow - Construindo um wrapper e usando Phi-3 com MLFlow - Otimização de Modelo - Como otimizar o modelo Phi-3-min para ONNX Runtime Web com Olive - App WinUI3 com Phi-3 mini-4k-instruct-onnx -Exemplo de App de Notas AI Powered Multi Model WinUI3 - Fine-tune e Integre modelos Phi-3 personalizados com Prompt flow - Fine-tune e Integre modelos Phi-3 personalizados com Prompt flow no Microsoft Foundry - Avalie o modelo Phi-3 / Phi-3.5 Fine-tuned no Microsoft Foundry focando nos Princípios de IA Responsável da Microsoft - [📓] Exemplo de predição linguística Phi-3.5-mini-instruct (Chinês/Inglês) - Chatbot WebGPU Phi-3.5-Instruct RAG - Usando GPU do Windows para criar solução Prompt flow com Phi-3.5-Instruct ONNX - Usando Microsoft Phi-3.5 tflite para criar app Android - Exemplo Q&A .NET usando modelo ONNX Phi-3 local com Microsoft.ML.OnnxRuntime - App Console chat .NET com Semantic Kernel e Phi-3 - Exemplos de código com Azure AI Inference SDK - Exemplos Phi-4 - [📓] Gerar código de projeto usando Phi-4-multimodal - Exemplos Phi-3 / 3.5 - Construa seu próprio GitHub Copilot Chat do Visual Studio Code com Microsoft Phi-3 Family - Crie seu próprio Agente Chat Copilot no Visual Studio Code com Phi-3.5 usando Modelos GitHub - Exemplos de Raciocínio Avançado - Exemplos Phi-4 - [📓] Amostras Phi-4-mini-reasoning ou Phi-4-reasoning - [📓] Fine-tuning Phi-4-mini-reasoning com Microsoft Olive - [📓] Fine-tuning Phi-4-mini-reasoning com Apple MLX - [📓] Phi-4-mini-reasoning com Modelos GitHub - [📓] Phi-4-mini-reasoning com Modelos Microsoft Foundry - Demos - Demos Phi-4-mini hospedados no Hugging Face Spaces - Demos Phi-4-multimodal hospedados no Hugginge Face Spaces - Amostras de Visão - Amostras Phi-4 - [📓] Use Phi-4-multimodal para ler imagens e gerar código - Amostras Phi-3 / 3.5 - [📓]Phi-3-vision-Texto de imagem para texto - Phi-3-vision-ONNX - [📓]Incorporação CLIP Phi-3-vision - DEMO: Phi-3 Recycling - Phi-3-vision - Assistente de linguagem visual - com Phi3-Vision e OpenVINO - Phi-3 Vision Nvidia NIM - Phi-3 Vision OpenVino - [📓]Amostra Phi-3.5 Vision multi-quadro ou multi-imagem - Modelo ONNX local Phi-3 Vision usando Microsoft.ML.OnnxRuntime .NET - Modelo ONNX local Phi-3 Vision baseado em menu usando Microsoft.ML.OnnxRuntime .NET - Amostras de Raciocínio-Visão - Phi-4-Reasoning-Vision-15B - [📓] Usando Phi-4-Reasoning-Vision-15B para detectar passagem perigosa - [📓] Usando Phi-4-Reasoning-Vision-15B para matemática - [📓] Usando Phi-4-Reasoning-Vision-15B para detectar UI - Amostras de Matemática - Amostras Phi-4-Mini-Flash-Reasoning-Instruct Demonstração de Matemática com Phi-4-Mini-Flash-Reasoning-Instruct - Amostras de Áudio - Amostras Phi-4 - [📓] Extraindo transcrições de áudio usando Phi-4-multimodal - [📓] Amostra de Áudio Phi-4-multimodal - [📓] Amostra de Tradução de Fala Phi-4-multimodal - Aplicação console .NET usando Phi-4-multimodal Áudio para analisar um arquivo de áudio e gerar transcrição - Amostras MOE - Amostras Phi-3 / 3.5 - [📓] Modelos Mistura de Especialistas (MoEs) Phi-3.5 - Amostra de Mídias Sociais - [📓] Construindo um Pipeline de Geração Aumentada por Recuperação (RAG) com NVIDIA NIM Phi-3 MOE, Azure AI Search, e LlamaIndex - - Amostras de Chamada de Função - Amostras Phi-4 🆕 - [📓] Usando Chamada de Função com Phi-4-mini - [📓] Usando Chamada de Função para criar multiagentes com Phi-4-mini - [📓] Usando Chamada de Função com Ollama - [📓] Usando Chamada de Função com ONNX - Amostras de Mistura Multimodal - Amostras Phi-4 🆕 - [📓] Usando Phi-4-multimodal como jornalista de tecnologia - Aplicação console .NET usando Phi-4-multimodal para analisar imagens - Amostras de Fine-tuning Phi - Cenários de Fine-tuning - Fine-tuning vs RAG - Fine-tuning: Deixe Phi-3 se tornar um especialista da indústria - Fine-tuning Phi-3 com AI Toolkit para VS Code - Fine-tuning Phi-3 com Azure Machine Learning Service - Fine-tuning Phi-3 com Lora - Fine-tuning Phi-3 com QLora - Fine-tuning Phi-3 com Microsoft Foundry - Fine-tuning Phi-3 com Azure ML CLI/SDK - Fine-tuning com Microsoft Olive - Laboratório prático de Fine-tuning com Microsoft Olive - Fine-tuning Phi-3-vision com Weights and Bias - Fine-tuning Phi-3 com Apple MLX Framework - Fine-tuning Phi-3-vision (suporte oficial) - Fine-Tuning Phi-3 com Kaito AKS, Contêineres Azure (Suporte oficial) - Fine-Tuning Phi-3 e 3.5 Vision - Laboratório prático - Explorando modelos de ponta: LLMs, SLMs, desenvolvimento local e mais - Desbloqueando o potencial de NLP: Fine-Tuning com Microsoft Olive - Artigos acadêmicos e publicações - Textbooks Are All You Need II: relatório técnico phi-1.5 - Relatório Técnico Phi-3: Um modelo de linguagem altamente capaz localmente no seu telefone - Relatório Técnico Phi-4 - Relatório Técnico Phi-4-Mini: Modelos compactos porém poderosos de linguagem multimodal via Mistura de LoRAs - Otimização de pequenos modelos de linguagem para chamada de função em veículos - (WhyPHI) Fine-Tuning PHI-3 para perguntas de múltipla escolha: Metodologia, Resultados e Desafios - Relatório Técnico Phi-4-reasoning
- Relatório Técnico Phi-4-mini-raciocínio
Phi é uma série de modelos de IA open source desenvolvidos pela Microsoft.
Phi é atualmente o modelo de linguagem pequeno (SLM) mais poderoso e com custo-benefício, apresentando ótimos benchmarks em múltiplos idiomas, raciocínio, geração de texto/chat, codificação, imagens, áudio e outros cenários.
Você pode implantar Phi na nuvem ou em dispositivos de borda, e pode facilmente construir aplicações de IA generativa com poder computacional limitado.
Siga estes passos para começar a usar esses recursos:
- Faça um fork do Repositório: Clique em
- Clone o Repositório:
git clone https://github.com/microsoft/PhiCookBook.git - Junte-se à Comunidade Microsoft AI no Discord e conheça especialistas e outros desenvolvedores
Árabe | Bengali | Búlgaro | Birmanês (Myanmar) | Chinês (Simplificado) | Chinês (Tradicional, Hong Kong) | Chinês (Tradicional, Macau) | Chinês (Tradicional, Taiwan) | Croata | Tcheco | Dinamarquês | Holandês | Estoniano | Finlandês | Francês | Alemão | Grego | Hebraico | Hindi | Húngaro | Indonésio | Italiano | Japonês | Kannada | Coreano | Lituano | Malaio | Malaiala | Marata | Nepali | Pidgin Nigeriano | Norueguês | Persa (Farsi) | Polonês | Português (Brasil) | Português (Portugal) | Punjabi (Gurmukhi) | Romeno | Russo | Sérvio (Cirílico) | Eslovaco | Esloveno | Espanhol | Swahili | Sueco | Tagalog (Filipino) | Tâmil | Telugu | Tailandês | Turco | Ucraniano | Urdu | Vietnamita
Prefere Clonar Localmente?
Este repositório inclui mais de 50 traduções de idiomas, o que aumenta significativamente o tamanho do download. Para clonar sem traduções, use checkout esparso:
Bash / macOS / Linux:
git clone --filter=blob:none --sparse https://github.com/microsoft/PhiCookBook.git cd PhiCookBook git sparse-checkout set --no-cone '/*' '!translations' '!translated_images'CMD (Windows):
git clone --filter=blob:none --sparse https://github.com/microsoft/PhiCookBook.git cd PhiCookBook git sparse-checkout set --no-cone "/*" "!translations" "!translated_images"Isso te dá tudo que você precisa para completar o curso com um download muito mais rápido.
Você pode aprender a usar o Microsoft Phi e como construir soluções E2E em seus diferentes dispositivos de hardware. Para experimentar o Phi por conta própria, comece testando os modelos e personalizando o Phi para seus cenários usando o Catálogo de Modelos Azure AI do Microsoft Foundry. Você pode aprender mais em Começando com Microsoft Foundry
Playground
Cada modelo tem um playground dedicado para testar o modelo Azure AI Playground.
Você pode aprender a usar o Microsoft Phi e como construir soluções E2E em seus diferentes dispositivos de hardware. Para experimentar o Phi por conta própria, comece testando o modelo e personalizando Phi para seus cenários usando o Catálogo de Modelos do GitHub. Você pode aprender mais em Começando com Catálogo de Modelos do GitHub
Playground
Cada modelo tem um playground dedicado para testar o modelo.
Você também pode encontrar o modelo na Hugging Face
Playground
Hugging Chat playground
Nossa equipe produz outros cursos! Confira:
A Microsoft está comprometida em ajudar nossos clientes a usar nossos produtos de IA de forma responsável, compartilhando nossas aprendizagens e construindo parcerias baseadas na confiança por meio de ferramentas como Notas de Transparência e Avaliações de Impacto. Muitos desses recursos podem ser encontrados em https://aka.ms/RAI. A abordagem da Microsoft para IA responsável está fundamentada em nossos princípios de IA de justiça, confiabilidade e segurança, privacidade e segurança, inclusão, transparência e responsabilidade.
Modelos de linguagem natural, imagens e fala em grande escala - como os usados neste exemplo - podem potencialmente se comportar de maneiras injustas, não confiáveis ou ofensivas, causando danos. Por favor, consulte a nota de transparência do serviço Azure OpenAI para se informar sobre riscos e limitações.
A abordagem recomendada para mitigar esses riscos é incluir um sistema de segurança em sua arquitetura que possa detectar e prevenir comportamentos prejudiciais. Azure AI Content Safety fornece uma camada independente de proteção, capaz de detectar conteúdo gerado por usuários e por IA prejudicial em aplicativos e serviços. O Azure AI Content Safety inclui APIs de texto e imagens que permitem detectar material prejudicial. Dentro do Microsoft Foundry, o serviço Content Safety permite que você visualize, explore e experimente código de exemplo para detectar conteúdo prejudicial em diferentes modalidades. A documentação de início rápido a seguir orienta você a fazer solicitações ao serviço.
Outro aspecto a considerar é o desempenho geral da aplicação. Com aplicações multimodais e multimodelos, consideramos desempenho a capacidade do sistema de funcionar conforme as expectativas suas e dos usuários, incluindo não gerar resultados prejudiciais. É importante avaliar o desempenho da sua aplicação geral usando os avaliadores de Desempenho e Qualidade e Risco e Segurança. Você também tem a habilidade de criar e avaliar com avaliadores personalizados.
Você pode avaliar sua aplicação de IA no seu ambiente de desenvolvimento usando o Azure AI Evaluation SDK. Dado um conjunto de dados de teste ou um objetivo, as gerações da sua aplicação de IA generativa são medidas quantitativamente com avaliadores embutidos ou avaliadores personalizados de sua escolha. Para começar com o azure ai evaluation sdk para avaliar seu sistema, você pode seguir o guia de início rápido. Uma vez executada uma avaliação, você pode visualizar os resultados no Microsoft Foundry.
Este projeto pode conter marcas registradas ou logos de projetos, produtos ou serviços. O uso autorizado das marcas ou logos da Microsoft está sujeito e deve seguir as Diretrizes de Marcas Registradas e Marca da Microsoft. O uso das marcas ou logos da Microsoft em versões modificadas deste projeto não deve causar confusão nem implicar patrocínio da Microsoft. Qualquer uso de marcas ou logos de terceiros está sujeito às políticas desses terceiros.
Se você travar ou tiver alguma dúvida sobre a construção de aplicativos de IA, entre:
Se você tem feedback do produto ou erros durante a construção, visite:
Aviso Legal:
Este documento foi traduzido usando o serviço de tradução por IA Co-op Translator. Embora nos esforcemos pela precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original em seu idioma nativo deve ser considerado a fonte autorizada. Para informações críticas, recomenda-se tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes do uso desta tradução.
