Une question importante pour toutes les applications d'IA est la pertinence des fonctionnalités d'IA, car l'IA est un domaine en évolution rapide. Pour garantir que votre application reste pertinente, fiable et robuste, vous devez la surveiller, l'évaluer et l'améliorer en continu. C'est là qu'intervient le cycle de vie de l'IA générative.
Le cycle de vie de l'IA générative est un cadre qui vous guide à travers les étapes de développement, de déploiement et de maintenance d'une application d'IA générative. Il vous aide à définir vos objectifs, mesurer vos performances, identifier vos défis et mettre en œuvre vos solutions. Il vous aide également à aligner votre application avec les normes éthiques et juridiques de votre domaine et de vos parties prenantes. En suivant le cycle de vie de l'IA générative, vous pouvez vous assurer que votre application apporte toujours de la valeur et satisfait vos utilisateurs.
Dans ce chapitre, vous allez :
- Comprendre le changement de paradigme de MLOps à LLMOps
- Le cycle de vie des LLM
- Outils du cycle de vie
- Métrification et évaluation du cycle de vie
Les LLM sont un nouvel outil dans l'arsenal de l'intelligence artificielle, ils sont incroyablement puissants pour les tâches d'analyse et de génération pour les applications, cependant cette puissance a des conséquences sur la manière dont nous rationalisons les tâches d'IA et d'apprentissage automatique classique.
Avec cela, nous avons besoin d'un nouveau paradigme pour adapter cet outil de manière dynamique, avec les bons incitatifs. Nous pouvons catégoriser les anciennes applications d'IA comme des "Applications ML" et les nouvelles applications d'IA comme des "Applications GenAI" ou simplement "Applications IA", reflétant la technologie et les techniques grand public utilisées à l'époque. Cela modifie notre narration de plusieurs façons, regardez la comparaison suivante.
Notez que dans LLMOps, nous nous concentrons davantage sur les développeurs d'applications, en utilisant les intégrations comme point clé, en utilisant les "Modèles en tant que service" et en pensant aux points suivants pour les métriques.
- Qualité : Qualité de la réponse
- Dommage : IA responsable
- Honnêteté : Fondement de la réponse (Est-ce cohérent ? Est-ce correct ?)
- Coût : Budget de la solution
- Latence : Temps moyen de réponse par token
Tout d'abord, pour comprendre le cycle de vie et les modifications, notons l'infographie suivante.
Comme vous pouvez le constater, cela diffère des cycles de vie habituels de MLOps. Les LLM ont de nombreuses nouvelles exigences, comme le Prompting, différentes techniques pour améliorer la qualité (Fine-Tuning, RAG, Meta-Prompts), différentes évaluations et responsabilités avec l'IA responsable, enfin, de nouvelles métriques d'évaluation (Qualité, Dommage, Honnêteté, Coût et Latence).
Par exemple, regardez comment nous idéons. En utilisant l'ingénierie de prompt pour expérimenter avec divers LLM afin d'explorer les possibilités pour tester si leur hypothèse pourrait être correcte.
Notez que ce n'est pas linéaire, mais des boucles intégrées, itératives et avec un cycle global.
Comment pourrions-nous explorer ces étapes ? Entrons dans le détail de la construction d'un cycle de vie.
Cela peut sembler un peu compliqué, concentrons-nous d'abord sur les trois grandes étapes.
- Idéation/Exploration : Exploration, ici nous pouvons explorer selon nos besoins métier. Prototypage, création d'un PromptFlow et test pour vérifier s'il est suffisamment efficace pour notre hypothèse.
- Construction/Augmentation : Mise en œuvre, maintenant, nous commençons à évaluer pour des ensembles de données plus importants, à mettre en œuvre des techniques comme le Fine-tuning et RAG, pour vérifier la robustesse de notre solution. Si ce n'est pas le cas, la réimplémentation, l'ajout de nouvelles étapes dans notre flux ou la restructuration des données peuvent aider. Après avoir testé notre flux et notre échelle, s'il fonctionne et que nos métriques sont satisfaisantes, il est prêt pour l'étape suivante.
- Opérationnalisation : Intégration, maintenant ajout de systèmes de surveillance et d'alertes à notre système, déploiement et intégration de l'application à notre application.
Ensuite, nous avons le cycle global de gestion, axé sur la sécurité, la conformité et la gouvernance.
Félicitations, vous avez maintenant votre application IA prête à être utilisée et opérationnelle. Pour une expérience pratique, jetez un œil à la démonstration Contoso Chat.
Maintenant, quels outils pourrions-nous utiliser ?
Pour les outils, Microsoft propose la plateforme Azure AI et PromptFlow facilite et rend votre cycle facile à mettre en œuvre et prêt à l'emploi.
La plateforme Azure AI, vous permet d'utiliser AI Studio. AI Studio est un portail web qui vous permet d'explorer des modèles, des exemples et des outils. Gérer vos ressources, les flux de développement UI et les options SDK/CLI pour un développement Code-First.
Azure AI vous permet d'utiliser plusieurs ressources, pour gérer vos opérations, services, projets, recherche vectorielle et besoins en bases de données.
Construisez, du Proof-of-Concept (POC) jusqu'aux applications à grande échelle avec PromptFlow :
- Concevez et construisez des applications depuis VS Code, avec des outils visuels et fonctionnels
- Testez et affinez vos applications pour une IA de qualité, facilement.
- Utilisez Azure AI Studio pour intégrer et itérer avec le cloud, pousser et déployer pour une intégration rapide.
Incroyable, apprenez maintenant comment structurer une application pour utiliser les concepts avec l'application Contoso Chat, pour voir comment Cloud Advocacy ajoute ces concepts dans des démonstrations. Pour plus de contenu, consultez notre session Ignite !
Maintenant, consultez la leçon 15, pour comprendre comment Retrieval Augmented Generation et les bases de données vectorielles impactent l'IA générative et pour créer des applications plus engageantes !
Avertissement :
Ce document a été traduit à l’aide du service de traduction automatique Co-op Translator. Bien que nous nous efforcions d’assurer l’exactitude, veuillez noter que les traductions automatiques peuvent contenir des erreurs ou des inexactitudes. Le document original dans sa langue d’origine doit être considéré comme la source faisant foi. Pour les informations critiques, il est recommandé de recourir à une traduction professionnelle réalisée par un humain. Nous déclinons toute responsabilité en cas de malentendus ou de mauvaises interprétations résultant de l’utilisation de cette traduction.






