Le monde des LLMs open source est passionnant et en constante évolution. Cette leçon vise à offrir un aperçu approfondi des modèles open source. Si vous cherchez des informations sur la comparaison entre les modèles propriétaires et les modèles open source, consultez la leçon "Explorer et comparer différents LLMs". Cette leçon abordera également le sujet du fine-tuning, mais une explication plus détaillée est disponible dans la leçon "Fine-Tuning des LLMs".
- Comprendre les modèles open source
- Identifier les avantages de travailler avec des modèles open source
- Explorer les modèles disponibles sur Hugging Face et Azure AI Studio
Les logiciels open source ont joué un rôle crucial dans le développement technologique dans divers domaines. L'Open Source Initiative (OSI) a défini 10 critères pour qu'un logiciel soit classé comme open source. Le code source doit être partagé publiquement sous une licence approuvée par l'OSI.
Bien que le développement des LLMs partage des similitudes avec celui des logiciels, le processus n'est pas exactement le même. Cela a suscité de nombreuses discussions dans la communauté sur la définition de l'open source dans le contexte des LLMs. Pour qu'un modèle corresponde à la définition traditionnelle de l'open source, les informations suivantes doivent être publiquement disponibles :
- Les ensembles de données utilisés pour entraîner le modèle.
- Les poids complets du modèle dans le cadre de l'entraînement.
- Le code d'évaluation.
- Le code de fine-tuning.
- Les poids complets du modèle et les métriques d'entraînement.
Actuellement, seuls quelques modèles répondent à ces critères. Le modèle OLMo créé par l'Allen Institute for Artificial Intelligence (AllenAI) est un exemple qui correspond à cette catégorie.
Pour cette leçon, nous nous référerons aux modèles comme "modèles ouverts" à partir de maintenant, car ils peuvent ne pas correspondre aux critères ci-dessus au moment de la rédaction.
Fortement personnalisables - Étant donné que les modèles ouverts sont publiés avec des informations détaillées sur l'entraînement, les chercheurs et les développeurs peuvent modifier les éléments internes du modèle. Cela permet de créer des modèles hautement spécialisés, adaptés à une tâche ou un domaine d'étude spécifique. Quelques exemples incluent la génération de code, les opérations mathématiques et la biologie.
Coût - Le coût par token pour utiliser et déployer ces modèles est inférieur à celui des modèles propriétaires. Lors de la création d'applications d'IA générative, il est important de comparer la performance et le coût de ces modèles en fonction de votre cas d'utilisation.
Flexibilité - Travailler avec des modèles ouverts permet une grande flexibilité en termes d'utilisation de différents modèles ou de leur combinaison. Un exemple est les Assistants HuggingChat, où l'utilisateur peut sélectionner directement le modèle utilisé dans l'interface utilisateur :
LLama2, développé par Meta, est un modèle ouvert optimisé pour les applications basées sur le chat. Cela est dû à sa méthode de fine-tuning, qui inclut une grande quantité de dialogues et de retours humains. Grâce à cette méthode, le modèle produit des résultats plus alignés aux attentes humaines, offrant ainsi une meilleure expérience utilisateur.
Quelques exemples de versions fine-tunées de Llama incluent Japanese Llama, spécialisé dans le japonais, et Llama Pro, une version améliorée du modèle de base.
Mistral est un modèle ouvert axé sur la haute performance et l'efficacité. Il utilise l'approche Mixture-of-Experts, qui combine un groupe de modèles experts spécialisés en un seul système où, selon l'entrée, certains modèles sont sélectionnés pour être utilisés. Cela rend le calcul plus efficace, car les modèles ne traitent que les entrées pour lesquelles ils sont spécialisés.
Quelques exemples de versions fine-tunées de Mistral incluent BioMistral, axé sur le domaine médical, et OpenMath Mistral, qui réalise des calculs mathématiques.
Falcon est un LLM créé par le Technology Innovation Institute (TII). Le Falcon-40B a été entraîné sur 40 milliards de paramètres, ce qui a montré des performances supérieures à GPT-3 avec un budget de calcul moindre. Cela est dû à son utilisation de l'algorithme FlashAttention et de l'attention multiquery, qui lui permet de réduire les besoins en mémoire lors de l'inférence. Avec ce temps d'inférence réduit, le Falcon-40B est adapté aux applications de chat.
Quelques exemples de versions fine-tunées de Falcon incluent OpenAssistant, un assistant basé sur des modèles ouverts, et GPT4ALL, qui offre des performances supérieures au modèle de base.
Il n'existe pas de réponse unique pour choisir un modèle ouvert. Un bon point de départ est d'utiliser la fonctionnalité de filtrage par tâche de l'Azure AI Studio. Cela vous aidera à comprendre les types de tâches pour lesquels le modèle a été entraîné. Hugging Face maintient également un classement des LLMs qui montre les modèles les plus performants selon certains critères.
Pour comparer les LLMs entre différents types, Artificial Analysis est une autre excellente ressource :
Si vous travaillez sur un cas d'utilisation spécifique, rechercher des versions fine-tunées axées sur le même domaine peut être efficace. Expérimenter avec plusieurs modèles ouverts pour voir comment ils répondent à vos attentes et celles de vos utilisateurs est également une bonne pratique.
La meilleure partie des modèles ouverts est que vous pouvez commencer à travailler avec eux rapidement. Consultez le catalogue de modèles Azure AI Foundry, qui propose une collection spécifique de Hugging Face avec les modèles discutés ici.
Après avoir terminé cette leçon, consultez notre collection d'apprentissage sur l'IA générative pour continuer à approfondir vos connaissances en IA générative !
Avertissement :
Ce document a été traduit à l'aide du service de traduction automatique Co-op Translator. Bien que nous nous efforcions d'assurer l'exactitude, veuillez noter que les traductions automatisées peuvent contenir des erreurs ou des inexactitudes. Le document original dans sa langue d'origine doit être considéré comme la source faisant autorité. Pour des informations critiques, il est recommandé de recourir à une traduction professionnelle humaine. Nous ne sommes pas responsables des malentendus ou des interprétations erronées résultant de l'utilisation de cette traduction.



