Skip to content

Latest commit

 

History

History
49 lines (42 loc) · 19.4 KB

File metadata and controls

49 lines (42 loc) · 19.4 KB

مصادر للتعلم الذاتي

تم بناء الدرس باستخدام عدد من المصادر الأساسية من OpenAI و Azure OpenAI كمرجع للمصطلحات والدروس. إليك قائمة غير شاملة، لرحلاتك الخاصة في التعلم الذاتي.

1. المصادر الأساسية

العنوان/الرابط الوصف
Fine-tuning with OpenAI Models تحسين النموذج باستخدام التخصيص الدقيق يحسن التعلم من خلال التدريب على أمثلة أكثر مما يمكن أن يتسع له في الطلب، مما يوفر التكاليف، ويحسن جودة الاستجابة، ويمكّن من طلبات ذات زمن استجابة أقل. احصل على نظرة عامة على التخصيص الدقيق من OpenAI.
What is Fine-Tuning with Azure OpenAI? فهم ما هو التخصيص الدقيق (المفهوم)، ولماذا يجب أن تنظر فيه (المشكلة المحفزة)، وما البيانات التي يجب استخدامها (التدريب) وكيفية قياس الجودة
Customize a model with fine-tuning تتيح لك خدمة Azure OpenAI تخصيص نماذجنا لبياناتك الشخصية باستخدام التخصيص الدقيق. تعلم كيفية التخصيص الدقيق (العملية) لاختيار النماذج باستخدام Azure AI Studio أو Python SDK أو REST API.
Recommendations for LLM fine-tuning قد لا تعمل النماذج اللغوية الكبيرة بشكل جيد على مجالات أو مهام أو مجموعات بيانات معينة، أو قد تنتج مخرجات غير دقيقة أو مضللة. متى يجب أن تنظر في التخصيص الدقيق كحل ممكن لهذا؟
Continuous Fine Tuning التخصيص الدقيق المستمر هو عملية تكرارية لاختيار نموذج تم تخصيصه بالفعل كنموذج أساسي وتخصيصه بدقة أكثر على مجموعات جديدة من أمثلة التدريب.
Fine-tuning and function calling يمكن أن يؤدي التخصيص الدقيق لنموذجك بأمثلة استدعاء الوظائف إلى تحسين مخرجات النموذج من خلال الحصول على مخرجات أكثر دقة وتناسقًا - مع استجابات ذات تنسيق مشابه وتوفير في التكاليف
Fine-tuning Models: Azure OpenAI Guidance ابحث في هذا الجدول لفهم ما النماذج التي يمكن تخصيصها بدقة في Azure OpenAI، وفي أي المناطق تتوفر هذه النماذج. تحقق من حدود الرموز وتواريخ انتهاء بيانات التدريب إذا لزم الأمر.
To Fine Tune or Not To Fine Tune? That is the Question يناقش هذا الحلقة التي مدتها 30 دقيقة من AI Show في أكتوبر 2023 الفوائد والعيوب والرؤى العملية التي تساعدك على اتخاذ هذا القرار.
Getting Started With LLM Fine-Tuning يأخذك هذا المورد AI Playbook خلال متطلبات البيانات، والتنسيق، وتخصيص المعاملات الفائقة، والتحديات/القيود التي يجب أن تعرفها.
Tutorial: Azure OpenAI GPT3.5 Turbo Fine-Tuning تعلم كيفية إنشاء مجموعة بيانات تخصيص دقيق نموذجية، والتحضير للتخصيص الدقيق، وإنشاء مهمة تخصيص دقيق، ونشر النموذج الذي تم تخصيصه بدقة على Azure.
Tutorial: Fine-tune a Llama 2 model in Azure AI Studio يتيح لك Azure AI Studio تخصيص نماذج اللغة الكبيرة لبياناتك الشخصية باستخدام سير عمل يعتمد على واجهة المستخدم مناسب للمطورين ذوي الكود المنخفض. شاهد هذا المثال.
Tutorial:Fine-tune Hugging Face models for a single GPU on Azure تصف هذه المقالة كيفية تخصيص نموذج Hugging Face باستخدام مكتبة محولات Hugging Face على وحدة معالجة رسومات واحدة مع Azure DataBricks + مكتبات Hugging Face Trainer
Training: Fine-tune a foundation model with Azure Machine Learning يقدم كتالوج النماذج في Azure Machine Learning العديد من النماذج مفتوحة المصدر التي يمكنك تخصيصها بدقة لمهمتك المحددة. جرب هذا النموذج من مسار التعلم AzureML Generative AI
Tutorial: Azure OpenAI Fine-Tuning يتيح التخصيص الدقيق لنماذج GPT-3.5 أو GPT-4 على Microsoft Azure باستخدام W&B تتبعًا مفصلًا وتحليلًا لأداء النموذج. يوسع هذا الدليل المفاهيم من دليل التخصيص الدقيق لـ OpenAI مع خطوات وميزات محددة لـ Azure OpenAI.

2. المصادر الثانوية

تحتوي هذه القسم على موارد إضافية تستحق الاستكشاف، ولكن لم يكن لدينا الوقت لتغطيتها في هذا الدرس. قد يتم تغطيتها في درس مستقبلي، أو كخيار مهمة ثانوية، في وقت لاحق. في الوقت الحالي، استخدمها لبناء خبرتك ومعرفتك حول هذا الموضوع.

العنوان/الرابط الوصف
OpenAI Cookbook: Data preparation and analysis for chat model fine-tuning يخدم هذا الدفتر كأداة لمعالجة وتحليل مجموعة البيانات المستخدمة لتخصيص نموذج الدردشة. يتحقق من أخطاء التنسيق، ويوفر إحصائيات أساسية، ويقدر عدد الرموز لتكاليف التخصيص الدقيق. انظر: طريقة التخصيص الدقيق لـ gpt-3.5-turbo.
OpenAI Cookbook: Fine-Tuning for Retrieval Augmented Generation (RAG) with Qdrant الهدف من هذا الدفتر هو المرور بمثال شامل لكيفية تخصيص نماذج OpenAI لتوليد المعلومات المدعومة بالاسترجاع (RAG). سنقوم أيضًا بدمج Qdrant و Few-Shot Learning لتحسين أداء النموذج وتقليل التلفيقات.
OpenAI Cookbook: Fine-tuning GPT with Weights & Biases Weights & Biases (W&B) هو منصة مطورين للذكاء الاصطناعي، مع أدوات لتدريب النماذج، وتخصيص النماذج، والاستفادة من النماذج الأساسية. اقرأ دليلهم OpenAI Fine-Tuning أولاً، ثم جرب تمرين Cookbook.
Community Tutorial Phinetuning 2.0 - fine-tuning for Small Language Models تعرف على Phi-2، النموذج الصغير الجديد من Microsoft، قوي بشكل ملحوظ ومع ذلك مضغوط. سيرشدك هذا البرنامج التعليمي عبر تخصيص Phi-2، ويظهر لك كيفية بناء مجموعة بيانات فريدة وتخصيص النموذج باستخدام QLoRA.
Hugging Face Tutorial How to Fine-Tune LLMs in 2024 with Hugging Face يأخذك هذا المنشور في المدونة عبر كيفية تخصيص النماذج اللغوية الكبيرة المفتوحة باستخدام Hugging Face TRL، وTransformers وdatasets في عام 2024. تحدد حالة استخدام، إعداد بيئة تطوير، تحضير مجموعة بيانات، تخصيص النموذج، اختباره وتقييمه، ثم نشره للإنتاج.
Hugging Face: AutoTrain Advanced يجلب تدريبًا ونشرًا أسرع وأسهل لـ نماذج التعلم الآلي المتطورة. يحتوي المستودع على دروس صديقة لـ Colab مع إرشادات فيديو على YouTube، للتخصيص الدقيق. يعكس التحديث الأخير local-first . اقرأ وثائق AutoTrain

إخلاء المسؤولية:
تم ترجمة هذه الوثيقة باستخدام خدمة الترجمة بالذكاء الاصطناعي Co-op Translator. بينما نسعى للدقة، يرجى العلم أن الترجمات الآلية قد تحتوي على أخطاء أو عدم دقة. يجب اعتبار الوثيقة الأصلية بلغتها الأم المصدر الرسمي. للحصول على معلومات حاسمة، يُوصى بالترجمة البشرية الاحترافية. نحن غير مسؤولين عن أي سوء فهم أو تفسير خاطئ ناتج عن استخدام هذه الترجمة.