Skip to content

Latest commit

 

History

History
40 lines (33 loc) · 19.1 KB

File metadata and controls

40 lines (33 loc) · 19.1 KB

משאבים ללמידה עצמית

השיעור נבנה תוך שימוש במגוון משאבים מרכזיים מ-OpenAI ו-Azure OpenAI כהפניות למונחים והדרכות. להלן רשימה לא מקיפה, לטובת מסעות הלמידה העצמית שלכם.

1. משאבים ראשיים

כותרת/קישור תיאור
Fine-tuning with OpenAI Models כוונון עדין משפר את הלמידה עם דוגמאות מועטות על ידי אימון על הרבה יותר דוגמאות ממה שניתן להכניס לפרומפט, חוסך עלויות, משפר את איכות התגובה ומאפשר בקשות עם זמן תגובה נמוך יותר. קבלו סקירה כללית על כוונון עדין מ-OpenAI.
What is Fine-Tuning with Azure OpenAI? הבן מהו כוונון עדין (מושג), מדוע כדאי לשקול אותו (הבעיה המניעה), אילו נתונים להשתמש (אימון) וכיצד למדוד את האיכות
Customize a model with fine-tuning שירות Azure OpenAI מאפשר לך להתאים את המודלים שלנו לנתונים האישיים שלך באמצעות כוונון עדין. למד איך לבצע כוונון עדין (תהליך), לבחור מודלים באמצעות Azure AI Studio, Python SDK או REST API.
Recommendations for LLM fine-tuning מודלים גדולים של שפה (LLMs) עשויים לא להצליח היטב בתחומים, משימות או מערכי נתונים ספציפיים, או לייצר פלטים לא מדויקים או מטעות. מתי כדאי לשקול כוונון עדין כפתרון אפשרי לכך?
Continuous Fine Tuning כוונון עדין רציף הוא תהליך איטרטיבי של בחירת מודל שכבר כוונן כבסיס וכוונונו עוד יותר על מערכי דוגמאות אימון חדשים.
Fine-tuning and function calling כוונון עדין של המודל שלך עם דוגמאות של קריאות לפונקציות יכול לשפר את הפלט על ידי קבלת תגובות מדויקות ועקביות יותר - עם תגובות בפורמט דומה וחיסכון בעלויות
Fine-tuning Models: Azure OpenAI Guidance עיין בטבלה זו כדי להבין אילו מודלים ניתן לכוונן עדין ב-Azure OpenAI, ובאילו אזורים הם זמינים. בדוק את מגבלות הטוקנים ותאריכי תפוגת נתוני האימון במידת הצורך.
To Fine Tune or Not To Fine Tune? That is the Question פרק של 30 דקות מ-אוקטובר 2023 בתוכנית AI Show, שבו נדונים היתרונות, החסרונות ותובנות מעשיות שיעזרו לך לקבל החלטה זו.
Getting Started With LLM Fine-Tuning משאב זה ב-AI Playbook מלווה אותך בדרישות הנתונים, עיצוב הפורמט, כוונון היפרפרמטרים ואתגרים/מגבלות שכדאי להכיר.
Tutorial: Azure OpenAI GPT3.5 Turbo Fine-Tuning למד כיצד ליצור מערך נתונים לדוגמה לכוונון עדין, להתכונן לכוונון, ליצור משימת כוונון עדין ולפרוס את המודל המכוונן ב-Azure.
Tutorial: Fine-tune a Llama 2 model in Azure AI Studio Azure AI Studio מאפשר לך להתאים מודלים גדולים של שפה לנתונים האישיים שלך באמצעות ממשק משתמש מתאים למפתחים עם מעט קוד. ראה דוגמה זו.
Tutorial:Fine-tune Hugging Face models for a single GPU on Azure מאמר זה מתאר כיצד לכוונן עדין מודל Hugging Face עם ספריית Hugging Face transformers על GPU יחיד באמצעות Azure DataBricks וספריות Hugging Face Trainer.
Training: Fine-tune a foundation model with Azure Machine Learning קטלוג המודלים ב-Azure Machine Learning מציע מודלים רבים בקוד פתוח שניתן לכוונן למשימה הספציפית שלך. נסה את המודול הזה מתוך מסלול הלמידה של AzureML Generative AI
Tutorial: Azure OpenAI Fine-Tuning כוונון עדין של מודלים GPT-3.5 או GPT-4 ב-Microsoft Azure באמצעות W&B מאפשר מעקב וניתוח מפורטים של ביצועי המודל. מדריך זה מרחיב את המושגים מדריך הכוונון העדין של OpenAI עם שלבים ותכונות ספציפיות ל-Azure OpenAI.

2. משאבים משניים

חלק זה כולל משאבים נוספים שכדאי לחקור, אך לא הספקנו לכסות בשיעור זה. ייתכן שיכוסו בשיעור עתידי, או כאפשרות משימה משנית במועד מאוחר יותר. לעת עתה, השתמשו בהם כדי לבנות את המומחיות והידע שלכם בנושא.

כותרת/קישור תיאור
OpenAI Cookbook: הכנת נתונים וניתוח לכוונון עדין של מודל שיחה מחברת זו משמשת ככלי לעיבוד מקדים וניתוח מערך הנתונים של השיחה המשמש לכוונון עדין של מודל שיחה. היא בודקת שגיאות פורמט, מספקת סטטיסטיקות בסיסיות ומעריכה את ספירת הטוקנים לצורך חישוב עלויות הכוונון. ראה: שיטת כוונון עדין ל-gpt-3.5-turbo.
OpenAI Cookbook: כוונון עדין ל-Retrieval Augmented Generation (RAG) עם Qdrant מטרת מחברת זו היא להדריך דוגמה מקיפה כיצד לכוונן עדין מודלים של OpenAI ל-Retrieval Augmented Generation (RAG). נשלב גם את Qdrant ולמידה עם דוגמאות מועטות לשיפור ביצועי המודל ולהפחתת המצאות שגויות.
OpenAI Cookbook: כוונון GPT עם Weights & Biases Weights & Biases (W&B) היא פלטפורמת מפתחים ל-AI עם כלים לאימון מודלים, כוונון עדין וניצול מודלים בסיסיים. קרא תחילה את מדריך OpenAI Fine-Tuning, ואז נסה את התרגיל במחברת.
Community Tutorial Phinetuning 2.0 - כוונון עדין למודלים קטנים של שפה הכירו את Phi-2, המודל הקטן החדש של מיקרוסופט, חזק ומרשים למרות גודלו הקומפקטי. מדריך זה ילווה אותך בתהליך כוונון Phi-2, כולל בניית מערך נתונים ייחודי וכוונון המודל באמצעות QLoRA.
Hugging Face Tutorial כיצד לכוונן LLMs ב-2024 עם Hugging Face פוסט בלוג זה מדריך כיצד לכוונן מודלים גדולים של שפה פתוחים באמצעות Hugging Face TRL, Transformers ומערכי נתונים בשנת 2024. אתה מגדיר מקרה שימוש, מכין סביבת פיתוח, מכין מערך נתונים, מבצע כוונון, בודק ומעריך, ואז מפעיל לפרודקשן.
Hugging Face: AutoTrain Advanced מביא אימון ופריסה מהירים וקלים יותר של מודלים מתקדמים ללמידת מכונה. הריפו כולל מדריכים ידידותיים ל-Colab עם הדרכה בווידאו ביוטיוב, לכוונון עדין. משקף עדכון local-first עדכני. קרא את תיעוד AutoTrain

כתב ויתור:
מסמך זה תורגם באמצעות שירות תרגום מבוסס בינה מלאכותית Co-op Translator. למרות שאנו שואפים לדיוק, יש לקחת בחשבון כי תרגומים אוטומטיים עלולים להכיל שגיאות או אי-דיוקים. המסמך המקורי בשפת המקור שלו נחשב למקור הסמכותי. למידע קריטי מומלץ להשתמש בתרגום מקצועי על ידי מתרגם אנושי. אנו לא נושאים באחריות לכל אי-הבנה או פרשנות שגויה הנובעת משימוש בתרגום זה.