Lekcja została opracowana na podstawie wielu kluczowych zasobów OpenAI i Azure OpenAI, które posłużyły jako odniesienie do terminologii i samouczków. Poniżej znajduje się niepełna lista, która może posłużyć do samodzielnej nauki.
| Tytuł/Link | Opis |
|---|---|
| Fine-tuning with OpenAI Models | Fine-tuning to ulepszenie uczenia na podstawie kilku przykładów (few-shot learning) poprzez trenowanie na znacznie większej liczbie przykładów niż mieści się w promptcie, co pozwala obniżyć koszty, poprawić jakość odpowiedzi i umożliwia szybsze zapytania. Zapoznaj się z przeglądem fine-tuningu od OpenAI. |
| What is Fine-Tuning with Azure OpenAI? | Dowiedz się, czym jest fine-tuning (koncepcja), dlaczego warto się nim zainteresować (motywacja), jakie dane wykorzystać (trening) oraz jak mierzyć jakość |
| Customize a model with fine-tuning | Azure OpenAI Service pozwala dostosować modele do własnych zbiorów danych za pomocą fine-tuningu. Dowiedz się, jak przeprowadzić fine-tuning (proces) wybranych modeli korzystając z Azure AI Studio, Python SDK lub REST API. |
| Recommendations for LLM fine-tuning | Modele LLM mogą nie radzić sobie dobrze w specyficznych dziedzinach, zadaniach lub na określonych zbiorach danych, a także mogą generować niedokładne lub mylące odpowiedzi. Kiedy warto rozważyć fine-tuning jako potencjalne rozwiązanie? |
| Continuous Fine Tuning | Ciągły fine-tuning to iteracyjny proces wyboru już wytrenowanego modelu jako modelu bazowego i dalszego jego dostrajania na nowych zestawach przykładów treningowych. |
| Fine-tuning and function calling | Fine-tuning modelu z przykładami wywołań funkcji może poprawić jakość i spójność odpowiedzi modelu – uzyskując odpowiedzi o podobnym formacie oraz oszczędzając koszty |
| Fine-tuning Models: Azure OpenAI Guidance | Sprawdź tę tabelę, aby dowiedzieć się, które modele można dostrajać w Azure OpenAI oraz w jakich regionach są dostępne. Znajdziesz tam także limity tokenów i daty wygaśnięcia danych treningowych, jeśli są potrzebne. |
| To Fine Tune or Not To Fine Tune? That is the Question | Ten 30-minutowy odcinek AI Show z października 2023 omawia korzyści, wady i praktyczne wskazówki, które pomogą Ci podjąć decyzję o fine-tuningu. |
| Getting Started With LLM Fine-Tuning | Ten zasób z AI Playbook przeprowadzi Cię przez wymagania dotyczące danych, formatowanie, dostrajanie hiperparametrów oraz wyzwania i ograniczenia, o których warto wiedzieć. |
| Tutorial: Azure OpenAI GPT3.5 Turbo Fine-Tuning | Naucz się tworzyć przykładowy zestaw danych do fine-tuningu, przygotować się do fine-tuningu, utworzyć zadanie fine-tuningu i wdrożyć dostrojony model na platformie Azure. |
| Tutorial: Fine-tune a Llama 2 model in Azure AI Studio | Azure AI Studio pozwala dostosować duże modele językowe do własnych zbiorów danych za pomocą interfejsu użytkownika, odpowiedniego dla deweloperów low-code. Zobacz ten przykład. |
| Tutorial: Fine-tune Hugging Face models for a single GPU on Azure | Ten artykuł opisuje, jak dostroić model Hugging Face za pomocą biblioteki transformers na pojedynczym GPU, korzystając z Azure DataBricks i bibliotek Hugging Face Trainer. |
| Training: Fine-tune a foundation model with Azure Machine Learning | Katalog modeli w Azure Machine Learning oferuje wiele modeli open source, które możesz dostroić do swojego konkretnego zadania. Wypróbuj ten moduł z AzureML Generative AI Learning Path |
| Tutorial: Azure OpenAI Fine-Tuning | Fine-tuning modeli GPT-3.5 lub GPT-4 na Microsoft Azure z użyciem W&B pozwala na szczegółowe śledzenie i analizę wydajności modelu. Ten przewodnik rozszerza koncepcje z przewodnika OpenAI Fine-Tuning o konkretne kroki i funkcje dla Azure OpenAI. |
Ta sekcja zawiera dodatkowe materiały warte poznania, których nie udało się omówić podczas tej lekcji. Mogą zostać poruszone w przyszłych lekcjach lub jako opcjonalne zadania dodatkowe. Na razie wykorzystaj je do rozwijania własnej wiedzy i umiejętności w tym temacie.
| Tytuł/Link | Opis |
|---|---|
| OpenAI Cookbook: Przygotowanie i analiza danych do fine-tuningu modelu chat | Ten notatnik służy do wstępnego przetwarzania i analizy zbioru danych chat używanego do fine-tuningu modelu konwersacyjnego. Sprawdza błędy formatowania, dostarcza podstawowe statystyki i szacuje liczbę tokenów potrzebnych do obliczenia kosztów fine-tuningu. Zobacz: Metoda fine-tuningu dla gpt-3.5-turbo. |
| OpenAI Cookbook: Fine-tuning dla Retrieval Augmented Generation (RAG) z Qdrant | Celem tego notatnika jest przeprowadzenie kompleksowego przykładu, jak dostroić modele OpenAI do Retrieval Augmented Generation (RAG). Będziemy także integrować Qdrant i Few-Shot Learning, aby zwiększyć wydajność modelu i zmniejszyć liczbę błędnych odpowiedzi. |
| OpenAI Cookbook: Fine-tuning GPT z Weights & Biases | Weights & Biases (W&B) to platforma dla deweloperów AI, oferująca narzędzia do trenowania modeli, fine-tuningu i wykorzystania modeli bazowych. Najpierw przeczytaj ich przewodnik OpenAI Fine-Tuning, a następnie wypróbuj ćwiczenie z Cookbook. |
| Community Tutorial Phinetuning 2.0 - fine-tuning dla małych modeli językowych | Poznaj Phi-2, nowy, mały model Microsoftu, zaskakująco potężny, a jednocześnie kompaktowy. Ten tutorial przeprowadzi Cię przez fine-tuning Phi-2, pokazując, jak zbudować unikalny zestaw danych i dostroić model za pomocą QLoRA. |
| Hugging Face Tutorial Jak dostroić LLM w 2024 z Hugging Face | Ten wpis na blogu pokazuje, jak dostroić otwarte modele LLM za pomocą Hugging Face TRL, Transformers i datasets w 2024 roku. Definiujesz przypadek użycia, konfigurujesz środowisko, przygotowujesz zestaw danych, dostrajasz model, testujesz i oceniasz go, a następnie wdrażasz do produkcji. |
| Hugging Face: AutoTrain Advanced | Umożliwia szybsze i łatwiejsze trenowanie oraz wdrażanie nowoczesnych modeli uczenia maszynowego. Repozytorium zawiera tutoriale przyjazne dla Colab oraz przewodniki wideo na YouTube dotyczące fine-tuningu. Uwzględnia najnowszą aktualizację local-first. Przeczytaj dokumentację AutoTrain |
Zastrzeżenie:
Niniejszy dokument został przetłumaczony za pomocą usługi tłumaczenia AI Co-op Translator. Mimo że dążymy do dokładności, prosimy mieć na uwadze, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w języku źródłowym powinien być uznawany za źródło autorytatywne. W przypadku informacji o kluczowym znaczeniu zalecane jest skorzystanie z profesjonalnego tłumaczenia wykonanego przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z korzystania z tego tłumaczenia.