Ang leksyon ay binuo gamit ang ilang pangunahing mapagkukunan mula sa OpenAI at Azure OpenAI bilang mga sanggunian para sa terminolohiya at mga tutorial. Narito ang isang hindi kumpletong listahan para sa iyong sariling mga paglalakbay sa pagsasariling pag-aaral.
| Pamagat/Link | Paglalarawan |
|---|---|
| Fine-tuning with OpenAI Models | Ang fine-tuning ay nagpapabuti sa few-shot learning sa pamamagitan ng pagsasanay sa mas maraming halimbawa kaysa sa maaaring magkasya sa prompt, na nakakatipid sa iyo ng mga gastos, nagpapabuti ng kalidad ng tugon, at nagbibigay-daan sa mas mababang latency ng mga kahilingan. Kumuha ng pangkalahatang ideya ng fine-tuning mula sa OpenAI. |
| What is Fine-Tuning with Azure OpenAI? | Unawain kung ano ang fine-tuning (konsepto), bakit mo ito dapat tingnan (motibasyon sa problema), anong data ang gagamitin (pagsasanay) at pagsukat ng kalidad |
| Customize a model with fine-tuning | Ang Azure OpenAI Service ay nagpapahintulot sa iyo na iangkop ang aming mga modelo sa iyong personal na dataset gamit ang fine-tuning. Alamin kung paano mag-fine-tune (proseso) pumili ng mga modelo gamit ang Azure AI Studio, Python SDK o REST API. |
| Recommendations for LLM fine-tuning | Maaaring hindi maganda ang pagganap ng LLMs sa mga partikular na domain, gawain, o dataset, o maaaring maglabas ng hindi tumpak o mapanlinlang na mga output. Kailan mo dapat isaalang-alang ang fine-tuning bilang isang posibleng solusyon dito? |
| Continuous Fine Tuning | Ang tuloy-tuloy na fine-tuning ay ang iterative na proseso ng pagpili ng isang na-fine-tune na modelo bilang isang base model at pag-fine-tune pa nito sa mga bagong hanay ng mga halimbawa ng pagsasanay. |
| Fine-tuning and function calling | Ang fine-tuning ng iyong modelo gamit ang mga halimbawa ng pagtawag ng function ay maaaring mapabuti ang output ng modelo sa pamamagitan ng pagkuha ng mas tumpak at pare-parehong mga output - na may katulad na format na mga tugon at pagtitipid sa gastos |
| Fine-tuning Models: Azure OpenAI Guidance | Suriin ang talahanayang ito upang maunawaan kung anong mga modelo ang maaaring i-fine-tune sa Azure OpenAI, at saang mga rehiyon ito magagamit. Suriin ang kanilang mga limitasyon sa token at mga petsa ng pag-expire ng data ng pagsasanay kung kinakailangan. |
| To Fine Tune or Not To Fine Tune? That is the Question | Ang 30-minutong Okt 2023 na episode ng AI Show ay tinatalakay ang mga benepisyo, kahinaan at praktikal na mga pananaw na makakatulong sa iyong gawin ang desisyong ito. |
| Getting Started With LLM Fine-Tuning | Ang mapagkukunang AI Playbook na ito ay naglalakad sa iyo sa mga kinakailangan sa data, pag-format, fine-tuning ng hyperparameter at mga hamon/mga limitasyon na dapat mong malaman. |
| Tutorial: Azure OpenAI GPT3.5 Turbo Fine-Tuning | Alamin kung paano gumawa ng sample na fine-tuning dataset, maghanda para sa fine-tuning, gumawa ng fine-tuning job, at i-deploy ang fine-tuned na modelo sa Azure. |
| Tutorial: Fine-tune a Llama 2 model in Azure AI Studio | Ang Azure AI Studio ay nagpapahintulot sa iyo na iangkop ang malalaking modelo ng wika sa iyong personal na dataset gamit ang isang UI-based na workflow na angkop para sa mga low-code na developer. Tingnan ang halimbawang ito. |
| Tutorial:Fine-tune Hugging Face models for a single GPU on Azure | Ang artikulong ito ay naglalarawan kung paano i-fine-tune ang isang Hugging Face model gamit ang Hugging Face transformers library sa isang single GPU na may Azure DataBricks + Hugging Face Trainer libraries |
| Training: Fine-tune a foundation model with Azure Machine Learning | Ang katalogo ng modelo sa Azure Machine Learning ay nag-aalok ng maraming open source na mga modelo na maaari mong i-fine-tune para sa iyong partikular na gawain. Subukan ang modyul na ito ay mula sa AzureML Generative AI Learning Path |
| Tutorial: Azure OpenAI Fine-Tuning | Ang fine-tuning ng mga modelo ng GPT-3.5 o GPT-4 sa Microsoft Azure gamit ang W&B ay nagpapahintulot sa detalyadong pagsubaybay at pagsusuri ng pagganap ng modelo. Ang gabay na ito ay nagpapalawak ng mga konsepto mula sa OpenAI Fine-Tuning guide na may mga partikular na hakbang at tampok para sa Azure OpenAI. |
Ang seksyong ito ay naglalaman ng karagdagang mga mapagkukunan na karapat-dapat tuklasin, ngunit wala kaming oras upang talakayin sa leksyong ito. Maaari silang talakayin sa isang hinaharap na leksyon, o bilang isang opsyonal na pangalawang gawain, sa isang susunod na petsa. Sa ngayon, gamitin ang mga ito upang bumuo ng iyong sariling kadalubhasaan at kaalaman sa paksang ito.
| Pamagat/Link | Paglalarawan |
|---|---|
| OpenAI Cookbook: Data preparation and analysis for chat model fine-tuning | Ang notebook na ito ay nagsisilbing tool para sa pagproseso at pagsusuri ng chat dataset na ginagamit para sa fine-tuning ng chat model. Sinasuri nito ang mga error sa format, nagbibigay ng mga pangunahing istatistika, at tinatantiya ang mga bilang ng token para sa mga gastos sa fine-tuning. Tingnan: Fine-tuning method for gpt-3.5-turbo. |
| OpenAI Cookbook: Fine-Tuning for Retrieval Augmented Generation (RAG) with Qdrant | Ang layunin ng notebook na ito ay lakarin ang isang komprehensibong halimbawa ng kung paano i-fine-tune ang mga OpenAI model para sa Retrieval Augmented Generation (RAG). Isasama rin namin ang Qdrant at Few-Shot Learning upang mapalakas ang pagganap ng modelo at mabawasan ang mga gawa-gawa. |
| OpenAI Cookbook: Fine-tuning GPT with Weights & Biases | Ang Weights & Biases (W&B) ay ang AI developer platform, na may mga tool para sa pagsasanay ng mga modelo, fine-tuning ng mga modelo, at pag-leverage ng mga foundation model. Basahin muna ang kanilang OpenAI Fine-Tuning na gabay, pagkatapos ay subukan ang Cookbook na ehersisyo. |
| Community Tutorial Phinetuning 2.0 - fine-tuning for Small Language Models | Kilalanin ang Phi-2, ang bagong maliit na modelo ng Microsoft, na kapansin-pansing makapangyarihan ngunit compact. Ang tutorial na ito ay gagabay sa iyo sa fine-tuning ng Phi-2, na nagpapakita kung paano bumuo ng isang natatanging dataset at fine-tune na modelo gamit ang QLoRA. |
| Hugging Face Tutorial How to Fine-Tune LLMs in 2024 with Hugging Face | Ang post sa blog na ito ay naglalakad sa iyo kung paano i-fine-tune ang mga open LLMs gamit ang Hugging Face TRL, Transformers & datasets sa 2024. Tinutukoy mo ang isang use case, nag-setup ng dev environment, naghahanda ng dataset, fine-tune ang modelo, sinusubukan-suriin ito, pagkatapos ay i-deploy ito sa production. |
| Hugging Face: AutoTrain Advanced | Nagdadala ng mas mabilis at mas madaling pagsasanay at mga pag-deploy ng state-of-the-art machine learning models. Ang repo ay may mga Colab-friendly na tutorial na may patnubay sa video sa YouTube, para sa fine-tuning. Sumasalamin sa kamakailang local-first na update. Basahin ang AutoTrain documentation |
Paunawa:
Ang dokumentong ito ay isinalin gamit ang AI translation service Co-op Translator. Bagamat nagsusumikap kami para sa katumpakan, mangyaring tandaan na ang mga awtomatikong pagsasalin ay maaaring maglaman ng mga pagkakamali o hindi pagkakaunawaan. Ang orihinal na dokumento sa kanyang katutubong wika ay dapat ituring na awtoritatibong pinagmulan. Para sa kritikal na impormasyon, inirerekomenda ang propesyonal na pagsasaling-wika ng tao. Hindi kami mananagot sa anumang hindi pagkakaintindihan o maling interpretasyon na dulot ng paggamit ng pagsasaling ito.