คลิกที่ภาพด้านบนเพื่อดูวิดีโอของบทเรียนนี้
ในบทเรียนก่อนหน้านี้ เราได้เห็นว่า Generative AI กำลังเปลี่ยนแปลงภูมิทัศน์ของเทคโนโลยีอย่างไร วิธีการทำงานของ Large Language Models (LLMs) และวิธีที่ธุรกิจ เช่น สตาร์ทอัพของเรา สามารถนำไปใช้กับกรณีการใช้งานและเติบโตได้! ในบทนี้ เราจะเปรียบเทียบและวิเคราะห์ LLMs ประเภทต่างๆ เพื่อทำความเข้าใจข้อดีและข้อเสียของแต่ละแบบ
ขั้นตอนต่อไปในเส้นทางของสตาร์ทอัพของเราคือการสำรวจภูมิทัศน์ปัจจุบันของ LLMs และทำความเข้าใจว่าแบบใดเหมาะสมกับกรณีการใช้งานของเรา
บทเรียนนี้จะครอบคลุม:
- ประเภทต่างๆ ของ LLMs ในภูมิทัศน์ปัจจุบัน
- การทดสอบ การปรับปรุง และการเปรียบเทียบโมเดลต่างๆ สำหรับกรณีการใช้งานของคุณใน Azure
- วิธีการปรับใช้ LLM
หลังจากจบบทเรียนนี้ คุณจะสามารถ:
- เลือกโมเดลที่เหมาะสมสำหรับกรณีการใช้งานของคุณ
- เข้าใจวิธีการทดสอบ ปรับปรุง และเพิ่มประสิทธิภาพของโมเดลของคุณ
- รู้วิธีที่ธุรกิจปรับใช้โมเดล
LLMs สามารถแบ่งประเภทได้หลายแบบตามสถาปัตยกรรม ข้อมูลการฝึก และกรณีการใช้งาน การทำความเข้าใจความแตกต่างเหล่านี้จะช่วยให้สตาร์ทอัพของเราเลือกโมเดลที่เหมาะสมกับสถานการณ์ และเข้าใจวิธีการทดสอบ ปรับปรุง และเพิ่มประสิทธิภาพ
มีโมเดล LLMs หลายประเภท การเลือกโมเดลขึ้นอยู่กับสิ่งที่คุณต้องการใช้ ข้อมูลของคุณ งบประมาณ และอื่นๆ
ขึ้นอยู่กับว่าคุณต้องการใช้โมเดลสำหรับการสร้างข้อความ เสียง วิดีโอ ภาพ และอื่นๆ คุณอาจเลือกใช้โมเดลประเภทต่างๆ
-
การรู้จำเสียงและคำพูด สำหรับวัตถุประสงค์นี้ โมเดลประเภท Whisper เป็นตัวเลือกที่ดี เนื่องจากเป็นโมเดลทั่วไปที่มุ่งเน้นการรู้จำคำพูด มันถูกฝึกด้วยเสียงที่หลากหลายและสามารถทำการรู้จำคำพูดหลายภาษาได้ เรียนรู้เพิ่มเติมเกี่ยวกับ โมเดลประเภท Whisper ที่นี่
-
การสร้างภาพ สำหรับการสร้างภาพ DALL-E และ Midjourney เป็นตัวเลือกที่รู้จักกันดี DALL-E มีให้บริการผ่าน Azure OpenAI อ่านเพิ่มเติมเกี่ยวกับ DALL-E ที่นี่ และในบทที่ 9 ของหลักสูตรนี้
-
การสร้างข้อความ โมเดลส่วนใหญ่ถูกฝึกเพื่อการสร้างข้อความ และคุณมีตัวเลือกมากมายตั้งแต่ GPT-3.5 ถึง GPT-4 ซึ่งมีค่าใช้จ่ายต่างกัน โดย GPT-4 มีราคาสูงที่สุด ควรลองดู Azure OpenAI playground เพื่อประเมินว่าโมเดลใดเหมาะสมที่สุดสำหรับความต้องการของคุณในแง่ของความสามารถและค่าใช้จ่าย
-
การทำงานหลายรูปแบบ หากคุณต้องการจัดการข้อมูลหลายประเภทในอินพุตและเอาต์พุต คุณอาจต้องการดูโมเดลอย่าง gpt-4 turbo with vision หรือ gpt-4o ซึ่งเป็นรุ่นล่าสุดของโมเดล OpenAI ที่สามารถรวมการประมวลผลภาษาธรรมชาติกับการเข้าใจภาพ ทำให้สามารถโต้ตอบผ่านอินเทอร์เฟซหลายรูปแบบได้
การเลือกโมเดลหมายความว่าคุณจะได้รับความสามารถพื้นฐาน ซึ่งอาจยังไม่เพียงพอ อย่างไรก็ตาม บ่อยครั้งคุณมีข้อมูลเฉพาะของบริษัทที่คุณต้องบอก LLMs ด้วย มีวิธีการหลายแบบในการจัดการเรื่องนี้ ซึ่งจะกล่าวถึงในส่วนถัดไป
คำว่า Foundation Model ถูก บัญญัติโดยนักวิจัยจาก Stanford และถูกนิยามว่าเป็นโมเดล AI ที่มีเกณฑ์บางอย่าง เช่น:
- ถูกฝึกด้วยการเรียนรู้แบบไม่มีผู้ดูแลหรือการเรียนรู้แบบมีผู้ดูแลตัวเอง หมายความว่ามันถูกฝึกด้วยข้อมูลหลายรูปแบบที่ไม่มีการติดป้ายกำกับ และไม่ต้องการการติดป้ายกำกับหรือการบันทึกข้อมูลโดยมนุษย์ในกระบวนการฝึก
- เป็นโมเดลขนาดใหญ่ ที่ใช้เครือข่ายประสาทลึกมากและถูกฝึกด้วยพารามิเตอร์นับพันล้าน
- มักถูกออกแบบมาเพื่อเป็น ‘พื้นฐาน’ สำหรับโมเดลอื่นๆ หมายความว่ามันสามารถใช้เป็นจุดเริ่มต้นสำหรับการสร้างโมเดลอื่นๆ โดยการปรับแต่งเพิ่มเติม
แหล่งที่มาของภาพ: Essential Guide to Foundation Models and Large Language Models | โดย Babar M Bhatti | Medium
เพื่ออธิบายความแตกต่างนี้เพิ่มเติม ลองใช้ ChatGPT เป็นตัวอย่าง ในการสร้าง ChatGPT รุ่นแรก โมเดลที่เรียกว่า GPT-3.5 ถูกใช้เป็น Foundation Model ซึ่งหมายความว่า OpenAI ใช้ข้อมูลเฉพาะสำหรับการสนทนาเพื่อสร้างเวอร์ชันที่ปรับแต่งของ GPT-3.5 ที่เชี่ยวชาญในการทำงานได้ดีในสถานการณ์การสนทนา เช่น chatbot
แหล่งที่มาของภาพ: 2108.07258.pdf (arxiv.org)
อีกวิธีหนึ่งในการจัดประเภท LLMs คือการพิจารณาว่าเป็นโอเพ่นซอร์สหรือเป็นกรรมสิทธิ์
โมเดลโอเพ่นซอร์สคือโมเดลที่เปิดให้สาธารณะและสามารถใช้งานได้โดยทุกคน มักถูกเผยแพร่โดยบริษัทที่สร้างมันขึ้นมา หรือโดยชุมชนวิจัย โมเดลเหล่านี้สามารถตรวจสอบ แก้ไข และปรับแต่งสำหรับกรณีการใช้งานต่างๆ ใน LLMs อย่างไรก็ตาม โมเดลเหล่านี้ไม่ได้ถูกปรับให้เหมาะสมสำหรับการใช้งานในระดับการผลิตเสมอไป และอาจไม่สามารถทำงานได้ดีเท่ากับโมเดลที่เป็นกรรมสิทธิ์ นอกจากนี้ การสนับสนุนทางการเงินสำหรับโมเดลโอเพ่นซอร์สอาจมีจำกัด และอาจไม่ได้รับการดูแลในระยะยาวหรือไม่ได้รับการอัปเดตด้วยงานวิจัยล่าสุด ตัวอย่างของโมเดลโอเพ่นซอร์สที่ได้รับความนิยม ได้แก่ Alpaca, Bloom และ LLaMA
โมเดลที่เป็นกรรมสิทธิ์คือโมเดลที่เป็นของบริษัทและไม่ได้เปิดให้สาธารณะ โมเดลเหล่านี้มักถูกปรับให้เหมาะสมสำหรับการใช้งานในระดับการผลิต อย่างไรก็ตาม โมเดลเหล่านี้ไม่สามารถตรวจสอบ แก้ไข หรือปรับแต่งสำหรับกรณีการใช้งานต่างๆ ได้ นอกจากนี้ โมเดลเหล่านี้ไม่ได้เปิดให้ใช้งานฟรีเสมอไป และอาจต้องการการสมัครสมาชิกหรือการชำระเงินเพื่อใช้งาน นอกจากนี้ ผู้ใช้ไม่มีการควบคุมข้อมูลที่ใช้ในการฝึกโมเดล ซึ่งหมายความว่าพวกเขาต้องไว้วางใจเจ้าของโมเดลในการรับรองความมุ่งมั่นต่อความเป็นส่วนตัวของข้อมูลและการใช้ AI อย่างมีความรับผิดชอบ ตัวอย่างของโมเดลที่เป็นกรรมสิทธิ์ที่ได้รับความนิยม ได้แก่ OpenAI models, Google Bard หรือ Claude 2
LLMs ยังสามารถจัดประเภทตามผลลัพธ์ที่พวกเขาสร้างได้
การฝังข้อมูลคือชุดของโมเดลที่สามารถแปลงข้อความเป็นรูปแบบตัวเลขที่เรียกว่าการฝังข้อมูล ซึ่งเป็นการแสดงผลตัวเลขของข้อความที่ป้อน การฝังข้อมูลทำให้เครื่องจักรเข้าใจความสัมพันธ์ระหว่างคำหรือประโยคได้ง่ายขึ้น และสามารถใช้เป็นอินพุตโดยโมเดลอื่นๆ เช่น โมเดลการจำแนกประเภท หรือโมเดลการจัดกลุ่มที่มีประสิทธิภาพดีกว่าบนข้อมูลตัวเลข โมเดลการฝังข้อมูลมักถูกใช้สำหรับการเรียนรู้แบบถ่ายโอน ซึ่งโมเดลถูกสร้างขึ้นสำหรับงานตัวแทนที่มีข้อมูลมากมาย และจากนั้นน้ำหนักของโมเดล (การฝังข้อมูล) ถูกนำไปใช้ใหม่สำหรับงานต่อเนื่อง ตัวอย่างของหมวดหมู่นี้คือ OpenAI embeddings
โมเดลการสร้างภาพคือโมเดลที่สร้างภาพ โมเดลเหล่านี้มักถูกใช้สำหรับการแก้ไขภาพ การสังเคราะห์ภาพ และการแปลภาพ โมเดลการสร้างภาพมักถูกฝึกด้วยชุดข้อมูลขนาดใหญ่ของภาพ เช่น LAION-5B และสามารถใช้สร้างภาพใหม่หรือแก้ไขภาพที่มีอยู่ด้วยเทคนิคการเติมภาพ การเพิ่มความละเอียด และการปรับสี ตัวอย่างได้แก่ DALL-E-3 และ Stable Diffusion models
โมเดลการสร้างข้อความและโค้ดคือโมเดลที่สร้างข้อความหรือโค้ด โมเดลเหล่านี้มักถูกใช้สำหรับการสรุปข้อความ การแปล และการตอบคำถาม โมเดลการสร้างข้อความมักถูกฝึกด้วยชุดข้อมูลขนาดใหญ่ของข้อความ เช่น BookCorpus และสามารถใช้สร้างข้อความใหม่หรือตอบคำถาม โมเดลการสร้างโค้ด เช่น CodeParrot มักถูกฝึกด้วยชุดข้อมูลขนาดใหญ่ของโค้ด เช่น GitHub และสามารถใช้สร้างโค้ดใหม่หรือแก้ไขข้อผิดพลาดในโค้ดที่มีอยู่
เพื่อพูดถึงประเภทต่างๆ ของสถาปัตยกรรมของ LLMs ลองใช้การเปรียบเทียบ
ลองจินตนาการว่าผู้จัดการของคุณมอบหมายงานให้คุณเขียนแบบทดสอบสำหรับนักเรียน คุณมีเพื่อนร่วมงานสองคน คนหนึ่งดูแลการสร้างเนื้อหาและอีกคนดูแลการตรวจสอบ
ผู้สร้างเนื้อหาเปรียบเสมือนโมเดล Decoder-only พวกเขาสามารถดูหัวข้อและสิ่งที่คุณเขียนแล้วสร้างเนื้อหาตามนั้น พวกเขาเก่งในการเขียนเนื้อหาที่น่าสนใจและให้ข้อมูล แต่ไม่เก่งในการทำความเข้าใจหัวข้อและวัตถุประสงค์การเรียนรู้ ตัวอย่างของโมเดล Decoder-only คือโมเดลตระกูล GPT เช่น GPT-3
ผู้ตรวจสอบเปรียบเสมือนโมเดล Encoder-only พวกเขาดูเนื้อหาที่เขียนและคำตอบ สังเกตความสัมพันธ์ระหว่างกันและเข้าใจบริบท แต่ไม่เก่งในการสร้างเนื้อหา ตัวอย่างของโมเดล Encoder-only คือ BERT
ลองจินตนาการว่าเรามีคนที่สามารถสร้างและตรวจสอบแบบทดสอบได้ด้วย นี่คือโมเดล Encoder-Decoder ตัวอย่างได้แก่ BART และ T5
ตอนนี้เรามาพูดถึงความแตกต่างระหว่างบริการและโมเดล บริการคือผลิตภัณฑ์ที่นำเสนอโดยผู้ให้บริการคลาวด์ และมักเป็นการรวมกันของโมเดล ข้อมูล และส่วนประกอบอื่นๆ โมเดลคือส่วนประกอบหลักของบริการ และมักเป็น Foundation Model เช่น LLM
บริการมักถูกปรับให้เหมาะสมสำหรับการใช้งานในระดับการผลิต และมักใช้งานง่ายกว่าด้วยอินเทอร์เฟซแบบกราฟิก อย่างไรก็ตาม บริการไม่ได้เปิดให้ใช้งานฟรีเสมอไป และอาจต้องการการสมัครสมาชิกหรือการชำระเงินเพื่อใช้งาน เพื่อแลกกับการใช้ทรัพยากรและอุปกรณ์ของเจ้าของบริการ ลดค่าใช้จ่ายและปรับขนาดได้ง่าย ตัวอย่างของบริการคือ Azure OpenAI Service ซึ่งมีแผนการชำระเงินตามการใช้งาน หมายความว่าผู้ใช้จะถูกเรียกเก็บเงินตามสัดส่วนของการใช้งาน นอกจากนี้ Azure OpenAI Service ยังมีความปลอดภัยระดับองค์กรและกรอบการทำงาน AI ที่มีความรับผิดชอบบนความสามารถของโมเดล
โมเดลคือเพียงแค่เครือข่ายประสาท พร้อมพารามิเตอร์ น้ำหนัก และอื่นๆ อนุญาตให้บริษัทใช้งานในพื้นที่ได้ อย่างไรก็ตาม จะต้องซื้ออุปกรณ์ สร้างโครงสร้างเพื่อปรับขนาด และซื้อใบอนุญาตหรือใช้โมเดลโอเพ่นซอร์ส โมเดลอย่าง LLaMA มีให้ใช้งาน แต่ต้องการพลังการประมวลผลเพื่อรันโมเดล
เมื่อทีมของเราได้สำรวจภูมิทัศน์ LLMs ปัจจุบันและระบุผู้สมัครที่ดีสำหรับสถานการณ์ของพวกเขา ขั้นตอนต่อไปคือการทดสอบโมเดลเหล่านั้นกับข้อมูลและงานของพวกเขา นี่เป็นกระบวนการที่ต้องทำซ้ำ โดยการทดลองและวัดผล โมเดลส่วนใหญ่ที่เราได้กล่าวถึงในย่อหน้าก่อนหน้านี้ (โมเดลของ OpenAI, โมเดลโอเพ่นซอร์สอย่าง Llama2 และ Hugging Face transformers) มีให้ใช้งานใน Model Catalog ใน Azure AI Studio
Azure AI Studio เป็นแพลตฟอร์มคลาวด์ที่ออกแบบมาสำหรับนักพัฒนาเพื่อสร้างแอปพลิเคชัน AI เชิงสร้างสรรค์และจัดการวงจรการพัฒนาทั้งหมด ตั้งแต่การทดลองไปจนถึงการประเมินผล โดยการรวมบริการ Azure AI ทั้งหมดไว้ในศูนย์กลางเดียวที่มี GUI ใช้งานง่าย Model Catalog ใน Azure AI Studio ช่วยให้ผู้ใช้สามารถ:
-
ค้นหา Foundation Model ที่สนใจในแคตตาล็อก ไม่ว่าจะเป็นโมเดลที่เป็นกรรมสิทธิ์หรือโอเพ่นซอร์ส โดยสามารถกรองตามงานที่ต้องการ ใบอนุญาต หรือชื่อ เพื่อเพิ่มความสะดวกในการค้นหา โมเดลจะถูกจัดกลุ่มเป็นคอลเลกชัน เช่น Azure OpenAI collection, Hugging Face collection และอื่นๆ
-
ตรวจสอบ model card ซึ่งรวมถึงคำอธิบายรายละเอียดเกี่ยวกับการใช้งานที่ตั้งใจไว้และข้อมูลการฝึกอบรม ตัวอย่างโค้ด และผลการประเมินในคลังการประเมินภายใน
-
เปรียบเทียบ benchmarks ระหว่างโมเดลและชุดข้อมูลที่มีอยู่ในอุตสาหกรรมเพื่อประเมินว่าโมเดลใดเหมาะสมกับสถานการณ์ธุรกิจ ผ่านหน้าต่าง Model Benchmarks
-
ปรับแต่งโมเดลด้วยข้อมูลการฝึกอบรมเฉพาะเพื่อปรับปรุงประสิทธิภาพของโมเดลในงานเฉพาะ โดยใช้ความสามารถในการทดลองและติดตามของ Azure AI Studio
-
นำโมเดลที่ผ่านการฝึกอบรมล่วงหน้าหรือเวอร์ชันที่ปรับแต่งแล้วไปใช้งานใน inference แบบเรียลไทม์ - การประมวลผลที่มีการจัดการ - หรือ endpoint API แบบ serverless - จ่ายตามการใช้งาน - เพื่อให้แอปพลิเคชันสามารถใช้งานได้
Note
ไม่ใช่ทุกโมเดลในแคตตาล็อกที่สามารถปรับแต่งและ/หรือใช้งานแบบจ่ายตามการใช้งานได้ในปัจจุบัน โปรดตรวจสอบ model card เพื่อดูรายละเอียดเกี่ยวกับความสามารถและข้อจำกัดของโมเดล
เราได้สำรวจร่วมกับทีมสตาร์ทอัพของเราเกี่ยวกับ LLM ประเภทต่างๆ และแพลตฟอร์มคลาวด์ (Azure Machine Learning) ที่ช่วยให้เราสามารถเปรียบเทียบโมเดลต่างๆ ประเมินผลบนข้อมูลทดสอบ ปรับปรุงประสิทธิภาพ และนำไปใช้งานบน inference endpoints
แต่เมื่อไหร่ที่ควรพิจารณาปรับแต่งโมเดลแทนที่จะใช้โมเดลที่ผ่านการฝึกอบรมล่วงหน้า? มีวิธีอื่นๆ ในการปรับปรุงประสิทธิภาพของโมเดลในงานเฉพาะหรือไม่?
มีหลายวิธีที่ธุรกิจสามารถใช้เพื่อให้ได้ผลลัพธ์ที่ต้องการจาก LLM คุณสามารถเลือกโมเดลประเภทต่างๆ ที่มีระดับการฝึกอบรมแตกต่างกันเมื่อใช้งาน LLM ในการผลิต โดยมีระดับความซับซ้อน ค่าใช้จ่าย และคุณภาพที่แตกต่างกัน นี่คือวิธีการต่างๆ:
-
การออกแบบคำสั่ง (Prompt engineering) พร้อมบริบท แนวคิดคือการให้บริบทที่เพียงพอเมื่อคุณส่งคำสั่งเพื่อให้ได้คำตอบที่คุณต้องการ
-
Retrieval Augmented Generation, RAG ข้อมูลของคุณอาจอยู่ในฐานข้อมูลหรือ endpoint เว็บ ตัวอย่างเช่น เพื่อให้แน่ใจว่าข้อมูลนี้หรือส่วนหนึ่งของข้อมูลนี้ถูกรวมไว้ในเวลาที่ส่งคำสั่ง คุณสามารถดึงข้อมูลที่เกี่ยวข้องและทำให้เป็นส่วนหนึ่งของคำสั่งของผู้ใช้
-
โมเดลที่ปรับแต่งแล้ว ในกรณีนี้ คุณฝึกอบรมโมเดลเพิ่มเติมด้วยข้อมูลของคุณเอง ซึ่งทำให้โมเดลมีความแม่นยำและตอบสนองต่อความต้องการของคุณมากขึ้น แต่ก็อาจมีค่าใช้จ่ายสูง
LLM ที่ผ่านการฝึกอบรมล่วงหน้าทำงานได้ดีมากในงานภาษาธรรมชาติทั่วไป แม้กระทั่งการเรียกใช้งานด้วยคำสั่งสั้นๆ เช่น ประโยคที่ต้องการให้เติมเต็มหรือคำถาม – ซึ่งเรียกว่า “zero-shot” learning
อย่างไรก็ตาม ยิ่งผู้ใช้สามารถกำหนดคำถามของตนได้มากขึ้น ด้วยคำขอที่ละเอียดและตัวอย่าง – บริบท – คำตอบก็จะยิ่งแม่นยำและใกล้เคียงกับความคาดหวังของผู้ใช้มากขึ้น ในกรณีนี้ เราจะพูดถึง “one-shot” learning หากคำสั่งมีเพียงตัวอย่างเดียว และ “few-shot learning” หากมีตัวอย่างหลายตัวอย่าง การออกแบบคำสั่งพร้อมบริบทเป็นวิธีที่คุ้มค่าที่สุดในการเริ่มต้น
LLM มีข้อจำกัดที่สามารถใช้ได้เฉพาะข้อมูลที่ถูกใช้ในระหว่างการฝึกอบรมเพื่อสร้างคำตอบ ซึ่งหมายความว่าพวกมันไม่สามารถรู้เกี่ยวกับข้อเท็จจริงที่เกิดขึ้นหลังจากกระบวนการฝึกอบรม และไม่สามารถเข้าถึงข้อมูลที่ไม่เปิดเผยต่อสาธารณะ (เช่น ข้อมูลบริษัท) สิ่งนี้สามารถแก้ไขได้ด้วย RAG ซึ่งเป็นเทคนิคที่เพิ่มคำสั่งด้วยข้อมูลภายนอกในรูปแบบของส่วนของเอกสาร โดยพิจารณาจากข้อจำกัดของความยาวคำสั่ง ซึ่งได้รับการสนับสนุนโดยเครื่องมือฐานข้อมูล Vector (เช่น Azure Vector Search) ที่ดึงส่วนที่มีประโยชน์จากแหล่งข้อมูลที่กำหนดไว้ล่วงหน้าและเพิ่มเข้าไปในบริบทของคำสั่ง
เทคนิคนี้มีประโยชน์มากเมื่อธุรกิจไม่มีข้อมูลเพียงพอ ไม่มีเวลาเพียงพอ หรือทรัพยากรในการปรับแต่ง LLM แต่ยังต้องการปรับปรุงประสิทธิภาพในงานเฉพาะและลดความเสี่ยงของการสร้างข้อมูลเท็จ เช่น การบิดเบือนความจริงหรือเนื้อหาที่เป็นอันตราย
การปรับแต่งเป็นกระบวนการที่ใช้การเรียนรู้แบบถ่ายโอน (transfer learning) เพื่อ ‘ปรับ’ โมเดลให้เหมาะสมกับงานที่ต้องการหรือแก้ปัญหาเฉพาะ แตกต่างจากการเรียนรู้แบบ few-shot และ RAG มันส่งผลให้เกิดโมเดลใหม่ที่มีการปรับปรุงน้ำหนักและอคติ มันต้องการชุดตัวอย่างการฝึกอบรมที่ประกอบด้วยอินพุตเดียว (คำสั่ง) และผลลัพธ์ที่เกี่ยวข้อง (การเติมเต็ม) นี่จะเป็นวิธีที่เหมาะสมหาก:
-
การใช้โมเดลที่ปรับแต่งแล้ว ธุรกิจต้องการใช้โมเดลที่ปรับแต่งแล้วที่มีความสามารถน้อยกว่า (เช่น embedding models) แทนที่จะใช้โมเดลที่มีประสิทธิภาพสูง ซึ่งส่งผลให้เป็นโซลูชันที่คุ้มค่าและรวดเร็วกว่า
-
พิจารณาความล่าช้า ความล่าช้ามีความสำคัญสำหรับกรณีการใช้งานเฉพาะ ดังนั้นจึงไม่สามารถใช้คำสั่งที่ยาวมากหรือจำนวนตัวอย่างที่ควรเรียนรู้จากโมเดลที่ไม่เหมาะสมกับข้อจำกัดความยาวคำสั่ง
-
การอัปเดตข้อมูล ธุรกิจมีข้อมูลคุณภาพสูงและป้ายกำกับความจริงที่ต้องการ และทรัพยากรที่จำเป็นในการรักษาข้อมูลนี้ให้ทันสมัยอยู่เสมอ
การฝึกอบรม LLM ตั้งแต่เริ่มต้นเป็นวิธีที่ยากที่สุดและซับซ้อนที่สุดในการนำไปใช้ ต้องการข้อมูลจำนวนมาก ทรัพยากรที่มีความเชี่ยวชาญ และพลังการประมวลผลที่เหมาะสม ตัวเลือกนี้ควรพิจารณาเฉพาะในกรณีที่ธุรกิจมีกรณีการใช้งานเฉพาะด้านและข้อมูลที่เน้นเฉพาะด้านในปริมาณมาก
วิธีใดที่เหมาะสมในการปรับปรุงผลลัพธ์การเติมเต็มของ LLM?
- การออกแบบคำสั่งพร้อมบริบท
- RAG
- โมเดลที่ปรับแต่งแล้ว
A:3, หากคุณมีเวลาและทรัพยากรและข้อมูลคุณภาพสูง การปรับแต่งจะเป็นตัวเลือกที่ดีกว่าในการรักษาความทันสมัย อย่างไรก็ตาม หากคุณต้องการปรับปรุงและไม่มีเวลา ควรพิจารณา RAG ก่อน
ศึกษาข้อมูลเพิ่มเติมเกี่ยวกับวิธีที่คุณสามารถ ใช้ RAG สำหรับธุรกิจของคุณ
หลังจากจบบทเรียนนี้แล้ว ลองดู Generative AI Learning collection ของเราเพื่อเพิ่มพูนความรู้เกี่ยวกับ Generative AI ของคุณ!
ไปที่บทเรียนที่ 3 ซึ่งเราจะมาดูวิธี สร้างด้วย Generative AI อย่างมีความรับผิดชอบ!
ข้อจำกัดความรับผิดชอบ:
เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI Co-op Translator แม้ว่าเราจะพยายามให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลโดยอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้





