Skip to content

Latest commit

 

History

History
100 lines (61 loc) · 8.1 KB

File metadata and controls

100 lines (61 loc) · 8.1 KB

Mengintegrasikan dengan pemanggilan fungsi

Siklus Hidup Aplikasi AI Generatif

Pertanyaan penting untuk semua aplikasi AI adalah relevansi fitur AI, karena AI adalah bidang yang berkembang pesat. Untuk memastikan aplikasi Anda tetap relevan, andal, dan tangguh, Anda perlu memantau, mengevaluasi, dan meningkatkannya secara terus-menerus. Di sinilah siklus hidup AI generatif berperan.

Siklus hidup AI generatif adalah kerangka kerja yang membimbing Anda melalui tahap-tahap pengembangan, penerapan, dan pemeliharaan aplikasi AI generatif. Kerangka ini membantu Anda mendefinisikan tujuan, mengukur kinerja, mengidentifikasi tantangan, dan menerapkan solusi. Selain itu, kerangka ini membantu Anda menyelaraskan aplikasi dengan standar etika dan hukum di bidang Anda serta para pemangku kepentingan. Dengan mengikuti siklus hidup AI generatif, Anda dapat memastikan bahwa aplikasi Anda selalu memberikan nilai dan memenuhi kebutuhan pengguna.

Pendahuluan

Dalam bab ini, Anda akan:

  • Memahami Perubahan Paradigma dari MLOps ke LLMOps
  • Siklus Hidup LLM
  • Alat untuk Siklus Hidup
  • Metrifikasi dan Evaluasi Siklus Hidup

Memahami Perubahan Paradigma dari MLOps ke LLMOps

LLM adalah alat baru dalam dunia Kecerdasan Buatan, yang sangat kuat dalam tugas analisis dan generasi untuk aplikasi. Namun, kekuatan ini memiliki konsekuensi dalam cara kita menyederhanakan tugas AI dan Pembelajaran Mesin Klasik.

Dengan ini, kita memerlukan Paradigma baru untuk menyesuaikan alat ini secara dinamis, dengan insentif yang tepat. Kita dapat mengkategorikan aplikasi AI lama sebagai "Aplikasi ML" dan aplikasi AI baru sebagai "Aplikasi GenAI" atau hanya "Aplikasi AI", mencerminkan teknologi dan teknik utama yang digunakan pada saat itu. Perubahan ini menggeser narasi kita dalam berbagai cara, lihat perbandingan berikut.

Perbandingan LLMOps vs. MLOps

Perhatikan bahwa dalam LLMOps, kita lebih fokus pada Pengembang Aplikasi, menggunakan integrasi sebagai poin utama, menggunakan "Model-sebagai-Layanan" dan memikirkan poin-poin berikut untuk metrik.

  • Kualitas: Kualitas respons
  • Bahaya: AI yang bertanggung jawab
  • Kejujuran: Dasar respons (Masuk akal? Apakah benar?)
  • Biaya: Anggaran solusi
  • Latensi: Waktu rata-rata untuk respons token

Siklus Hidup LLM

Pertama, untuk memahami siklus hidup dan modifikasinya, mari kita perhatikan infografis berikut.

Infografis LLMOps

Seperti yang Anda lihat, ini berbeda dari siklus hidup biasa dalam MLOps. LLM memiliki banyak persyaratan baru, seperti Prompting, teknik berbeda untuk meningkatkan kualitas (Fine-Tuning, RAG, Meta-Prompts), penilaian dan tanggung jawab dengan AI yang bertanggung jawab, serta metrik evaluasi baru (Kualitas, Bahaya, Kejujuran, Biaya, dan Latensi).

Sebagai contoh, perhatikan bagaimana kita mengembangkan ide. Menggunakan teknik prompt engineering untuk bereksperimen dengan berbagai LLM guna mengeksplorasi kemungkinan dan menguji apakah hipotesis mereka dapat benar.

Perlu dicatat bahwa ini bukan proses linear, melainkan loop terintegrasi, iteratif, dan dengan siklus yang menyeluruh.

Bagaimana kita bisa mengeksplorasi langkah-langkah tersebut? Mari kita bahas secara detail bagaimana kita bisa membangun siklus hidup.

Alur Kerja LLMOps

Ini mungkin terlihat agak rumit, mari kita fokus pada tiga langkah besar terlebih dahulu.

  1. Mengembangkan Ide/Mengeksplorasi: Eksplorasi, di sini kita dapat mengeksplorasi sesuai kebutuhan bisnis kita. Membuat prototipe, menciptakan PromptFlow dan menguji apakah cukup efisien untuk hipotesis kita.
  2. Membangun/Meningkatkan: Implementasi, sekarang kita mulai mengevaluasi dataset yang lebih besar, menerapkan teknik seperti Fine-tuning dan RAG untuk memeriksa ketangguhan solusi kita. Jika tidak berhasil, kita dapat mengimplementasikan ulang, menambahkan langkah baru dalam alur kita, atau merestrukturisasi data. Setelah menguji alur dan skala kita, jika berhasil dan memenuhi metrik kita, maka siap untuk langkah berikutnya.
  3. Mengoperasionalkan: Integrasi, sekarang menambahkan sistem pemantauan dan peringatan ke sistem kita, penerapan, dan integrasi aplikasi ke dalam aplikasi kita.

Kemudian, kita memiliki siklus menyeluruh tentang Manajemen, yang berfokus pada keamanan, kepatuhan, dan tata kelola.

Selamat, sekarang aplikasi AI Anda siap digunakan dan dioperasikan. Untuk pengalaman langsung, lihat Demo Contoso Chat.

Sekarang, alat apa yang bisa kita gunakan?

Alat untuk Siklus Hidup

Untuk alat, Microsoft menyediakan Azure AI Platform dan PromptFlow untuk mempermudah implementasi siklus Anda dan siap digunakan.

Azure AI Platform memungkinkan Anda menggunakan AI Studio. AI Studio adalah portal web yang memungkinkan Anda mengeksplorasi model, sampel, dan alat. Mengelola sumber daya Anda, alur pengembangan UI, dan opsi SDK/CLI untuk pengembangan berbasis kode.

Kemungkinan Azure AI

Azure AI memungkinkan Anda menggunakan berbagai sumber daya untuk mengelola operasi, layanan, proyek, pencarian vektor, dan kebutuhan basis data Anda.

LLMOps dengan Azure AI

Bangun, dari Proof-of-Concept (POC) hingga aplikasi skala besar dengan PromptFlow:

  • Desain dan Bangun aplikasi dari VS Code, dengan alat visual dan fungsional
  • Uji dan sesuaikan aplikasi Anda untuk kualitas AI dengan mudah.
  • Gunakan Azure AI Studio untuk mengintegrasikan dan mengiterasi dengan cloud, Push dan Deploy untuk integrasi cepat.

LLMOps dengan PromptFlow

Hebat! Lanjutkan Pembelajaran Anda!

Luar biasa, sekarang pelajari lebih lanjut tentang bagaimana kita menyusun aplikasi untuk menggunakan konsep-konsep tersebut dengan Aplikasi Contoso Chat, untuk melihat bagaimana Cloud Advocacy menambahkan konsep-konsep tersebut dalam demonstrasi. Untuk konten lebih lanjut, lihat sesi breakout Ignite!

Sekarang, lihat Pelajaran 15, untuk memahami bagaimana Retrieval Augmented Generation dan Basis Data Vektor memengaruhi AI Generatif dan membuat aplikasi lebih menarik!


Penafian:
Dokumen ini telah diterjemahkan menggunakan layanan penerjemahan AI Co-op Translator. Meskipun kami berupaya untuk memberikan hasil yang akurat, harap diketahui bahwa terjemahan otomatis dapat mengandung kesalahan atau ketidakakuratan. Dokumen asli dalam bahasa aslinya harus dianggap sebagai sumber yang otoritatif. Untuk informasi yang bersifat kritis, disarankan menggunakan jasa penerjemahan manusia profesional. Kami tidak bertanggung jawab atas kesalahpahaman atau penafsiran yang timbul dari penggunaan terjemahan ini.