Skip to content

Latest commit

 

History

History
103 lines (64 loc) · 7.71 KB

File metadata and controls

103 lines (64 loc) · 7.71 KB

Integrasi dengan pemanggilan fungsi

Siklus Hidup Aplikasi AI Generatif

Pertanyaan penting untuk semua aplikasi AI adalah relevansi fitur AI, karena AI adalah bidang yang berkembang pesat, untuk memastikan bahwa aplikasi Anda tetap relevan, andal, dan kuat, Anda perlu memantau, mengevaluasi, dan meningkatkannya secara terus-menerus. Di sinilah siklus hidup AI generatif berperan.

Siklus hidup AI generatif adalah kerangka kerja yang membimbing Anda melalui tahap-tahap pengembangan, penerapan, dan pemeliharaan aplikasi AI generatif. Ini membantu Anda mendefinisikan tujuan, mengukur kinerja, mengidentifikasi tantangan, dan menerapkan solusi Anda. Ini juga membantu Anda menyelaraskan aplikasi Anda dengan standar etika dan hukum dari domain dan pemangku kepentingan Anda. Dengan mengikuti siklus hidup AI generatif, Anda dapat memastikan bahwa aplikasi Anda selalu memberikan nilai dan memuaskan pengguna Anda.

Pendahuluan

Dalam bab ini, Anda akan:

  • Memahami Pergeseran Paradigma dari MLOps ke LLMOps
  • Siklus Hidup LLM
  • Alat Siklus Hidup
  • Metrifikasi dan Evaluasi Siklus Hidup

Memahami Pergeseran Paradigma dari MLOps ke LLMOps

LLM adalah alat baru dalam arsenal Kecerdasan Buatan, mereka sangat kuat dalam tugas analisis dan generasi untuk aplikasi, namun kekuatan ini memiliki beberapa konsekuensi dalam cara kita menyederhanakan tugas AI dan Pembelajaran Mesin Klasik.

Dengan ini, kita membutuhkan Paradigma baru untuk mengadaptasi alat ini secara dinamis, dengan insentif yang tepat. Kita dapat mengkategorikan aplikasi AI lama sebagai "Aplikasi ML" dan aplikasi AI baru sebagai "Aplikasi GenAI" atau hanya "Aplikasi AI", mencerminkan teknologi dan teknik utama yang digunakan pada saat itu. Ini menggeser narasi kita dalam berbagai cara, lihat perbandingan berikut.

Perbandingan LLMOps vs. MLOps

Perhatikan bahwa dalam LLMOps, kita lebih fokus pada Pengembang Aplikasi, menggunakan integrasi sebagai titik kunci, menggunakan "Model-sebagai-Layanan" dan memikirkan poin-poin berikut untuk metrik.

  • Kualitas: Kualitas respons
  • Bahaya: AI yang bertanggung jawab
  • Kejujuran: Dasar respons (Masuk akal? Apakah benar?)
  • Biaya: Anggaran solusi
  • Latensi: Rata-rata waktu untuk respons token

Siklus Hidup LLM

Pertama, untuk memahami siklus hidup dan modifikasinya, mari perhatikan infografis berikut.

Infografis LLMOps

Seperti yang Anda lihat, ini berbeda dari Siklus Hidup biasa dari MLOps. LLM memiliki banyak kebutuhan baru, seperti Prompting, teknik berbeda untuk meningkatkan kualitas (Fine-Tuning, RAG, Meta-Prompts), penilaian dan tanggung jawab berbeda dengan AI yang bertanggung jawab, terakhir, metrik evaluasi baru (Kualitas, Bahaya, Kejujuran, Biaya, dan Latensi).

Misalnya, lihat bagaimana kita beride. Menggunakan rekayasa prompt untuk bereksperimen dengan berbagai LLM untuk mengeksplorasi kemungkinan menguji apakah Hipotesis mereka bisa benar.

Perhatikan bahwa ini bukan linear, melainkan loop terintegrasi, iteratif dan dengan siklus menyeluruh.

Bagaimana kita bisa mengeksplorasi langkah-langkah tersebut? Mari kita masuk ke detail bagaimana kita bisa membangun siklus hidup.

Alur Kerja LLMOps

Ini mungkin terlihat agak rumit, mari fokus pada tiga langkah besar terlebih dahulu.

  1. Beride/mengeksplorasi: Eksplorasi, di sini kita dapat mengeksplorasi sesuai kebutuhan bisnis kita. Membuat prototipe, membuat PromptFlow dan menguji apakah cukup efisien untuk Hipotesis kita.
  2. Membangun/Meningkatkan: Implementasi, sekarang, kita mulai mengevaluasi untuk dataset yang lebih besar menerapkan teknik, seperti Fine-tuning dan RAG, untuk memeriksa ketahanan solusi kita. Jika tidak, mengimplementasikan ulang, menambahkan langkah baru dalam alur kita atau merestrukturisasi data, mungkin membantu. Setelah menguji alur dan skala kita, jika berhasil dan memeriksa Metrik kita, siap untuk langkah berikutnya.
  3. Mengoperasionalkan: Integrasi, sekarang menambahkan Sistem Pemantauan dan Peringatan ke sistem kita, penerapan dan integrasi aplikasi ke Aplikasi kita.

Kemudian, kita memiliki siklus menyeluruh Manajemen, fokus pada keamanan, kepatuhan, dan tata kelola.

Selamat, sekarang Anda memiliki Aplikasi AI siap digunakan dan beroperasi. Untuk pengalaman langsung, lihat Demo Chat Contoso.

Sekarang, alat apa yang bisa kita gunakan?

Alat Siklus Hidup

Untuk alat, Microsoft menyediakan Azure AI Platform dan PromptFlow memudahkan dan membuat siklus Anda mudah diimplementasikan dan siap digunakan.

Azure AI Platform, memungkinkan Anda menggunakan AI Studio. AI Studio adalah portal web yang memungkinkan Anda Menjelajahi model, contoh, dan alat. Mengelola sumber daya Anda, alur pengembangan UI dan opsi SDK/CLI untuk pengembangan Berbasis Kode.

Kemungkinan Azure AI

Azure AI, memungkinkan Anda menggunakan berbagai sumber daya, untuk mengelola operasi, layanan, proyek, pencarian vektor dan kebutuhan basis data Anda.

LLMOps dengan Azure AI

Membangun, dari Proof-of-Concept(POC) hingga aplikasi skala besar dengan PromptFlow:

  • Merancang dan Membangun aplikasi dari VS Code, dengan alat visual dan fungsional
  • Menguji dan menyempurnakan aplikasi Anda untuk AI berkualitas, dengan mudah.
  • Gunakan Azure AI Studio untuk Mengintegrasikan dan Mengiterasi dengan cloud, Push dan Deploy untuk integrasi cepat.

LLMOps dengan PromptFlow

Hebat! Lanjutkan Pembelajaran Anda!

Luar biasa, sekarang pelajari lebih lanjut tentang bagaimana kita menyusun aplikasi untuk menggunakan konsep dengan Aplikasi Chat Contoso, untuk melihat bagaimana Cloud Advocacy menambahkan konsep tersebut dalam demonstrasi. Untuk konten lebih lanjut, lihat sesi breakout Ignite kami!

Sekarang, lihat Pelajaran 15, untuk memahami bagaimana Retrieval Augmented Generation dan Basis Data Vektor memengaruhi AI Generatif dan membuat Aplikasi lebih menarik!


Penafian:
Dokumen ini telah diterjemahkan menggunakan layanan terjemahan AI Co-op Translator. Meskipun kami berusaha untuk akurasi, harap diingat bahwa terjemahan otomatis mungkin mengandung kesalahan atau ketidakakuratan. Dokumen asli dalam bahasa aslinya harus dianggap sebagai sumber yang sahih. Untuk informasi penting, disarankan menggunakan terjemahan profesional oleh manusia. Kami tidak bertanggung jawab atas kesalahpahaman atau salah tafsir yang timbul dari penggunaan terjemahan ini.