Skip to content

Latest commit

 

History

History
284 lines (173 loc) · 29.5 KB

File metadata and controls

284 lines (173 loc) · 29.5 KB

Dasar-dasar Teknik Pemrograman Prompt

Pengantar

Modul ini membahas konsep dan teknik penting untuk membuat prompt yang efektif dalam model AI generatif. Cara Anda menulis prompt ke LLM juga penting. Prompt yang dibuat dengan hati-hati dapat mencapai kualitas respons yang lebih baik. Tapi apa sebenarnya arti istilah seperti prompt dan teknik pemrograman prompt? Dan bagaimana cara meningkatkan input prompt yang saya kirim ke LLM? Ini adalah pertanyaan yang akan kita coba jawab dalam bab ini dan berikutnya.

AI generatif mampu membuat konten baru (misalnya, teks, gambar, audio, kode, dll.) sebagai respons terhadap permintaan pengguna. Ini dicapai menggunakan Model Bahasa Besar seperti seri GPT ("Generative Pre-trained Transformer") dari OpenAI yang dilatih untuk menggunakan bahasa alami dan kode.

Pengguna sekarang dapat berinteraksi dengan model ini menggunakan paradigma yang sudah dikenal seperti obrolan, tanpa memerlukan keahlian teknis atau pelatihan. Model ini berbasis prompt - pengguna mengirim input teks (prompt) dan mendapatkan respons AI (penyelesaian). Mereka kemudian dapat "mengobrol dengan AI" secara iteratif, dalam percakapan multi-giliran, menyempurnakan prompt mereka hingga respons sesuai dengan harapan mereka.

"Prompts" sekarang menjadi antarmuka pemrograman utama untuk aplikasi AI generatif, memberi tahu model apa yang harus dilakukan dan mempengaruhi kualitas respons yang dikembalikan. "Teknik Pemrograman Prompt" adalah bidang studi yang berkembang pesat yang berfokus pada desain dan optimasi prompt untuk memberikan respons yang konsisten dan berkualitas dalam skala besar.

Tujuan Pembelajaran

Dalam pelajaran ini, kita belajar apa itu Teknik Pemrograman Prompt, mengapa itu penting, dan bagaimana kita dapat membuat prompt yang lebih efektif untuk model dan tujuan aplikasi tertentu. Kita akan memahami konsep inti dan praktik terbaik untuk teknik pemrograman prompt - dan belajar tentang lingkungan "sandbox" Jupyter Notebooks interaktif di mana kita dapat melihat konsep ini diterapkan pada contoh nyata.

Pada akhir pelajaran ini kita akan dapat:

  1. Menjelaskan apa itu teknik pemrograman prompt dan mengapa itu penting.
  2. Mendeskripsikan komponen dari sebuah prompt dan bagaimana penggunaannya.
  3. Mempelajari praktik terbaik dan teknik untuk teknik pemrograman prompt.
  4. Menerapkan teknik yang dipelajari pada contoh nyata, menggunakan endpoint OpenAI.

Istilah Kunci

Teknik Pemrograman Prompt: Praktik mendesain dan menyempurnakan input untuk membimbing model AI menuju menghasilkan output yang diinginkan. Tokenisasi: Proses mengubah teks menjadi unit-unit yang lebih kecil, yang disebut token, yang dapat dipahami dan diproses oleh model. Instruction-Tuned LLMs: Model Bahasa Besar (LLMs) yang telah disesuaikan dengan instruksi spesifik untuk meningkatkan akurasi dan relevansi respons mereka.

Sandbox Pembelajaran

Teknik pemrograman prompt saat ini lebih merupakan seni daripada sains. Cara terbaik untuk meningkatkan intuisi kita untuk itu adalah dengan berlatih lebih banyak dan mengadopsi pendekatan trial-and-error yang menggabungkan keahlian domain aplikasi dengan teknik yang direkomendasikan dan optimasi model-spesifik.

Notebook Jupyter yang menyertai pelajaran ini menyediakan lingkungan sandbox di mana Anda dapat mencoba apa yang Anda pelajari - saat Anda pergi atau sebagai bagian dari tantangan kode di akhir. Untuk menjalankan latihan, Anda akan membutuhkan:

  1. Kunci API Azure OpenAI - endpoint layanan untuk LLM yang diterapkan.
  2. Runtime Python - di mana Notebook dapat dijalankan.
  3. Variabel Lingkungan Lokal - selesaikan langkah-langkah SETUP sekarang untuk mempersiapkan diri.

Notebook dilengkapi dengan latihan pemula - tetapi Anda dianjurkan untuk menambahkan bagian Markdown (deskripsi) dan Kode (permintaan prompt) Anda sendiri untuk mencoba lebih banyak contoh atau ide - dan membangun intuisi Anda untuk desain prompt.

Panduan Bergambar

Ingin mendapatkan gambaran besar tentang apa yang dibahas dalam pelajaran ini sebelum Anda mendalami? Lihat panduan bergambar ini, yang memberi Anda gambaran tentang topik utama yang dibahas dan poin penting yang perlu Anda pikirkan dalam setiap topik. Peta jalan pelajaran membawa Anda dari memahami konsep inti dan tantangan hingga mengatasinya dengan teknik dan praktik terbaik teknik pemrograman prompt yang relevan. Perhatikan bahwa bagian "Teknik Lanjutan" dalam panduan ini mengacu pada konten yang dibahas dalam bab berikutnya dari kurikulum ini.

Startup Kami

Sekarang, mari kita bicarakan tentang bagaimana topik ini berhubungan dengan misi startup kami untuk membawa inovasi AI ke pendidikan. Kami ingin membangun aplikasi bertenaga AI untuk pembelajaran yang dipersonalisasi - jadi mari kita pikirkan tentang bagaimana pengguna yang berbeda dari aplikasi kami mungkin "merancang" prompt:

  • Administrator mungkin meminta AI untuk menganalisis data kurikulum untuk mengidentifikasi celah dalam cakupan. AI dapat meringkas hasil atau memvisualisasikannya dengan kode.
  • Pendidik mungkin meminta AI untuk menghasilkan rencana pelajaran untuk audiens dan topik target. AI dapat membangun rencana yang dipersonalisasi dalam format yang ditentukan.
  • Siswa mungkin meminta AI untuk membimbing mereka dalam mata pelajaran yang sulit. AI sekarang dapat membimbing siswa dengan pelajaran, petunjuk & contoh yang disesuaikan dengan tingkat mereka.

Itu hanya permulaan. Lihat Prompts For Education - perpustakaan prompt sumber terbuka yang dikurasi oleh para ahli pendidikan - untuk mendapatkan pemahaman yang lebih luas tentang kemungkinan! Cobalah menjalankan beberapa prompt tersebut di sandbox atau menggunakan OpenAI Playground untuk melihat apa yang terjadi!

Apa itu Teknik Pemrograman Prompt?

Kami memulai pelajaran ini dengan mendefinisikan Teknik Pemrograman Prompt sebagai proses mendesain dan mengoptimalkan input teks (prompt) untuk memberikan respons yang konsisten dan berkualitas (penyelesaian) untuk tujuan aplikasi dan model tertentu. Kita dapat memikirkannya sebagai proses 2 langkah:

  • mendesain prompt awal untuk model dan tujuan tertentu
  • menyempurnakan prompt secara iteratif untuk meningkatkan kualitas respons

Ini adalah proses trial-and-error yang memerlukan intuisi dan upaya pengguna untuk mendapatkan hasil yang optimal. Jadi mengapa itu penting? Untuk menjawab pertanyaan itu, kita pertama-tama perlu memahami tiga konsep:

  • Tokenisasi = bagaimana model "melihat" prompt
  • Base LLMs = bagaimana model dasar "memproses" sebuah prompt
  • Instruction-Tuned LLMs = bagaimana model sekarang dapat melihat "tugas"

Tokenisasi

Sebuah LLM melihat prompt sebagai urutan token di mana model yang berbeda (atau versi dari model) dapat men-tokenisasi prompt yang sama dengan cara yang berbeda. Karena LLM dilatih pada token (dan bukan pada teks mentah), cara prompt di-tokenisasi memiliki dampak langsung pada kualitas respons yang dihasilkan.

Untuk mendapatkan intuisi tentang bagaimana tokenisasi bekerja, coba alat seperti OpenAI Tokenizer yang ditunjukkan di bawah ini. Salin prompt Anda - dan lihat bagaimana itu diubah menjadi token, memperhatikan bagaimana karakter spasi dan tanda baca ditangani. Perhatikan bahwa contoh ini menunjukkan LLM yang lebih lama (GPT-3) - jadi mencoba ini dengan model yang lebih baru dapat menghasilkan hasil yang berbeda.

Konsep: Model Dasar

Setelah sebuah prompt di-tokenisasi, fungsi utama dari "Base LLM" (atau model Dasar) adalah memprediksi token dalam urutan tersebut. Karena LLM dilatih pada dataset teks yang sangat besar, mereka memiliki pemahaman yang baik tentang hubungan statistik antara token dan dapat membuat prediksi tersebut dengan keyakinan tertentu. Perhatikan bahwa mereka tidak memahami arti dari kata-kata dalam prompt atau token; mereka hanya melihat pola yang dapat mereka "lengkapi" dengan prediksi berikutnya. Mereka dapat terus memprediksi urutan hingga dihentikan oleh intervensi pengguna atau beberapa kondisi yang telah ditetapkan sebelumnya.

Ingin melihat bagaimana penyelesaian berbasis prompt bekerja? Masukkan prompt di atas ke dalam Chat Playground Azure OpenAI Studio dengan pengaturan default. Sistem dikonfigurasikan untuk memperlakukan prompt sebagai permintaan informasi - jadi Anda harus melihat penyelesaian yang memenuhi konteks ini.

Tetapi bagaimana jika pengguna ingin melihat sesuatu yang spesifik yang memenuhi beberapa kriteria atau tujuan tugas? Di sinilah LLM yang disetel dengan instruksi masuk ke gambar.

Konsep: Instruction Tuned LLMs

Sebuah Instruction Tuned LLM dimulai dengan model dasar dan menyetelnya dengan contoh atau pasangan input/output (misalnya, "pesan" multi-giliran) yang dapat berisi instruksi yang jelas - dan respons dari AI mencoba mengikuti instruksi tersebut.

Ini menggunakan teknik seperti Reinforcement Learning with Human Feedback (RLHF) yang dapat melatih model untuk mengikuti instruksi dan belajar dari umpan balik sehingga menghasilkan respons yang lebih cocok untuk aplikasi praktis dan lebih relevan dengan tujuan pengguna.

Mari kita coba - kunjungi kembali prompt di atas, tetapi sekarang ubah pesan sistem untuk memberikan instruksi berikut sebagai konteks:

Ringkas konten yang Anda diberikan untuk siswa kelas dua. Jaga agar hasilnya tetap dalam satu paragraf dengan 3-5 poin peluru.

Lihat bagaimana hasilnya sekarang disesuaikan untuk mencerminkan tujuan dan format yang diinginkan? Seorang pendidik sekarang dapat langsung menggunakan respons ini dalam slide mereka untuk kelas tersebut.

Mengapa kita membutuhkan Teknik Pemrograman Prompt?

Sekarang kita tahu bagaimana prompt diproses oleh LLM, mari kita bicarakan mengapa kita membutuhkan teknik pemrograman prompt. Jawabannya terletak pada fakta bahwa LLM saat ini menghadirkan sejumlah tantangan yang membuat penyelesaian yang andal dan konsisten lebih sulit dicapai tanpa upaya dalam konstruksi dan optimasi prompt. Misalnya:

  1. Respons model bersifat stokastik. Prompt yang sama kemungkinan akan menghasilkan respons yang berbeda dengan model atau versi model yang berbeda. Dan itu bahkan mungkin menghasilkan hasil yang berbeda dengan model yang sama pada waktu yang berbeda. Teknik pemrograman prompt dapat membantu kita meminimalkan variasi ini dengan memberikan batasan yang lebih baik.

  2. Model dapat membuat respons yang tidak akurat. Model dilatih dengan dataset yang besar tetapi terbatas, yang berarti mereka tidak memiliki pengetahuan tentang konsep di luar lingkup pelatihan tersebut. Akibatnya, mereka dapat menghasilkan penyelesaian yang tidak akurat, imajinatif, atau langsung bertentangan dengan fakta yang diketahui. Teknik pemrograman prompt membantu pengguna mengidentifikasi dan mengurangi fabrikasi semacam itu misalnya, dengan meminta AI untuk kutipan atau alasan.

  3. Kemampuan model akan bervariasi. Model atau generasi model yang lebih baru akan memiliki kemampuan yang lebih kaya tetapi juga membawa keunikan dan tradeoff dalam biaya & kompleksitas. Teknik pemrograman prompt dapat membantu kita mengembangkan praktik terbaik dan alur kerja yang mengabstraksi perbedaan dan beradaptasi dengan persyaratan model-spesifik dengan cara yang skalabel dan mulus.

Mari kita lihat ini dalam aksi di OpenAI atau Azure OpenAI Playground:

  • Gunakan prompt yang sama dengan penerapan LLM yang berbeda (misalnya, OpenAI, Azure OpenAI, Hugging Face) - apakah Anda melihat variasinya?
  • Gunakan prompt yang sama berulang kali dengan penerapan LLM yang sama (misalnya, Azure OpenAI playground) - bagaimana variasi ini berbeda?

Contoh Fabrikasi

Dalam kursus ini, kami menggunakan istilah "fabrikasi" untuk merujuk pada fenomena di mana LLM kadang-kadang menghasilkan informasi yang faktual tidak benar karena keterbatasan dalam pelatihan mereka atau kendala lainnya. Anda mungkin juga pernah mendengar ini disebut sebagai "halusinasi" dalam artikel populer atau makalah penelitian. Namun, kami sangat merekomendasikan menggunakan istilah "fabrikasi" sehingga kita tidak secara tidak sengaja mengaitkan perilaku manusia pada hasil yang digerakkan oleh mesin. Ini juga memperkuat pedoman AI yang Bertanggung Jawab dari perspektif terminologi, menghilangkan istilah yang juga dapat dianggap menyinggung atau tidak inklusif dalam beberapa konteks.

Ingin mendapatkan gambaran tentang bagaimana fabrikasi bekerja? Pikirkan sebuah prompt yang menginstruksikan AI untuk menghasilkan konten untuk topik yang tidak ada (untuk memastikan itu tidak ditemukan dalam dataset pelatihan). Misalnya - saya mencoba prompt ini:

Prompt: buat rencana pelajaran tentang Perang Mars tahun 2076.

Pencarian web menunjukkan kepada saya bahwa ada akun fiksi (misalnya, seri televisi atau buku) tentang perang Mars - tetapi tidak ada yang di tahun 2076. Akal sehat juga memberi tahu kita bahwa 2076 adalah di masa depan dan dengan demikian, tidak dapat dikaitkan dengan peristiwa nyata.

Jadi apa yang terjadi ketika kita menjalankan prompt ini dengan penyedia LLM yang berbeda?

Respons 1: OpenAI Playground (GPT-35)

Respons 2: Azure OpenAI Playground (GPT-35)

Respons 3: : Hugging Face Chat Playground (LLama-2)

Seperti yang diharapkan, setiap model (atau versi model) menghasilkan respons yang sedikit berbeda berkat perilaku stokastik dan variasi kemampuan model. Misalnya, satu model menargetkan audiens kelas 8 sementara yang lain menganggap siswa sekolah menengah. Tetapi ketiga model tersebut menghasilkan respons yang dapat meyakinkan pengguna yang tidak terinformasi bahwa peristiwa tersebut nyata

Teknik pemrograman prompt seperti metaprompting dan konfigurasi suhu dapat mengurangi fabrikasi model hingga batas tertentu. Arsitektur baru teknik pemrograman prompt juga menggabungkan alat dan teknik baru dengan mulus ke dalam aliran prompt, untuk mengurangi atau mengurangi beberapa efek ini.

Studi Kasus: GitHub Copilot

Mari kita akhiri bagian ini dengan mendapatkan gambaran tentang bagaimana teknik pemrograman prompt digunakan dalam solusi dunia nyata dengan melihat satu Studi Kasus: GitHub Copilot.

GitHub Copilot adalah "Programmer Pasangan AI" Anda - ini mengubah prompt teks menjadi penyelesaian kode dan terintegrasi ke dalam lingkungan pengembangan Anda (misalnya, Visual Studio Code) untuk pengalaman pengguna yang mulus. Seperti yang didokumentasikan dalam serangkaian blog di bawah ini, versi paling awal didasarkan pada model OpenAI Codex - dengan insinyur dengan cepat menyadari perlunya menyetel model dan mengembangkan teknik pemrograman prompt yang lebih baik, untuk meningkatkan kualitas kode. Pada bulan Juli, mereka memperkenalkan model AI yang lebih baik yang melampaui Codex untuk saran yang lebih cepat.

Baca postingan secara berurutan, untuk mengikuti perjalanan pembelajaran mereka.

Anda juga dapat menjelajahi blog Teknik mereka untuk postingan lain seperti yang ini yang menunjukkan bagaimana model dan teknik ini diterapkan untuk mendorong aplikasi dunia nyata.

Konstruksi Prompt

Kita telah melihat mengapa teknik pemrograman prompt penting - sekarang mari kita pahami bagaimana prompt dibangun sehingga kita dapat mengevaluasi teknik yang berbeda untuk desain prompt yang lebih efektif.

Prompt Dasar

Mari kita mulai dengan prompt dasar: input teks Nilai sebenarnya dari template terletak pada kemampuan untuk membuat dan menerbitkan perpustakaan prompt untuk domain aplikasi vertikal - di mana template prompt sekarang dioptimalkan untuk mencerminkan konteks atau contoh spesifik aplikasi yang membuat respons lebih relevan dan akurat bagi audiens pengguna yang ditargetkan. Repositori Prompts For Edu adalah contoh yang bagus dari pendekatan ini, mengkurasi perpustakaan prompt untuk domain pendidikan dengan penekanan pada tujuan utama seperti perencanaan pelajaran, desain kurikulum, bimbingan siswa, dll.

Konten Pendukung

Jika kita berpikir tentang konstruksi prompt sebagai memiliki instruksi (tugas) dan target (konten utama), maka konten sekunder seperti konteks tambahan yang kita berikan untuk mempengaruhi output dengan cara tertentu. Ini bisa berupa pengaturan parameter, instruksi format, taksonomi topik, dll. yang dapat membantu model menyesuaikan responsnya agar sesuai dengan tujuan atau harapan pengguna yang diinginkan.

Contohnya: Diberikan katalog kursus dengan metadata yang luas (nama, deskripsi, tingkat, tag metadata, instruktur, dll.) pada semua kursus yang tersedia dalam kurikulum:

  • kita dapat mendefinisikan instruksi untuk "meringkas katalog kursus untuk Musim Gugur 2023"
  • kita dapat menggunakan konten utama untuk memberikan beberapa contoh output yang diinginkan
  • kita dapat menggunakan konten sekunder untuk mengidentifikasi 5 "tag" teratas yang diminati.

Sekarang, model dapat memberikan ringkasan dalam format yang ditunjukkan oleh beberapa contoh - tetapi jika hasil memiliki beberapa tag, ia dapat memprioritaskan 5 tag yang diidentifikasi dalam konten sekunder.


Praktik Terbaik dalam Prompting

Sekarang kita tahu bagaimana prompt dapat dibangun, kita dapat mulai memikirkan bagaimana merancang mereka untuk mencerminkan praktik terbaik. Kita dapat memikirkan ini dalam dua bagian - memiliki mindset yang tepat dan menerapkan teknik yang tepat.

Mindset Rekayasa Prompt

Rekayasa Prompt adalah proses coba-coba jadi ingat tiga faktor panduan utama:

  1. Pemahaman Domain Penting. Akurasi dan relevansi respons adalah fungsi dari domain di mana aplikasi atau pengguna tersebut beroperasi. Terapkan intuisi dan keahlian domain Anda untuk menyesuaikan teknik lebih lanjut. Misalnya, definisikan kepribadian spesifik domain dalam prompt sistem Anda, atau gunakan template spesifik domain dalam prompt pengguna Anda. Berikan konten sekunder yang mencerminkan konteks spesifik domain, atau gunakan petunjuk dan contoh spesifik domain untuk membimbing model menuju pola penggunaan yang familiar.

  2. Pemahaman Model Penting. Kita tahu model bersifat stokastik secara alami. Tetapi implementasi model juga dapat bervariasi dalam hal dataset pelatihan yang mereka gunakan (pengetahuan pra-latihan), kemampuan yang mereka berikan (misalnya, melalui API atau SDK) dan jenis konten yang mereka optimalkan (misalnya, kode vs. gambar vs. teks). Pahami kekuatan dan keterbatasan model yang Anda gunakan, dan gunakan pengetahuan tersebut untuk memprioritaskan tugas atau membangun template khusus yang dioptimalkan untuk kemampuan model.

  3. Iterasi & Validasi Penting. Model berkembang dengan cepat, dan begitu juga teknik untuk rekayasa prompt. Sebagai ahli domain, Anda mungkin memiliki konteks atau kriteria lain aplikasi spesifik Anda, yang mungkin tidak berlaku untuk komunitas yang lebih luas. Gunakan alat & teknik rekayasa prompt untuk "memulai" konstruksi prompt, kemudian iterasi dan validasi hasil menggunakan intuisi dan keahlian domain Anda sendiri. Catat wawasan Anda dan buat basis pengetahuan (misalnya, perpustakaan prompt) yang dapat digunakan sebagai baseline baru oleh orang lain, untuk iterasi lebih cepat di masa depan.

Praktik Terbaik

Sekarang mari kita lihat praktik terbaik umum yang direkomendasikan oleh praktisi OpenAI dan Azure OpenAI.

Apa Mengapa
Evaluasi model terbaru. Generasi model baru kemungkinan memiliki fitur dan kualitas yang lebih baik - tetapi mungkin juga menimbulkan biaya lebih tinggi. Evaluasi dampaknya, kemudian buat keputusan migrasi.
Pisahkan instruksi & konteks Periksa apakah model/penyedia Anda mendefinisikan pemisah untuk membedakan instruksi, konten utama dan sekunder lebih jelas. Ini dapat membantu model memberikan bobot lebih akurat pada token.
Jadilah spesifik dan jelas Berikan lebih banyak detail tentang konteks, hasil, panjang, format, gaya yang diinginkan, dll. Ini akan meningkatkan kualitas dan konsistensi respons. Tangkap resep dalam template yang dapat digunakan kembali.
Jadilah deskriptif, gunakan contoh Model mungkin merespons lebih baik dengan pendekatan "tunjukkan dan ceritakan". Mulailah dengan zero-shot approach where you give it an instruction (but no examples) then try few-shot as a refinement, providing a few examples of the desired output. Use analogies.
Use cues to jumpstart completions Nudge it towards a desired outcome by giving it some leading words or phrases that it can use as a starting point for the response.
Double Down Sometimes you may need to repeat yourself to the model. Give instructions before and after your primary content, use an instruction and a cue, etc. Iterate & validate to see what works.
Order Matters The order in which you present information to the model may impact the output, even in the learning examples, thanks to recency bias. Try different options to see what works best.
Give the model an “out” Give the model a fallback completion response it can provide if it cannot complete the task for any reason. This can reduce chances of models generating false or fabricated responses.

As with any best practice, remember that your mileage may vary based on the model, the task and the domain. Use these as a starting point, and iterate to find what works best for you. Constantly re-evaluate your prompt engineering process as new models and tools become available, with a focus on process scalability and response quality.

Assignment

Congratulations! You made it to the end of the lesson! It's time to put some of those concepts and techniques to the test with real examples!

For our assignment, we'll be using a Jupyter Notebook with exercises you can complete interactively. You can also extend the Notebook with your own Markdown and Code cells to explore ideas and techniques on your own.

To get started, fork the repo, then

  • (Recommended) Launch GitHub Codespaces
  • (Alternatively) Clone the repo to your local device and use it with Docker Desktop
  • (Alternatively) Open the Notebook with your preferred Notebook runtime environment.

Next, configure your environment variables

  • Copy the .env.copy file in repo root to .env and fill in the AZURE_OPENAI_API_KEY, AZURE_OPENAI_ENDPOINT and AZURE_OPENAI_DEPLOYMENT nilai. Kembali ke bagian Learning Sandbox untuk belajar lebih lanjut.

Selanjutnya, buka Jupyter Notebook

  • Pilih kernel runtime. Jika menggunakan opsi 1 atau 2, cukup pilih kernel Python 3.10.x default yang disediakan oleh dev container.

Anda siap untuk menjalankan latihan. Perhatikan bahwa tidak ada jawaban benar dan salah di sini - hanya menjelajahi opsi dengan coba-coba dan membangun intuisi untuk apa yang bekerja untuk model dan domain aplikasi tertentu.

Untuk alasan ini tidak ada segmen Solusi Kode dalam pelajaran ini. Sebaliknya, Notebook akan memiliki sel Markdown berjudul "Solusi Saya:" yang menunjukkan satu contoh output untuk referensi.

Pemeriksaan Pengetahuan

Manakah dari berikut ini yang merupakan prompt yang baik mengikuti beberapa praktik terbaik yang wajar?

  1. Tunjukkan gambar mobil merah
  2. Tunjukkan gambar mobil merah merek Volvo dan model XC90 diparkir di tepi tebing dengan matahari terbenam
  3. Tunjukkan gambar mobil merah merek Volvo dan model XC90

A: 2, ini adalah prompt terbaik karena memberikan rincian tentang "apa" dan masuk ke spesifik (tidak hanya mobil apa saja tetapi merek dan model tertentu) dan juga menggambarkan pengaturan keseluruhan. 3 adalah yang terbaik berikutnya karena juga mengandung banyak deskripsi.

🚀 Tantangan

Lihat apakah Anda dapat memanfaatkan teknik "petunjuk" dengan prompt: Lengkapi kalimat "Tunjukkan gambar mobil merah merek Volvo dan ". Apa yang direspon, dan bagaimana Anda akan meningkatkannya?

Kerja Hebat! Lanjutkan Pembelajaran Anda

Ingin belajar lebih lanjut tentang berbagai konsep Rekayasa Prompt? Pergi ke halaman pembelajaran lanjutan untuk menemukan sumber daya hebat lainnya tentang topik ini.

Lanjutkan ke Pelajaran 5 di mana kita akan melihat teknik prompting lanjutan!

Penafian:
Dokumen ini telah diterjemahkan menggunakan layanan penerjemahan AI Co-op Translator. Meskipun kami berusaha untuk memberikan terjemahan yang akurat, harap diperhatikan bahwa terjemahan otomatis mungkin mengandung kesalahan atau ketidakakuratan. Dokumen asli dalam bahasa aslinya harus dianggap sebagai sumber yang otoritatif. Untuk informasi yang penting, disarankan untuk menggunakan jasa penerjemahan manusia profesional. Kami tidak bertanggung jawab atas kesalahpahaman atau penafsiran yang keliru yang timbul dari penggunaan terjemahan ini.