اس سبق کی ویڈیو دیکھنے کے لیے اوپر دی گئی تصویر پر کلک کریں
AI اور خاص طور پر جنریٹو AI سے متاثر ہونا آسان ہے، لیکن آپ کو یہ سوچنا ہوگا کہ آپ اسے ذمہ داری سے کیسے استعمال کریں گے۔ آپ کو اس بات پر غور کرنا ہوگا کہ آؤٹ پٹ کو کیسے منصفانہ، غیر نقصان دہ وغیرہ بنایا جائے۔ یہ باب آپ کو مذکورہ تناظر فراہم کرنے، غور کرنے کے لیے کیا چیزیں ہیں، اور آپ کے AI استعمال کو بہتر بنانے کے لیے فعال اقدامات کرنے کے طریقے فراہم کرنے کا مقصد رکھتا ہے۔
یہ سبق درج ذیل کو کور کرے گا:
- جنریٹو AI ایپلیکیشنز بناتے وقت ذمہ دار AI کو ترجیح کیوں دینی چاہیے۔
- ذمہ دار AI کے بنیادی اصول اور ان کا جنریٹو AI سے تعلق۔
- ان ذمہ دار AI اصولوں کو حکمت عملی اور ٹولنگ کے ذریعے عملی جامہ پہنانے کا طریقہ۔
اس سبق کو مکمل کرنے کے بعد آپ جان جائیں گے:
- جنریٹو AI ایپلیکیشنز بناتے وقت ذمہ دار AI کی اہمیت۔
- جنریٹو AI ایپلیکیشنز بناتے وقت ذمہ دار AI کے بنیادی اصولوں پر غور کرنے اور ان کا اطلاق کرنے کا وقت۔
- ذمہ دار AI کے تصور کو عملی جامہ پہنانے کے لیے آپ کے پاس کون سے ٹولز اور حکمت عملیاں دستیاب ہیں۔
جنریٹو AI کا جوش و خروش کبھی اتنا زیادہ نہیں رہا۔ اس جوش نے اس جگہ میں بہت سے نئے ڈویلپرز، توجہ اور فنڈنگ کو لایا ہے۔ جبکہ یہ جنریٹو AI کا استعمال کرتے ہوئے مصنوعات اور کمپنیوں کی تعمیر کے خواہاں کسی کے لیے بہت مثبت ہے، یہ بھی ضروری ہے کہ ہم ذمہ داری سے آگے بڑھیں۔
اس کورس کے دوران، ہم اپنے اسٹارٹ اپ اور اپنے AI ایجوکیشن پروڈکٹ کی تعمیر پر توجہ مرکوز کر رہے ہیں۔ ہم ذمہ دار AI کے اصول استعمال کریں گے: منصفانہ، شمولیت، قابل اعتماد/محفوظ، سیکیورٹی اور پرائیویسی، شفافیت اور جوابدہی۔ ان اصولوں کے ساتھ، ہم دریافت کریں گے کہ وہ ہمارے پروڈکٹس میں جنریٹو AI کے استعمال سے کیسے تعلق رکھتے ہیں۔
جب کسی پروڈکٹ کی تعمیر کرتے ہیں، تو اپنے صارف کے بہترین مفاد کو مدنظر رکھتے ہوئے انسانیت پر مبنی نقطہ نظر اختیار کرنے سے بہترین نتائج حاصل ہوتے ہیں۔
جنریٹو AI کی انفرادیت اس کی طاقت ہے کہ وہ صارفین کے لیے مددگار جوابات، معلومات، رہنمائی اور مواد تخلیق کرے۔ یہ بہت سے دستی اقدامات کے بغیر کیا جا سکتا ہے جو بہت متاثر کن نتائج کا باعث بن سکتا ہے۔ مناسب منصوبہ بندی اور حکمت عملیوں کے بغیر، یہ بدقسمتی سے آپ کے صارفین، آپ کی پروڈکٹ، اور مجموعی طور پر معاشرے کے لیے کچھ نقصان دہ نتائج کا باعث بن سکتا ہے۔
آئیے ان میں سے کچھ (لیکن سب نہیں) ممکنہ نقصان دہ نتائج پر نظر ڈالتے ہیں:
غلط فہمیاں ایک اصطلاح ہے جو اس وقت استعمال ہوتی ہے جب ایک LLM ایسا مواد تیار کرتا ہے جو یا تو مکمل طور پر بے معنی ہوتا ہے یا کچھ ایسا ہوتا ہے جسے ہم دیگر معلومات کے ذرائع کی بنیاد پر حقیقت میں غلط جانتے ہیں۔
آئیے مثال کے طور پر لیتے ہیں کہ ہم اپنے اسٹارٹ اپ کے لیے ایک فیچر بناتے ہیں جو طلباء کو ایک ماڈل سے تاریخی سوالات پوچھنے کی اجازت دیتا ہے۔ ایک طالب علم سوال پوچھتا ہے Who was the sole survivor of Titanic?
ماڈل ایک جواب پیدا کرتا ہے جیسے کہ نیچے دیا گیا ہے:
یہ ایک بہت پراعتماد اور مکمل جواب ہے۔ بدقسمتی سے، یہ غلط ہے۔ یہاں تک کہ کم سے کم تحقیق کے ساتھ، کوئی دریافت کرے گا کہ ٹائیٹینک آفت کے ایک سے زیادہ زندہ بچ جانے والے تھے۔ ایک طالب علم کے لیے جو اس موضوع پر تحقیق شروع کر رہا ہے، یہ جواب اتنا قائل ہو سکتا ہے کہ اس پر سوال نہ کیا جائے اور اسے حقیقت کے طور پر برتا جائے۔ اس کے نتائج AI سسٹم کو ناقابل اعتماد بنا سکتے ہیں اور ہمارے اسٹارٹ اپ کی ساکھ کو منفی طور پر متاثر کر سکتے ہیں۔
کسی بھی دیے گئے LLM کے ہر تکرار کے ساتھ، ہم نے غلط فہمیوں کو کم کرنے کے ارد گرد کارکردگی میں بہتری دیکھی ہے۔ اس بہتری کے باوجود، ہمیں بطور ایپلیکیشن بنانے والے اور صارفین ان حدود سے آگاہ رہنا چاہیے۔
ہم نے پہلے والے حصے میں احاطہ کیا جب ایک LLM غلط یا بے معنی جوابات تیار کرتا ہے۔ ایک اور خطرہ جس سے ہمیں آگاہ ہونے کی ضرورت ہے وہ ہے جب ایک ماڈل نقصان دہ مواد کے ساتھ جواب دیتا ہے۔
نقصان دہ مواد کی وضاحت اس طرح کی جا سکتی ہے:
- خود کو نقصان پہنچانے یا کچھ گروپوں کو نقصان پہنچانے کی ہدایات فراہم کرنا یا ان کی حوصلہ افزائی کرنا۔
- نفرت انگیز یا تذلیل آمیز مواد۔
- کسی بھی قسم کے حملے یا پرتشدد کارروائیوں کی منصوبہ بندی کی رہنمائی۔
- غیر قانونی مواد تلاش کرنے یا غیر قانونی کام کرنے کی ہدایات فراہم کرنا۔
- جنسی طور پر واضح مواد دکھانا۔
ہمارے اسٹارٹ اپ کے لیے، ہم یہ یقینی بنانا چاہتے ہیں کہ ہمارے پاس صحیح ٹولز اور حکمت عملیاں موجود ہیں تاکہ اس قسم کے مواد کو طلباء کے سامنے آنے سے روکا جا سکے۔
منصفانہ ہونے کی تعریف اس طرح کی جاتی ہے "یقینی بنانا کہ ایک AI سسٹم تعصب اور امتیاز سے پاک ہے اور وہ ہر ایک کے ساتھ منصفانہ اور مساوی سلوک کرتے ہیں۔" جنریٹو AI کی دنیا میں، ہم یہ یقینی بنانا چاہتے ہیں کہ ماڈل کے آؤٹ پٹ سے محروم گروپوں کے اخراجی عالمی نظریات کو تقویت نہ ملے۔
یہ قسم کے آؤٹ پٹس نہ صرف ہمارے صارفین کے لیے مثبت پروڈکٹ کے تجربات کی تعمیر کے لیے نقصان دہ ہیں، بلکہ یہ مزید معاشرتی نقصان بھی پہنچاتے ہیں۔ بطور ایپلیکیشن بنانے والے، ہمیں ہمیشہ جنریٹو AI کے ساتھ حل بناتے وقت ایک وسیع اور متنوع صارف بنیاد کو مدنظر رکھنا چاہیے۔
اب جب کہ ہم نے ذمہ دار جنریٹو AI کی اہمیت کی نشاندہی کی ہے، آئیے 4 مراحل پر نظر ڈالیں جو ہم اپنی AI حل کو ذمہ داری سے بنانے کے لیے اٹھا سکتے ہیں:
سافٹ ویئر ٹیسٹنگ میں، ہم کسی ایپلیکیشن پر صارف کے متوقع اعمال کی جانچ کرتے ہیں۔ اسی طرح، صارفین کے متنوع سیٹ کے اشارے کی جانچ کرنا جو سب سے زیادہ استعمال کرنے جا رہے ہیں ممکنہ نقصان کی پیمائش کرنے کا ایک اچھا طریقہ ہے۔
چونکہ ہمارا اسٹارٹ اپ ایک تعلیمی پروڈکٹ بنا رہا ہے، اس لیے تعلیم سے متعلق اشارے کی ایک فہرست تیار کرنا اچھا ہوگا۔ یہ کسی خاص مضمون، تاریخی حقائق، اور طلباء کی زندگی کے بارے میں اشارے کو کور کرنے کے لیے ہو سکتا ہے۔
اب وقت آگیا ہے کہ ہم ایسے طریقے تلاش کریں جہاں ہم ماڈل اور اس کے جوابات کی وجہ سے ہونے والے ممکنہ نقصان کو روک سکیں یا محدود کر سکیں۔ ہم اسے 4 مختلف تہوں میں دیکھ سکتے ہیں:
-
ماڈل۔ صحیح استعمال کے کیس کے لیے صحیح ماڈل کا انتخاب۔ بڑے اور زیادہ پیچیدہ ماڈل جیسے GPT-4 چھوٹے اور زیادہ مخصوص استعمال کے کیسز پر لاگو ہونے پر نقصان دہ مواد کے زیادہ خطرے کا سبب بن سکتے ہیں۔ اپنے تربیتی ڈیٹا کو استعمال کرنے سے بھی نقصان دہ مواد کے خطرے کو کم کیا جا سکتا ہے۔
-
سیفٹی سسٹم۔ ایک سیفٹی سسٹم ماڈل کی خدمت کرنے والے پلیٹ فارم پر ٹولز اور کنفیگریشنز کا ایک سیٹ ہے جو نقصان کو کم کرنے میں مدد کرتا ہے۔ اس کی ایک مثال Azure OpenAI سروس پر مواد کو فلٹر کرنے کا نظام ہے۔ سسٹمز کو جیل بریک حملوں اور ناپسندیدہ سرگرمی جیسے بوٹس سے درخواستوں کا بھی پتہ لگانا چاہیے۔
-
میٹا پرامپٹ۔ میٹا پرامپٹس اور گراؤنڈنگ ایسے طریقے ہیں جن کے ذریعے ہم ماڈل کو کچھ رویوں اور معلومات کی بنیاد پر ہدایت دے سکتے ہیں یا محدود کر سکتے ہیں۔ یہ ماڈل کی کچھ حدود کی وضاحت کرنے کے لیے سسٹم ان پٹس کا استعمال کر سکتا ہے۔ اس کے علاوہ، سسٹم کے دائرہ کار یا ڈومین سے زیادہ متعلقہ آؤٹ پٹس فراہم کرنا۔
یہ Retrieval Augmented Generation (RAG) جیسی تکنیکوں کا استعمال بھی ہو سکتا ہے تاکہ ماڈل کو صرف منتخب کردہ قابل اعتماد ذرائع سے معلومات حاصل ہو۔ اس کورس میں بعد میں سرچ ایپلیکیشنز بنانے کے لیے ایک سبق موجود ہے۔
- صارف کا تجربہ۔ آخری تہہ وہ ہے جہاں صارف کسی نہ کسی طرح ہماری ایپلیکیشن کے انٹرفیس کے ذریعے ماڈل کے ساتھ براہ راست تعامل کرتا ہے۔ اس طرح ہم UI/UX کو اس طرح ڈیزائن کر سکتے ہیں کہ صارف کو ان قسم کے ان پٹس پر محدود کیا جا سکے جو وہ ماڈل کو بھیج سکتے ہیں اور ساتھ ہی صارف کو دکھائے جانے والے متن یا تصاویر پر۔ AI ایپلیکیشن کو تعینات کرتے وقت، ہمیں یہ بھی شفاف ہونا چاہیے کہ ہمارا جنریٹو AI ایپلیکیشن کیا کر سکتا ہے اور کیا نہیں کر سکتا۔
ہمارے پاس AI ایپلیکیشنز کے لیے UX ڈیزائن کرنے کے لیے ایک مکمل سبق موجود ہے۔
- ماڈل کا جائزہ لیں۔ LLMs کے ساتھ کام کرنا مشکل ہو سکتا ہے کیونکہ ہمارے پاس ہمیشہ اس ڈیٹا پر کنٹرول نہیں ہوتا جس پر ماڈل کو تربیت دی گئی تھی۔ اس کے باوجود، ہمیں ہمیشہ ماڈل کی کارکردگی اور آؤٹ پٹس کا جائزہ لینا چاہیے۔ ماڈل کی درستگی، مماثلت، بنیاد، اور آؤٹ پٹ کی مطابقت کو ماپنا اب بھی اہم ہے۔ اس سے اسٹیک ہولڈرز اور صارفین کو شفافیت اور اعتماد فراہم کرنے میں مدد ملتی ہے۔
آپ کی AI ایپلیکیشنز کے ارد گرد ایک آپریشنل پریکٹس بنانا آخری مرحلہ ہے۔ اس میں ہمارے اسٹارٹ اپ کے دیگر حصوں جیسے قانونی اور سیکیورٹی کے ساتھ شراکت داری شامل ہے تاکہ یہ یقینی بنایا جا سکے کہ ہم تمام ریگولیٹری پالیسیوں کے مطابق ہیں۔ لانچ کرنے سے پہلے، ہم ترسیل، واقعات سے نمٹنے، اور واپس جانے کے منصوبے بھی بنانا چاہتے ہیں تاکہ ہمارے صارفین کو کسی بھی نقصان سے بچایا جا سکے۔
جبکہ ذمہ دار AI حل تیار کرنے کا کام بہت زیادہ لگ سکتا ہے، یہ کام کوشش کے قابل ہے۔ جیسے جیسے جنریٹو AI کا شعبہ بڑھتا ہے، زیادہ ٹولنگ جو ڈویلپرز کو اپنی ورک فلو میں ذمہ داری کو مؤثر طریقے سے ضم کرنے میں مدد کرتی ہے، پختہ ہو جائے گی۔ مثال کے طور پر، Azure AI Content Safety ایک API درخواست کے ذریعے نقصان دہ مواد اور تصاویر کا پتہ لگانے میں مدد کر سکتا ہے۔
ذمہ دار AI کے استعمال کو یقینی بنانے کے لیے آپ کو کن چیزوں کا خیال رکھنا چاہیے؟
- کہ جواب درست ہے۔
- نقصان دہ استعمال، کہ AI مجرمانہ مقاصد کے لیے استعمال نہیں ہوتا۔
- اس بات کو یقینی بنانا کہ AI تعصب اور امتیاز سے پاک ہے۔
A: 2 اور 3 درست ہیں۔ ذمہ دار AI آپ کو نقصان دہ اثرات اور تعصبات کو کم کرنے کے طریقے پر غور کرنے میں مدد کرتا ہے۔
Azure AI Content Safety پر پڑھیں اور دیکھیں کہ آپ اپنی استعمال کے لیے کیا اپنا سکتے ہیں۔
اس سبق کو مکمل کرنے کے بعد، ہماری جنریٹو AI سیکھنے کی کلیکشن کو چیک کریں تاکہ اپنی جنریٹو AI کے علم کو بڑھاتے رہیں!
سبق 4 پر جائیں جہاں ہم پرامپٹ انجینئرنگ کے بنیادی اصولوں کو دیکھیں گے!
ڈسکلیمر:
یہ دستاویز AI ترجمہ سروس Co-op Translator کا استعمال کرتے ہوئے ترجمہ کی گئی ہے۔ ہم درستگی کے لئے کوشش کرتے ہیں، لیکن براہ کرم آگاہ رہیں کہ خودکار ترجمے میں غلطیاں یا غیر درستیاں ہو سکتی ہیں۔ اصل دستاویز کو اس کی مقامی زبان میں مستند ذریعہ سمجھا جانا چاہئے۔ اہم معلومات کے لئے، پیشہ ور انسانی ترجمہ کی سفارش کی جاتی ہے۔ ہم اس ترجمہ کے استعمال سے پیدا ہونے والی کسی بھی غلط فہمی یا غلط تشریح کے ذمہ دار نہیں ہیں۔