לחצו על התמונה למעלה לצפייה בסרטון של שיעור זה
קל להתפעל מאינטליגנציה מלאכותית ובפרט מאינטליגנציה מלאכותית גנרטיבית, אך חשוב לשקול כיצד להשתמש בה באחריות. יש לשקול דברים כמו כיצד להבטיח שהפלט יהיה הוגן, לא מזיק ועוד. פרק זה נועד לספק לך את ההקשר הנזכר, מה לשקול וכיצד לנקוט צעדים פעילים כדי לשפר את השימוש שלך ב-AI.
שיעור זה יכסה:
- מדוע עליך לתת עדיפות ל-AI אחראי בעת בניית יישומי AI גנרטיביים.
- עקרונות הליבה של AI אחראי וכיצד הם קשורים ל-AI גנרטיבי.
- כיצד ליישם את עקרונות ה-AI האחראי הללו באמצעות אסטרטגיה וכלים.
לאחר סיום השיעור הזה תדע:
- החשיבות של AI אחראי בעת בניית יישומי AI גנרטיביים.
- מתי לחשוב וליישם את עקרונות הליבה של AI אחראי בעת בניית יישומי AI גנרטיביים.
- אילו כלים ואסטרטגיות זמינים לך כדי ליישם את רעיון ה-AI האחראי בפועל.
ההתרגשות סביב AI גנרטיבי מעולם לא הייתה גבוהה יותר. התרגשות זו הביאה הרבה מפתחים חדשים, תשומת לב ומימון לתחום זה. למרות שזה מאוד חיובי עבור כל מי שמחפש לבנות מוצרים וחברות תוך שימוש ב-AI גנרטיבי, חשוב גם להתקדם באחריות.
במהלך קורס זה, אנו מתמקדים בבניית הסטארט-אפ שלנו ומוצר החינוך שלנו ב-AI. נשתמש בעקרונות ה-AI האחראי: הוגנות, הכללה, אמינות/בטיחות, אבטחה ופרטיות, שקיפות ואחריות. עם עקרונות אלו, נחקור כיצד הם קשורים לשימוש שלנו ב-AI גנרטיבי במוצרים שלנו.
בעת בניית מוצר, גישה ממוקדת באדם תוך שמירה על האינטרס הטוב ביותר של המשתמש שלך מובילה לתוצאות הטובות ביותר.
הייחודיות של AI גנרטיבי היא כוחו ליצור תשובות מועילות, מידע, הדרכה ותוכן עבור משתמשים. זה יכול להיעשות ללא צעדים ידניים רבים שיכולים להוביל לתוצאות מרשימות מאוד. ללא תכנון ואסטרטגיות נכונות, זה יכול גם למרבה הצער להוביל לכמה תוצאות מזיקות עבור המשתמשים שלך, המוצר שלך והחברה כולה.
בואו נסתכל על כמה (אבל לא כל) מהתוצאות המזיקות הפוטנציאליות הללו:
הזיות הן מונח המשמש לתיאור כאשר LLM מייצר תוכן שהוא או חסר היגיון לחלוטין או משהו שאנו יודעים שהוא שגוי עובדתית על סמך מקורות מידע אחרים.
נניח לדוגמה שאנחנו בונים תכונה לסטארט-אפ שלנו המאפשרת לסטודנטים לשאול שאלות היסטוריות למודל. סטודנט שואל את השאלה Who was the sole survivor of Titanic?
המודל מייצר תגובה כמו זו שלמטה:
(מקור: Flying bisons)
זו תשובה מאוד בטוחה ומפורטת. למרבה הצער, זה לא נכון. אפילו עם כמות מינימלית של מחקר, ניתן לגלות שהיו יותר מניצול אחד מאסון הטיטניק. עבור סטודנט שרק מתחיל לחקור את הנושא הזה, התשובה הזו יכולה להיות משכנעת מספיק כדי לא להיחקר ולהתייחס אליה כעובדה. ההשלכות של כך יכולות להוביל לכך שהמערכת ה-AI תהיה לא אמינה ולהשפיע לרעה על המוניטין של הסטארט-אפ שלנו.
עם כל איטרציה של כל LLM נתון, ראינו שיפורי ביצועים סביב צמצום הזיות. גם עם שיפור זה, אנו כבוני יישומים ומשתמשים עדיין צריכים להישאר מודעים למגבלות אלה.
כיסינו בסעיף הקודם כאשר LLM מייצר תגובות שגויות או חסרות היגיון. סיכון נוסף שעלינו להיות מודעים אליו הוא כאשר מודל מגיב בתוכן מזיק.
תוכן מזיק יכול להיות מוגדר כ:
- מתן הוראות או עידוד פגיעה עצמית או פגיעה בקבוצות מסוימות.
- תוכן שנאה או מזלזל.
- הנחיית תכנון כל סוג של התקפה או מעשי אלימות.
- מתן הוראות כיצד למצוא תוכן לא חוקי או לבצע מעשים לא חוקיים.
- הצגת תוכן מיני מפורש.
עבור הסטארט-אפ שלנו, אנחנו רוצים לוודא שיש לנו את הכלים והאסטרטגיות הנכונים כדי למנוע מהסוג הזה של תוכן להיראות על ידי סטודנטים.
הוגנות מוגדרת כ"להבטיח שמערכת AI תהיה חופשית מהטיה ואפליה ושהיא תתייחס לכולם בהוגנות ושוויון." בעולם ה-AI הגנרטיבי, אנו רוצים להבטיח שהשקפות עולם המוציאות את המודלים לא יחוזקו על ידי פלט המודל.
סוגי פלט אלו אינם רק הרסניים לבניית חוויות מוצר חיוביות עבור המשתמשים שלנו, אלא הם גם גורמים נזק חברתי נוסף. כמתכנתי יישומים, עלינו תמיד לזכור בסיס משתמשים רחב ומגוון בעת בניית פתרונות עם AI גנרטיבי.
עכשיו שזיהינו את החשיבות של AI גנרטיבי אחראי, בואו נסתכל על 4 צעדים שנוכל לנקוט כדי לבנות את פתרונות ה-AI שלנו באחריות:
בבדיקות תוכנה, אנו בודקים את הפעולות הצפויות של משתמש על יישום. באופן דומה, בדיקת מגוון רחב של פקודות שמשתמשים עשויים להשתמש בהן היא דרך טובה למדוד נזק פוטנציאלי.
מכיוון שהסטארט-אפ שלנו בונה מוצר חינוכי, יהיה טוב להכין רשימה של פקודות הקשורות לחינוך. זה יכול להיות כדי לכסות נושא מסוים, עובדות היסטוריות ופקודות על חיי הסטודנט.
עכשיו הזמן למצוא דרכים שבהן נוכל למנוע או להגביל את הנזק הפוטנציאלי הנגרם על ידי המודל והתגובות שלו. נוכל להסתכל על זה ב-4 שכבות שונות:
-
מודל. בחירת המודל הנכון עבור המקרה הנכון. מודלים גדולים ומורכבים יותר כמו GPT-4 יכולים לגרום ליותר סיכון לתוכן מזיק כאשר הם מיושמים על מקרים קטנים וספציפיים יותר. שימוש בנתוני האימון שלך כדי לבצע כיוונון עדין גם מפחית את הסיכון לתוכן מזיק.
-
מערכת בטיחות. מערכת בטיחות היא סט כלים ותצורות על הפלטפורמה המשרתת את המודל המסייעת למתן נזק. דוגמה לכך היא מערכת סינון התוכן בשירות Azure OpenAI. מערכות צריכות גם לזהות התקפות jailbreak ופעילות לא רצויה כמו בקשות מבוטים.
-
מטה-פקודה. מטה-פקודות והקרקעה הם דרכים שבהן נוכל להנחות או להגביל את המודל על סמך התנהגויות ומידע מסוימים. זה יכול להיות שימוש בקלטי מערכת כדי להגדיר מגבלות מסוימות של המודל. בנוסף, לספק פלטים שרלוונטיים יותר להיקף או לתחום של המערכת.
זה יכול להיות גם שימוש בטכניקות כמו Generation Augmented Generation (RAG) כדי שהמודל ימשוך מידע רק ממבחר מקורות מהימנים. יש שיעור מאוחר יותר בקורס זה לבניית יישומי חיפוש
- חוויית משתמש. השכבה הסופית היא המקום שבו המשתמש מתקשר ישירות עם המודל דרך הממשק של האפליקציה שלנו בדרך כלשהי. בדרך זו אנו יכולים לעצב את ה-UI/UX כדי להגביל את המשתמש בסוגי הקלטים שהוא יכול לשלוח למודל וכן בטקסטים או תמונות המוצגות למשתמש. כאשר אנו משיקים את יישום ה-AI, עלינו גם להיות שקופים לגבי מה יישום ה-AI הגנרטיבי שלנו יכול ולא יכול לעשות.
יש לנו שיעור שלם המוקדש לעיצוב UX ליישומי AI
- הערכת מודל. עבודה עם LLMs יכולה להיות מאתגרת מכיוון שאין לנו תמיד שליטה על הנתונים שעליהם המודל אומן. ללא קשר לכך, עלינו תמיד להעריך את הביצועים והפלטים של המודל. עדיין חשוב למדוד את הדיוק, הדמיון, הקרקעה והרלוונטיות של הפלט של המודל. זה עוזר לספק שקיפות ואמון לבעלי עניין ולמשתמשים.
בניית נוהל תפעולי סביב יישומי ה-AI שלך היא השלב האחרון. זה כולל שיתוף פעולה עם חלקים אחרים בסטארט-אפ שלנו כמו מחלקות משפטיות וביטחון כדי להבטיח שאנו עומדים בכל מדיניות הרגולציה. לפני ההשקה, אנו גם רוצים לבנות תוכניות סביב אספקה, טיפול בתקלות והחזרה לאחור כדי למנוע כל נזק למשתמשים שלנו מגידול.
בעוד שעבודת הפיתוח של פתרונות AI אחראיים עשויה להיראות כעבודה רבה, זו עבודה ששווה את המאמץ. ככל שתחום ה-AI הגנרטיבי מתפתח, יותר כלים שיעזרו למפתחים לשלב אחריות ביעילות בתהליכי העבודה שלהם יתבגרו. לדוגמה, Azure AI Content Safety יכול לעזור לזהות תוכן ותמונות מזיקים באמצעות בקשת API.
מהם הדברים שעליך לדאוג להם כדי להבטיח שימוש אחראי ב-AI?
- שהתשובה נכונה.
- שימוש מזיק, שה-AI לא ישמש למטרות פליליות.
- להבטיח שה-AI חופשי מהטיה ואפליה.
תשובה: 2 ו-3 נכונים. AI אחראי עוזר לך לשקול כיצד למתן השפעות מזיקות והטיות ועוד.
קרא על Azure AI Content Safety וראה מה אתה יכול לאמץ לשימושך.
לאחר שסיימת את השיעור הזה, בדוק את אוסף הלמידה של AI גנרטיבי שלנו כדי להמשיך לשפר את הידע שלך ב-AI גנרטיבי!
עבור לשיעור 4 שבו נסתכל על יסודות הנדסת פקודות!
כתב ויתור:
מסמך זה תורגם באמצעות שירות תרגום AI Co-op Translator. למרות שאנו שואפים לדיוק, יש להיות מודעים לכך שתרגומים אוטומטיים עשויים להכיל שגיאות או אי דיוקים. המסמך המקורי בשפתו המקורית צריך להיחשב כמקור הסמכותי. עבור מידע קריטי, מומלץ להשתמש בתרגום אנושי מקצועי. אנו לא נושאים באחריות לאי הבנות או לפרשנויות שגויות הנובעות משימוש בתרגום זה.
