לחצו על התמונה למעלה לצפייה בסרטון של השיעור
קל להתלהב מבינה מלאכותית ובמיוחד מבינה מלאכותית גנרטיבית, אך חשוב לשקול כיצד להשתמש בה באחריות. יש לקחת בחשבון דברים כמו איך להבטיח שהתוצרים יהיו הוגנים, לא מזיקים ועוד. פרק זה נועד לספק לכם את ההקשר הנדרש, מה לשקול וכיצד לנקוט צעדים פעילים לשיפור השימוש שלכם בבינה מלאכותית.
שיעור זה יעסוק ב:
- מדוע עליכם לתת עדיפות לבינה מלאכותית אחראית בעת בניית יישומי בינה מלאכותית גנרטיבית.
- עקרונות הליבה של בינה מלאכותית אחראית וכיצד הם קשורים לבינה מלאכותית גנרטיבית.
- כיצד ליישם את עקרונות הבינה המלאכותית האחראית באמצעות אסטרטגיה וכלים.
לאחר השלמת שיעור זה תדעו:
- את חשיבות הבינה המלאכותית האחראית בעת בניית יישומי בינה מלאכותית גנרטיבית.
- מתי לחשוב וליישם את עקרונות הליבה של בינה מלאכותית אחראית בעת בניית יישומי בינה מלאכותית גנרטיבית.
- אילו כלים ואסטרטגיות זמינים לכם ליישום עקרונות הבינה המלאכותית האחראית.
ההתלהבות מבינה מלאכותית גנרטיבית מעולם לא הייתה גבוהה יותר. התלהבות זו הביאה הרבה מפתחים חדשים, תשומת לב ומימון לתחום זה. בעוד שזה חיובי מאוד עבור כל מי שמחפש לבנות מוצרים וחברות באמצעות בינה מלאכותית גנרטיבית, חשוב גם שנפעל באחריות.
במהלך הקורס הזה, אנו מתמקדים בבניית הסטארטאפ שלנו ומוצר החינוך מבוסס הבינה המלאכותית שלנו. נשתמש בעקרונות של בינה מלאכותית אחראית: הוגנות, הכללה, אמינות/בטיחות, אבטחה ופרטיות, שקיפות ואחריות. באמצעות עקרונות אלו, נחקור כיצד הם קשורים לשימוש שלנו בבינה מלאכותית גנרטיבית במוצרים שלנו.
בעת בניית מוצר, גישה ממוקדת-אדם תוך שמירה על טובת המשתמשים שלכם מובילה לתוצאות הטובות ביותר.
הייחודיות של בינה מלאכותית גנרטיבית היא היכולת שלה ליצור תשובות מועילות, מידע, הנחיות ותוכן עבור המשתמשים. ניתן לעשות זאת ללא שלבים ידניים רבים, מה שיכול להוביל לתוצאות מרשימות מאוד. עם זאת, ללא תכנון ואסטרטגיות מתאימות, זה עלול להוביל גם לתוצאות מזיקות עבור המשתמשים שלכם, המוצר שלכם והחברה כולה.
בואו נבחן כמה (אך לא את כולם) מהתוצאות המזיקות האפשריות:
הזיות הן מונח המתאר מצב שבו מודל שפה גדול (LLM) מייצר תוכן שהוא או חסר היגיון לחלוטין או משהו שאנחנו יודעים שהוא שגוי עובדתית על סמך מקורות מידע אחרים.
לדוגמה, נניח שאנחנו בונים תכונה לסטארטאפ שלנו שמאפשרת לתלמידים לשאול שאלות היסטוריות למודל. תלמיד שואל את השאלה מי היה הניצול היחיד מהטיטאניק?
המודל מייצר תשובה כמו זו למטה:
(מקור: Flying bisons)
זו תשובה מאוד בטוחה ומפורטת. למרבה הצער, היא שגויה. אפילו עם כמות מינימלית של מחקר, ניתן לגלות שהיו יותר מניצול אחד מאסון הטיטאניק. עבור תלמיד שרק מתחיל לחקור את הנושא, תשובה זו יכולה להיות משכנעת מספיק כדי לא להטיל בה ספק ולהתייחס אליה כעובדה. ההשלכות של זה יכולות להוביל לכך שמערכת הבינה המלאכותית תיחשב כלא אמינה ותפגע במוניטין של הסטארטאפ שלנו.
עם כל גרסה חדשה של מודל שפה גדול, ראינו שיפורים בביצועים במזעור הזיות. עם זאת, גם עם שיפור זה, אנחנו כמתכנני יישומים ומשתמשים עדיין צריכים להיות מודעים למגבלות אלו.
כבר דיברנו על כך שמודל שפה גדול יכול לייצר תשובות שגויות או חסרות היגיון. סיכון נוסף שעלינו להיות מודעים אליו הוא כאשר מודל מגיב עם תוכן מזיק.
תוכן מזיק יכול להיות מוגדר כ:
- מתן הוראות או עידוד לפגיעה עצמית או פגיעה בקבוצות מסוימות.
- תוכן שנאה או השפלה.
- הנחיה לתכנון כל סוג של התקפה או מעשי אלימות.
- מתן הוראות כיצד למצוא תוכן לא חוקי או לבצע מעשים לא חוקיים.
- הצגת תוכן מיני מפורש.
עבור הסטארטאפ שלנו, אנחנו רוצים לוודא שיש לנו את הכלים והאסטרטגיות הנכונים כדי למנוע מתוכן כזה להיחשף לתלמידים.
הוגנות מוגדרת כ"להבטיח שמערכת בינה מלאכותית תהיה חפה מהטיות ואפליה, ותתייחס לכולם בהגינות ובשוויון." בעולם הבינה המלאכותית הגנרטיבית, אנחנו רוצים להבטיח שהשקפות עולם מפלות כלפי קבוצות מוחלשות לא יתחזקו על ידי תוצרי המודל.
תוצרים מסוג זה לא רק פוגעים בחוויית המשתמשים שלנו, אלא גם גורמים לנזק חברתי נוסף. כמתכנני יישומים, עלינו תמיד לשמור על בסיס משתמשים רחב ומגוון בעת בניית פתרונות עם בינה מלאכותית גנרטיבית.
כעת, לאחר שזיהינו את חשיבות הבינה המלאכותית הגנרטיבית האחראית, בואו נבחן 4 צעדים שנוכל לנקוט כדי לבנות את פתרונות הבינה המלאכותית שלנו באחריות:
בבדיקות תוכנה, אנחנו בודקים את הפעולות הצפויות של משתמש באפליקציה. באופן דומה, בדיקת סט מגוון של פקודות שהמשתמשים צפויים להשתמש בהן היא דרך טובה למדוד נזקים פוטנציאליים.
מכיוון שהסטארטאפ שלנו בונה מוצר חינוכי, יהיה זה רעיון טוב להכין רשימה של פקודות הקשורות לחינוך. זה יכול לכלול נושאים מסוימים, עובדות היסטוריות ופקודות על חיי תלמידים.
כעת הגיע הזמן למצוא דרכים שבהן נוכל למנוע או להגביל את הנזק הפוטנציאלי שנגרם על ידי המודל ותשובותיו. ניתן לבחון זאת ב-4 שכבות שונות:
-
מודל. בחירת המודל הנכון לשימוש הנכון. מודלים גדולים ומורכבים יותר כמו GPT-4 יכולים להוות סיכון גבוה יותר לתוכן מזיק כאשר הם מיושמים על שימושים קטנים וספציפיים יותר. שימוש בנתוני האימון שלכם לכיול המודל גם מפחית את הסיכון לתוכן מזיק.
-
מערכת בטיחות. מערכת בטיחות היא סט כלים והגדרות בפלטפורמה שמשרתת את המודל ועוזרת למזער נזק. דוגמה לכך היא מערכת סינון התוכן בשירות Azure OpenAI. מערכות צריכות גם לזהות התקפות "פריצה" ופעילויות לא רצויות כמו בקשות מבוטים.
-
מטה-פקודה. מטה-פקודות והנחיות הן דרכים שבהן ניתן לכוון או להגביל את המודל על בסיס התנהגויות ומידע מסוימים. זה יכול להיות שימוש בקלטי מערכת כדי להגדיר גבולות מסוימים למודל. בנוסף, ניתן לספק תוצרים שרלוונטיים יותר להיקף או לתחום של המערכת.
ניתן גם להשתמש בטכניקות כמו Retrieval Augmented Generation (RAG) כדי לגרום למודל למשוך מידע רק ממקורות מהימנים. ישנו שיעור מאוחר יותר בקורס זה על בניית יישומי חיפוש.
- חוויית משתמש. השכבה האחרונה היא המקום שבו המשתמש מתקשר ישירות עם המודל דרך ממשק האפליקציה שלנו. בדרך זו נוכל לעצב את ממשק המשתמש/חוויית המשתמש כדי להגביל את סוגי הקלטים שהמשתמש יכול לשלוח למודל וכן את הטקסטים או התמונות שמוצגים למשתמש. בעת פריסת יישום הבינה המלאכותית, עלינו גם להיות שקופים לגבי מה יישום הבינה המלאכותית הגנרטיבית שלנו יכול ולא יכול לעשות.
יש לנו שיעור שלם המוקדש לעיצוב חוויית משתמש ליישומי בינה מלאכותית.
- הערכת המודל. עבודה עם מודלים של שפה גדולה יכולה להיות מאתגרת מכיוון שאין לנו תמיד שליטה על הנתונים שעליהם המודל אומן. עם זאת, עלינו תמיד להעריך את ביצועי המודל ותוצריו. עדיין חשוב למדוד את דיוק המודל, הדמיון, הביסוס והרלוונטיות של התוצר. זה עוזר לספק שקיפות ואמון לבעלי העניין ולמשתמשים.
בניית פרקטיקה תפעולית סביב יישומי הבינה המלאכותית שלכם היא השלב האחרון. זה כולל שיתוף פעולה עם חלקים אחרים בסטארטאפ שלנו כמו מחלקת המשפטים והאבטחה כדי להבטיח שאנחנו עומדים בכל התקנות. לפני ההשקה, אנחנו גם רוצים לבנות תוכניות סביב אספקה, טיפול בתקלות וביטול שינויים כדי למנוע כל נזק למשתמשים שלנו.
בעוד שעבודת הפיתוח של פתרונות בינה מלאכותית אחראית עשויה להיראות רבה, זו עבודה ששווה את המאמץ. ככל שתחום הבינה המלאכותית הגנרטיבית גדל, יותר כלים שיעזרו למפתחים לשלב אחריות ביעילות בתהליכי העבודה שלהם יתפתחו. לדוגמה, Azure AI Content Safety יכול לעזור לזהות תוכן ותמונות מזיקים באמצעות בקשת API.
מהם הדברים שעליכם לשים לב אליהם כדי להבטיח שימוש אחראי בבינה מלאכותית?
- שהתשובה נכונה.
- שימוש מזיק, שהבינה המלאכותית לא תשמש למטרות פליליות.
- להבטיח שהבינה המלאכותית חפה מהטיות ואפליה.
תשובה: 2 ו-3 נכונים. בינה מלאכותית אחראית עוזרת לכם לשקול כיצד למזער השפעות מזיקות והטיות ועוד.
קראו על Azure AI Content Safety ובדקו מה תוכלו לאמץ לשימוש שלכם.
לאחר השלמת שיעור זה, עיינו באוסף הלמידה של בינה מלאכותית גנרטיבית שלנו כדי להמשיך להעמיק את הידע שלכם בבינה מלאכותית גנרטיבית!
עברו לשיעור 4 שבו נבחן את יסודות הנדסת פקודות!
כתב ויתור:
מסמך זה תורגם באמצעות שירות תרגום מבוסס בינה מלאכותית Co-op Translator. למרות שאנו שואפים לדיוק, יש לקחת בחשבון שתרגומים אוטומטיים עשויים להכיל שגיאות או אי דיוקים. המסמך המקורי בשפתו המקורית צריך להיחשב כמקור סמכותי. למידע קריטי, מומלץ להשתמש בתרגום מקצועי אנושי. איננו אחראים לאי הבנות או לפרשנויות שגויות הנובעות משימוש בתרגום זה.



