וואלה
וואלה
וואלה
וואלה

וואלה האתר המוביל בישראל - עדכונים מסביב לשעון

מסכנים את הביטחון והכלכלה: השקרים של ה-AI צריכים להפחיד אותנו

יובל לב, בשיתוף "הטכנולוגית", חטיבת הטכנולוגיה של בנק הפועלים

עודכן לאחרונה: 22.5.2023 / 10:42

פוליטיקאי אוסטרלי מצא את עצמו מורשע בעבירה פלילית שלא ביצע - בגלל מה ש-ChatGPT סיפר עליו. זו רק דוגמה אחת למה שיכול להשתבש בשימוש לא מבוקר בבינה מלאכותית

chatgpt. ShutterStock
אז מי אחראי על המידע שכלי AI מייצר?/ShutterStock

ChatGPT, כלי הבינה המלאכותית מבית OpenAI חשף אותנו לטכנולוגיה מהפכנית שנוסדה כדי להתאמן בלמידת כוונות בני אדם כשהם שואלים שאלות. היכולת הזו מדהימה ובייחוד בשל התכונות האנושיות לכאורה שזורמות בעורקיו. הכלי מסוגל לחזות תשובות תוך שימוש במודל טכנולוגי בשם Generative AI, כזה שלא רק מעבד נתונים אלא מייצר בעצמו התגלמות של תוכן חדש, באיכות שדומה כשתי טיפות מים לתוצר יד אדם. שכבה טכנולוגית נוספת המוכללת בו מאפשרת אימון ושימוש בשיח על מנת לסייע לכלי לרכוש יכולות מעקב אחר הנחיות ויצירת תגובות רצויות כלפי בני האדם לסוגיהם.

תפנית בעלילה

אז הגיעה חברת מטא ובמהלך אופייני החלה להתחרות ולפתח מודל שעל פי הדיווחים, אמור להיות הרבה יותר משוכלל. המודל טרם הושק באופן רשמי, אבל באופן מפתיע מצא את דרכו לרשת האפלה - מקום משכנם של רוצחים, פדופילים, סוחרים לא חוקיים ועוד. עם הדלפת הקוד של מטא, החלו להגיע דיווחים על מתכנתים ברחבי העולם שהניחו ידם על המודל, וייצרו בעזרתו כלי AI מהונדסים על גבי המחשבים האישיים. חברות רשמיות דוגמת מטא ו-OpenAI מחויבות מכוח רגולטורי לייצר חוקה עם סייגים ברורים המגדירים מה מותר לבינה המלאכותית לעשות - ומה לא. לעומתן, המוח הקרימינלי לא מחויב לשום רגולציה, וכך המודל מתחיל להתפתח לכדי מוטציות שונות באין מפריע וללא בקרה מחייבת.

chatgpt. ShutterStock
אז מה אנחנו יכולים לעשות?/ShutterStock

לקיחת אחריות

אז מי אחראי על המידע שכלי AI מייצר? המודל מאפשר למשתמש לשאול שאלה ולקבל תשובה מפורטת. לעיתים התשובה יכולה להיות שגויה, ואפילו בגדר שקר גמור. מקרה אחד הוא של בריאן הוד, אחד מראשי המחוזות באוסטרליה, שנחרד לגלות על מעשייה ש-ChatGPT העליל עליו, ובמסגרתה הואשם והורשע בסדרת עבירות פליליות ונידון לרצות עונש מאסר. הכלי ניזון מסיפור חשיפת שחיתות שהוד נטל בה חלק, אבל במקום להציגו כגיבור השעה, המודל טעה והעיד עליו שהוא הפושע. לזכותה של חברת OpenAI יאמר כי הקדימה לפרסם הערת אזהרה בנוגע לתגובות המודל ואי דיוקיו. הוד לא הסתפק בה ובאמצעות עורכי דינו דרש נקיטת אמצעים בלתי מתפשרים דוגמת מחיקת המידע, תיקון ודיוק המודל, התנצלות פומבית ועוד.

הוד אינו היחיד שנפגע ממידע כוזב שסופק על ידי כלי AI. הדבר עלול להתרחש תדיר כי הנתונים נמשכים מהאינטרנט העולמי - החממה לפייק ניוז ואי דיוקים. מעבר לכך, המכונה לא מנסה לתת לנו את התשובה הנכונה בהכרח, אלא מתיימרת להישמע טבעית ולייצר משפטים קולחים על בסיס הסתברותי - כפי שהיא נחשפת אליו באינטרנט. היצרן מצהיר במפורש שאינו יכול לנבא מה היא תגיד. המכונה לא כותבת את התכנים ולמעשה רק "מארחת" אותם. אז מי אחראי כשהמכונה דוברת שקרים ומפיצה תוכן פוגעני? הדעה המשפטית היבשה גורסת שאדם המפרסם תכנים באונליין הוא גם האחראי הבלעדי עליהם. כל השלכה כתוצאה מפרסום תמונה בפייסבוק, ציוץ בטוויטר, כתיבת טוקבק ביוזמתנו נוטה להיות באחריותנו המלאה בעיניי החוק. עם זאת, משפטנים רבים בעולם מתחבטים כיצד להתמודד עם הסוגייה ולפקח עליה רגולטורית. בחוקת סין ניתן למצוא איסור מפורש להשתמש בכלי AI לטובת הפצת פייק ניוז או תכנים שעשויים להזיק לכלכלה ולביטחון הלאומי. האיחוד האירופי מגבש רגולציה שמכתיבה מהן חובותיהם של כלי AI כתלות ברמת הסיכון הגלומה בהם ואפילו הממשל בארה"ב פועל בכיוון.

ספרנית מודרנית

אם אנחנו מחפשים מידע אונליין, מפתה מאד לפנות אל ספרנית מחקר שתסייע לנו, אבל האם היינו פונים אליה מלכתחילה לולא ידענו שאיננה יודעת להבדיל בין עובדה לבין הזיה? לפני שנים רבות, התחלנו לעשות שימוש במנועי חיפוש קלאסיים כדי למצוא תכנים מבוקשים באינטרנט. הגענו לזמנים בהם מאכילים אותנו תכנים בכפית באמצעות אלגוריתמים שממליצים לנו ואפילו עוקבים אחרינו. הדופמין משתולל בתוכנו, וגורם לנו להמשיך באינטראקציה הטכנולוגית. ברם, האמת היא ששוטטות מוגזמת באינטרנט עלולה לעוות את נקודת ההסתכלות שלנו על העולם - והשימוש באלגוריתמים רק מחמיר את המצב. חשוב שנבין שהסכנה אינה טמונה באלגוריתמים עצמם, אלא בחוסר המודעות שלנו לגביהם.

אז מה אנחנו יכולים לעשות? לקחת צעד אחורה, ולשקול את סוגי התכנים שאנו צורכים וכיצד הם משפיעים על תחושת המציאות שלנו, לא לתת יד לפייק ניוז ותמיד להשתדל ולקיים שיח מכבד אונליין. להגביל את היקף ההתנסות בכלי AI שצצים בחנויות האפליקציות כפטריות אחרי הגשם ואם אתם ממש מתעקשים, לכל הפחות לוודא שמדובר ביצרן מכובד. אם לא ניזהר, אנחנו עלולים להישאב אל תוך סופה של מידע מוטעה וחצאי אמיתות מבלי שנבחין בכך, ואף להיפגע בעצמנו.

הפילוסוף הסיני לאו דזה טען שאנשים רעים הינם עבודתם של האנשים הטובים. התפתחות ה-AI מייצרת עבורנו הזדמנות להיות בצד של הטובים - למען עולם טוב יותר.

יובל לב הוא מנהל תחום Service Management בחטיבה הטכנולוגית של בנק הפועלים

מתוך CodeReview - מגזין החטיבה הטכנולוגית של בנק הפועלים

יובל לב, בשיתוף "הטכנולוגית", חטיבת הטכנולוגיה של בנק הפועלים

טרם התפרסמו תגובות

הוסף תגובה חדשה

+
בשליחת תגובה אני מסכים/ה
    2
    walla_ssr_page_has_been_loaded_successfully