וואלה
וואלה
וואלה
וואלה

וואלה האתר המוביל בישראל - עדכונים מסביב לשעון

אדם נגד מכונה: איך מרסנים את הביטחון המופרז בבינה מלאכותית?

עו"ד איתן צפריר, טור אורח

19.12.2024 / 16:49

בזמן שכולם משבחים את יתרונות השימוש בבינה המלאכותית, נוטים לשכוח את הסכנות האורבות לחברות וארגונים המשתמשים בה. איך הופכים את השימוש לבטוח יותר?

בינה מלאכותית ותבונה אנושית - שילוב מנצח.. בינה מלאכותית
בינה מלאכותית ותבונה אנושית - שילוב מנצח./בינה מלאכותית

בזמן שכולם משבחים את יתרונות השימוש בבינה המלאכותית, נוטים לשכוח את הסכנות האורבות לחברות וארגונים המשתמשים בה. דווקא כאשר הבינה המלאכותית הופכת למשוכללת יותר, זוכה לאמון רב יותר וסופחת עוד ועוד תחומי פעילות עסקיים, גדל הסיכון להסתבכויות. הבינה המלאכותית משדרגת את הפעילות העסקית, אולם אסור להירדם בשמירה. יש מצבים בהם מתחייב פיקוח אנושי לצמצום ומניעה של חשיפות משפטיות.

המקרה של ניג'יר פארקס התרחש בפברואר 2019, גבר שחור בן 33 נעצר לאחר שזוהה על ידי תוכנת זיהוי באופן שגוי כגונב מחנות וכמי שניסה לפגוע בשוטר עם רכב. הוא נאלץ לשהות עשרה ימים בתא מעצר, ולבסוף הסתבר כי בעת האירוע הוא היה במרחק של 30 מיילים ממקום הפשע. פארקס תבע את המשטרה על רשלנות בשל הסתמכות על טכנולוגיית זיהוי פנים פגומה, וזכה בפיצוי בסך חמישה מיליון דולר. תוצאה זו מבהירה את ההשלכות המשפטיות והכספיות של הסתמכות עיוורת על טכנולוגיית המערבות בינה מלאכותית.

הביטחון המופרז שאנו חשים בשימושי הבינה המלאכותית גורם לנו להפעיל פחות ופחות שיקול דעת, עד שאנו מתמסרים באופן מודע ומלא למכונה ומוותרים על קבלת החלטה אנושית. מגמה שבה בינה מלאכותית הופכת מגורם מסייע בקבלת החלטות המספק תובנות ונתונים, למקבלת החלטות במקום הגורם האנושי צוברת תאוצה.

הסכנה: שכפול הטיות והיעדר סמכות אנושית

הסכנה שבמערכות AI נובעת גם מהיותן מאומנות על נתונים, ואם הנתונים מכילים הטיות (לדוגמא, הטיה מגדרית או גזעית), המערכת תשכפל ואף תגביר הטיות אלו בקבלת ההחלטות שלה. רק מעורבות אנושית מאפשרת לזהות ולטפל בהטיות אלו. במקרים אחרים, קשה להבין כיצד המערכת הגיעה להחלטה כזו או אחרת. מעורבות אנושית יכולה לעזור לפרש את ההחלטות ולספק הסברים, מה שמאפשר לבנות אמון במערכת ובתוצאותיה. החלטות של בינה מלאכותית יכולות להשפיע בצורה משמעותית על חיי אדם בבריאות, משפט או פיננסים.

לכן, גם כאשר נותנים למכונה את הכוח לקבל החלטות, עדיין נרצה לשמר את הסמכות האנושית בצמתים קריטיים של קבלת החלטות הן בהיבטים של אתיקה והן בהיבטים של תוצאה. לאחרונה מסקנה זו קיבלה חיזוק בדוח ביניים של צוות ממשלתי בין-משרדי לעניין בינה מלאכותית בסקטור הפיננסי. הדו"ח מציע מעורבות אנושית בהחלטות מהותיות בסיכון גבוה, במיוחד כאשר לבינה המלאכותית תפקיד מרכזי בתהליך קבלת ההחלטות.

המלצות דו"ח הביניים הן מתווה מסתמן לצמצום חשיפות משפטיות במקרים שהרגולטור או בית המשפט עשויים להגדיר העדר החלטה אנושית כהתרשלות. ישנם כמה מבחנים לקביעה מתי ובאיזו מידה נדרשת מעורבות אנושית: המעורבות האנושית תישקל בהתחשב באמצעים אחרים החלים על המערכת כמו הסברתיות ויכולת השגה על החלטותיה, מה שקרוי חלופות מפצות. כך, אם ישנה מערכת עם יכולת הסברתיות, אין הכרח לדרוש מעורבות אנושית לפני קבלת החלטה וניתן להסתפק במעורבות אנושית לגבי החלטות ככל שאינן בסיכון גבוה.

מכאן שבקרה בזמן אמת תידרש רק על החלטות מהותיות שהסיכון שבהן גבוה. בנוסף, יש לשקול מעורבות אנושית ככלי בקרה על החלטות שליליות. למשל החלטות המסרבות לתת אשראי תחייבנה ביקורת אנושית לפני מסירתה ללקוח. חשוב לאבחן בין המלצות תומכות החלטה לבין החלטות עצמן. ככל שהגורם האנושי מקבל את ההחלטה, אפשר לצמצם את דרישת המעורבות האנושית רק להיבטי בקרה ופיקוח כלליים על תפקוד המערכת וניתן לצמצם את דרישת הביקורת בדיעבד.

איתן צפריר. סטודיו תומאס,
איתן צפריר/סטודיו תומאס

דרך פעולה נוספת היא להגדיר שמעורבות של גורם אנושי תידרש בהחלטות בתחומים בהם נדרש רישיון מקצועי כמו ייעוץ השקעות, עריכת דין, ייעוץ פנסיוני, רפואה וכד'. היעדר מעורבות אנושית בקבלת החלטות בתחומים אלה עשויה להיתפס כהפרת הדין ודרישת הרישיון. זה לא רק עניין פורמלי אלא גם עניין מהותי שכן במקצועות כאלה מתקיימת חובת נאמנות של בעל רישיון כלפי לקוחו. בסופו של דבר, ככל שההחלטות הן קריטיות יותר או הסתברות לטעות של המערכת גבוהה תידרש מעורבות אנושית גבוהה.

לסיכום, כדי להתמודד עם סיכוני AI יש להקים צוותי פיקוח על ידי חברות המפתחות טכנולוגיות AI או משתמשות בהן, שיהיו אחראים לבדוק את התהליכים וההשלכות של המערכות. ניתן להקים גם מנגנון שנותן למשתמשים אפשרות לספק משוב על תהליכים והמלצות המתקבלות על ידי המערכות. כך ניתן יהיה לזהות בעיות ולשפר את המודלים תוך כדי עדכון המידע והנתונים במערכת. בכל חברה חשוב לקבוע מדיניות לניהול סיכונים במקרים של כישלון או שגיאה במערכת, כולל תהליכים במקרה של חריגה מהסטנדרטים או פגיעה בזכויות הפרט.

חשוב לקיים הדרכת עובדים על אופן השימוש הנכון במערכות בינה מלאכותית והנחיות ברורות לעובדים לגבי הדרג המתאים להזנת מידע רגיש. הטמעת בקרות ארגוניות להימנעות מהזנת מידע שגוי או מטעה למערכות. ביצוע בדיקות נאותות מול הספק להבטיח איכות המידע ששימש לאימון המערכת. מתן הסברים ללקוחות על אופן פעולת המערכת ומטרותיה. הימנעות ממצגים מטעים או הסתרת מידע מהלקוחות. מעורבות אנושית בהחלטות המשפיעות באופן מהותי על לקוחות. גידור סיכונים במנגנונים חוזיים וביטוחיים שונים ותיעוד של עמידה בסטנדרטים של תעשיה ושקידה נאותה למניעת תקלות כדי להתמודד עם טענות רשלנות.

הכותב הוא שותף רגולציה, קומפליינס ו-AI במשרד עורכי דין פירון

טרם התפרסמו תגובות

הוסף תגובה חדשה

+
בשליחת תגובה אני מסכים/ה
    3
    walla_ssr_page_has_been_loaded_successfully