וואלה
וואלה
וואלה
וואלה

וואלה האתר המוביל בישראל - עדכונים מסביב לשעון

דעה: יש לחייב לימודי אתיקה במדעי המחשב

ד"ר רועי צזנה

8.3.2019 / 7:44

מכוניות אוטונומיות, קוצבי לב ועוד: אנחנו מפקידים יותר ויותר טכנולוגים ואמצעי תחבורה ועזרים מצילים חיים בידי חברות טכנולוגיות. אבל מה בנוגע לחברות האלו ולהאקרים? מה מותר ומה אסור לעשות במלחמת הסייבר? ד"ר רועי צזנה, מומחה לטכנולוגיות בתור דעה

לימודי אבטחת סייבר לחיילים משוחררים. Family guide
"יש לחייב לימודי אתיקה במדעי המחשב"./Family guide

בשנים האחרונות הפכה פייסבוק לאחת מחברות האינטרנט השנואות ביותר. היא נתפסה בניסיון לשחק ברגשותיהם של המשתמשים באמצעות הצגה מוטה של מידע המגיע מחבריהם, הואשמה בהפקרת פרטיהם האישיים של המשתמשים, ואיפשרה לממשלות זרות להתערב בבחירות הדמוקרטיות בארצות הברית ובאירופה.

למזלה של פייסבוק, היא אינה לבדה במערכה. לרשימת החברות הנאלצות להתמודד עם ביקורת נוקבת בתחום האתי מצטרפת גם גוגל, שספגה לאחרונה קנס גדול מהאיחוד האירופי בשל "הטיית תוצאות חיפוש", ומתמודדת עם חקירה נוספת בחשד לבריונות בפרסום. אובר שחררה לחופשי רכב אוטונומי שזיהה הולכת רגל, אך החליט שאין סיבה לעצור לה כאשר ניסתה לחצות את הכביש - החלטה שהסתיימה במותה של האשה. אובר, לפחות, התייחסו ברצינות הראויה לחקירת התאונה. כאשר טסלה התמודדה עם תאונה שביצע הרכב האוטונומי שלה, היא פשוט האשימה את הנהג האנושי שבחר להפעיל את מצב "הטייס האוטומטי", ומנכ"ל החברה, אילון מאסק, ניתק את הטלפון בפנים ליו"ר המועצה הלאומית לבטיחות בתעבורה בארצות הברית. וכמובן, אי אפשר לשכוח את אמזון שהרשתה לעצמה לשלוח יד לתוך מכשירי הקינדל הפרטיים של המשתמשים ולמחוק את ספרו של ג'ורג' אורוול - 1984 - מהמכשירים.

כל אלו הן דוגמאות להתנהלות לא-אתית מצד החברות. בחלק מהמקרים מדובר בהתנהלות חוקית לגמרי: המשתמשים בפייסבוק, למשל, חתמו על אישור לכפוף את עצמם לאלגוריתם שיברור את הפוסטים אליהם ייחשפו מחבריהם. אך עצם היותן צודקות מבחינה חוקית לא סייע לחברות בכהוא זה בהתמודדותן עם הציבור הזועם -ובסופו של דבר גם עם הרגולטור.

אנו נכנסים כיום לתקופה חדשה, בה חברות זוכות לכוח עצום בזכות מנועי הבינה המלאכותית שהן מפתחות. הבינות המלאכותיות של פייסבוק, גוגל, אובר, טסלה, אמזון ועוד מספר רב של חברות, מסוגלות להטות תוצאות חיפוש, לדרוס הולכי רגל בכביש ולהפלות משתמשים לרעה על סמך מינם או מוצאם. הבינות המלאכותיות הללו יכולות לקבל הנחיות ממפתחיהן להתנהלות לא-אתית, או להתחיל להתנהל באופן קלוקל בעצמן בעקבות למידה מתוך מידע מוטה ולוקה בחסר (בדומה לאופן בו "טאי", בוט שפיתחה מיקרוסופט, רכש דעות ודרכי שיחה מקהל הטוקבקיסטים האינטרנטי, ותוך זמן קצר החל להודיע כי הנאצים צדקו בכל מעשיהם). כך או כך, הציבור יאשים את החברות - ובצדק - מאחר וכוח גדול גורר בהכרח גם אחריות גדולה, והציבור מצפה מהחברות להתנהל באופן אתי, הוגן והגון כלפי המשתמשים. באופן מפתיע, גם התעשייה מסכימה עם ראייה זו של הדברים.

ND מתקפת סייבר פקדה את מחשבי מערכת הבריאות בישראל. רויטרס
"תקופה חדשה בה חברות זוכות לכוח עצום בזכות מנועי הבינה המלאכותית"/רויטרס

התעשייה עוברת להתרכז באתיקה

חלק מחברות הטכנולוגיה הגדולות מתחילות בעצמן להוביל את השינוי המחשבתי. יבמ ואינטל, למשל, ענקיות הייטק שתיהן, שחררו ב- 2018 מסמכים מפורטים המציעים הנחיות אתיות מפורטות לכל העובדים המעורבים בפיתוח בינות מלאכותיות. גוגל פרסמה מסמך פנימי משלה המפרט את העקרונות האתיים עליהם היא מסתמכת בפיתוח ובשימוש בבינה מלאכותית. אפילו לפייסבוק יש צוות אתיקה פנימי משלה, שאמור לוודא שפיתוח הבינה המלאכותית מתנהל באופן אחראי.

כאשר אנו עוברים על ההמלצות האתיות המגיעות מהמסמכים השונים, ניתן למצוא מספר קווי דימיון החוזרים על עצמם. קיים דגש, למשל, על מניעת הטיה: המפתחים חייבים למנוע מהבינה המלאכותית לפתח הטיה שלילית או חיובית כנגד חלק מהמשתמשים. צריך להקפיד על פרטיות מירבית בנוגע למידע הנאסף אודות המשתמשים, לצד הקפדה על ניתוח סיכונים אחראי כדי להבין כיצד לצמצם את הסיכון לגניבת מידע שתפגע במשתמשים. אך אולי הדרישה החשובה מכולן היא גם הבסיסית ביותר: כל מי שמעורב בתהליכי הפיתוח של בינות מלאכותיות ומאגרי מידע, צריך לרכוש השכלה בסיסית בתחום האתיקה. כן, כולם - ממפתח חוויית המשתמש ועד לדוקטור למדעי המחשב המומחה ברשתות עצבים מלאכותיות.

אין לי אשליה שהאנשים המעורבים בפיתוח הבינה המלאכותית יקבלו עליהם בשמחה דרישות שכאלו. למעשה, אני מכיר את הניסיון היטב מביתי, בו מתנהלת לאחרונה מלחמת ציוויליזציות - לא בין המערב למזרח, אלא ביני, העתידן, לאשתי המהנדסת. בכל פעם שאני מנסה לדבר עמה על ההשלכות האתיות של הטכנולוגיה, היא מגלגלת עיניה בהבעה למודת-ניסיון, ומבשרת לי שאם איני יכול לכמת את "האתיקה הזאת שלי" הרי שאין לה שום משמעות. זוהי עמדה נפוצה בקרב אנשי המדעים המדויקים, שרגילים להתמודד עם מספרים ונתונים מחושבים ומדודים היטב, ולא עם העקרונות הרכים והמעורפלים של האתיקה האנושית. ברור שרבים מהם יעדיפו לבצע את עבודתם על הצד הטוב ביותר - לפי הנחיות שניתנו להם מצד המנהלים שאמורים לראות את התמונה הרחבה יותר - ולא להיגרר לביצה העכורה של שיקולים אתיים.

דווקא עמדה נייטרלית זו מקשה על חברות ההייטק כיום לפתח מוצרים שיעמדו בדרישות האתיות המחמירות של הציבור. אין זו הגזמה לטעון שלכל אדם הלוקח חלק בפיתוח מוצר בו ישתמשו, בסופו של דבר, מיליארדי אנשים, יש אחריות גדולה לזהות את הקשיים והסייגים האתיים שבמוצר, ולהציע דרכים לפתור אותם. כל מפתח ומתכנת יכולים וצריכים לקחת חלק בתהליך שכזה של ביקורת עצמית.

אבל מי ירכיש אתיקה לכל אותם מפתחים, מתכנתים, מהנדסים וחוקרים? זה יהיה, כמובן, תפקידן של האוניברסיטאות. ראוי שכבר בתואר הראשון במדעי המחשב - ובכל תחום אחר שמימוש המוצרים הדיגיטליים בו יכול להשפיע על חייהם של רבים - יחויבו הסטודנטים ללמוד על סוגיות אתיות שרלוונטיות לתחומם. רעיונות שכאלו הוצעו בעבר. מוכר היטב הסיפור (ואולי אגדה אורבנית) אודות הסטודנטים בטכניון שהתבקשו לתכנן צינור לאורכו יזרום דם מאילת לחיפה, ונכנסו בהתלהבות למיזם מבלי לשאול אפילו למה. בזכות אותו מקרה, הושתתו בטכניון גם קורסים הומניסטיים.

אולי, לנוכח כל קשייהן האתיים של החברות הגדולות ביותר, הגיע הזמן לפתוח בטכניון ובכל שאר האוניברסיטאות גם קורסים מתקדמים באתיקה, במיוחד למהנדסים. מהלך כזה ישרת במקביל גם את האינטרסים של הציבור הרחב וגם את אלו של חברות האינטרנט, שמודות בעצמן שהן זקוקות לידע באתיקה כדי להציל אותן מטעויות נוספות.

ד"ר רועי צזנה הוא מומחה לטכנולוגיה וחדשנות, מרצה בקורס יזמות פנים ארגונית ופיתוח עסקי בלהב פיתוח מנהלים.

טרם התפרסמו תגובות

הוסף תגובה חדשה

+
בשליחת תגובה אני מסכים/ה
    4
    walla_ssr_page_has_been_loaded_successfully