בסרטון: ווסטוורלד, הסדרה שמבטאת את החשש מהשתלטות הבינה המלאכותית
לפני כחודש סערו הרוחות בעמק הסיליקון. אחת החוקרות הבכירות בתחום הבינה המלאכותית, ד"ר טימניר גאברו, לקחה חלק במאמר אקדמי משותף שפירט את החשש ממודלים של עיבוד שפה. יצוין כי ד"ר גבארו לא גילתה שום דבר חדש על האלגוריתם שאמור להפוך את החיים של כולנו לקלים יותר, אבל משהו בכל זאת עורר את הדיון מחדש בשאלה: עד כמה הבינה המלאכותית תורמת לאנושות?
הרי ידוע שענקיות האינטרנט כמו גוגל, מיקרוסופט ואחרות, פיתחו לפני שנים מודלים מתוחכמים של שפה, מבוססי בינה מלאכותית, שנועדו לחזות ולהבין שאילתות של גולשים. אלא שלפי המאמר, המודלים הללו כוללים לעתים, מילים וביטויים שעלולים לייצר אפליה נגד אוכלוסיות חלשות ומיעוטים, וזה עוד לפני הדיון הסוער על הפצת תיאוריות קונספירציה ומידע מוטעה.
המאמר קיבע אפוא את מה שכולם כבר יודעים: בעידן שבו הטכנולוגיה היא השליט העליון, גם אם דעת הקהל מתמסרת מרצונה ומוותרת על הפרטיות, היא עדיין חוששת מאלגוריתמים בתחום ה-NLP Natural Language Processing)).
האם מדובר בחששות מוצדקים? ובכן, תלוי. שימוש לא נבון בטכניקת NLP ובעיבוד שפה עלול להוות סיכון על הפרטיות של כולנו. העידן הטכנולוגי מאפשר ללמד מחשב לחקות שיחה יומיומית של אדם אנוש. כך למשל בבחירות בארה"ב ב-2016 נעשה שימוש במספר רב של בוטים שחיקו התנהגות אנושית והפיצו מידע מטעה וכוזב ברשתות החברתיות. אבל לא באמת צריך ללכת רחוק: שיתוף והצפת הרשת בתחושות, רגשות, דעות ושיחות - מסייעות אף הן לאלגוריתמים ללמוד על מה אנחנו חושבים כמעט בכל רגע נתון ולצפות את התגובה בשירות או מוצר שיעשה לנו טוב בנשמה.
האם אלגוריתם יכול להיות גזעני?
אחד האתגרים הגדולים עמם מתמודד תחום עיבוד השפה כולו הוא הניסיון לתקן הטיות גזעניות/מגדריות שמופיעות בטקסטים הקיימים ברשת. הרצון לנטר מילים וביטויים מדויקים מתוך זיליוני תווים הופך את המשימה לקשה יותר. הנוסחה המתמטית שמלמדת את המחשב מתקשה לעתים להבדיל בין הטיות מגדריות.
כך לדוגמה: מחקר שבדק את האלגוריתם word embedding, מצא כי המונח "מתכנת מחשבים" (computer programmer) דומה מתמטית למונח "עקרת בית" (homemaker). בנוסף, לא מעט אלגוריתמים לזיהוי רגש מוצאים משפטים עם הטיה נשית הכוללים כעס, הרבה יותר מאשר משפטים שנכתבים בהטיה גברית.
וזה לא נגמר: מחקר מרתק שנערך בארה"ב כדי לזהות שיח טרוריסטי ברשת נטה לזהות אמירות בפייסבוק או בטוויטר כגזעניות פי 1.5 אם נכתבו על ידי אפרו אמריקאיים או פי 2.2 אם נכתבו בשפה עם ניב אפרו אמריקאי.
כעת נשאלת השאלה: האם זו סיבה טובה מספיק לעצור את המחקר ולא לעשות שימוש בשפה האנושית? בוודאי שלא.
ממש כשם שתכנון וייצור המטוס הראשון טמן סיכון משמעותי לאנושות, גם ה-NLP הוא נכס שכדאי לשמר אותו ואת תועלותיו. באמצעות הNLP כולנו מקבלים שירות מהיר ויעיל יותר במרבית ערוצי המסחר האלקטרוני; באמצעות הNLP אנחנו יכולים לחזות אירועים שעוד לא התרחשו; לחקור מחלות וקשרים לוגיים שמאיימים על הבריאות של כולנו; לזהות את מצבם הנפשי של הקרובים אלינו ולתת להם אוזן קשבת בשעת הצורך; וזו רק ההתחלה.
אין זה מפתיע, אפוא, שיש נטייה לחשוש ממחשב שמחקה בני אנוש. בעיקר כשמדובר בתחום מחקרי שרק נמצא בחיתוליו. ובכל זאת, גם לאנושות יש קלף מנצח בידיים. ראשית, יש להחיל את כללי האתיקה המחמירים ביותר על כל מחקר חדש בתחום ה-NLP. אסור כמובן לשכוח את הביקורת העצמית ומשוא הפנים, אבל גם אם תמיד יהיו כאלה שינצלו זאת לרעה - להם תחכה ההפתעה הבאה: בעולם כבר מדברים על מערכת בינה מלאכותית שתפקח על תחום עיבוד השפה ותציף בעיות שימושיות. בינה מעל בינה. NLP הוא לא האח הגדול שכולם חוששים ממנו. לא מאמינים? דמיינו את חייכם ללא חיפוש בגוגל, ללא בדיקת איות וללא סירי. קשה, נכון?
הכותבת היא ראש מחלקת NLP במעבדת החדשנות של סיטי - המידע המוצג בטור זה הוא על דעתה בלבד.