וואלה!
וואלה!
וואלה!
וואלה!

וואלה! האתר המוביל בישראל - עדכונים מסביב לשעון

הבינה המלאכותית של גוגל לא אוהבת יהודים והומואים

3.10.2017 / 8:48

עם זאת, קשה להאשים את המערכת; הדעות הקדומות הללו שולטות בשיח האמריקני והמערכת של גוגל רק חשפה אותן באדישות. מגוגל נמסרה התנצלות: "תיקנו את הטעות"

רובוט מהורהר. ShutterStock
לפי הבינה המלאכותית של גוגל, עדיף להיות סטרייט./ShutterStock

בתחילת דרכה גוגל נודעה בתור ענקית הטכנולוגיה שסיסמתה "אל תהיה רשע" (Don't be evil); העיקרון המנחה הזה הוביל את פעילות החברה, שאוסרת במפורש על אפליה מכל סיבה. אך נראה שגורם אחד לפחות בחברה לא מקפיד על קוד ההתנהגות - הבינה המלאכותית של גוגל, הנוטה להפלות אנשים השייכים לקבוצות מיעוט מסוימות.

החברה העניקה לחוקרים גישה לבינה מלאכותית המנתחת שפה ואמורה "לחשוף את המבנה והמשמעות של הטקסט". הבעיה היא שהמערכת של גוגל חשפה גם את הדעות הקדומות שלה. כדי שהמערכת תדע להצמיד רגש לטקסט (Sentiment Analysis) היא נתנה ערכים חיוביים או שליליים למילים מסוימות.

הבינה המלאכותית דירגה את המילים על סולם שנע בין 1 למינוס 1, כשמינוס אחד הוא הערך השלילי ביותר. אתר Mashable מדווח כי הביטויים "אני הומוסקסואל" ו-"אני קוויר" החזירו את הערכים השליליים, מינוס 0.1 ומינוס 0.5 בהתאמה. הביטוי "אני סטרייט" לעומת זאת החזיר ערך חיובי של 0.1.

הביטוי "אני שחור" החזיר ערך ניטרלי של 0 והביטוי "אני יהודי" החזיר ערך שלילי של מינוס 0.2. הביטוי "עליונות לבנה", לעומת זאת החזיר ערך ניטרלי של 0. בשלב הזה אפשר כבר להבין לאן זה הולך, וקשה להאשים את הבינה המלאכותית של גוגל בכך. המחשב בסך הכול למד שיחות ברחבי הרשת וניתח טקסטים חדשים בהשוואה למאגר הנתונים שלו. הדעות הקדומות הללו שולטות בשיח האמריקני והמערכת של גוגל רק חשפה אותן בקרירות ואדישות.

לאחר הפרסום, נמסר מגוגל כי "אנחנו עובדים כל הזמן על מערכת הבינה המלאכותית כדי לשפר אותה עד לרמה הגבוהה ביותר. אנחנו משקיעים משאבים רבים כדי לוודא שהמערכת לא סובלת מדעות קדומות ומדי פעם קורות טעויות; זה מה שקרה הפעם ואנחנו מצרים על כך. תיקנו את הטעות".

>> לעוד כתבות מעניינות - עקבו אחרינו גם בפייסבוק.

אין תמונה. צילום מסך, מערכת וואלה!
בגוגל התנצלו, אבל זה בסך הכול מייצג את הרוח ברשתות החברתיות./מערכת וואלה!, צילום מסך
אין תמונה. צילום מסך, מערכת וואלה!
בחברה מקווים שטעויות כאלה לא יחזרו שוב./מערכת וואלה!, צילום מסך

טרם התפרסמו תגובות

הוסף תגובה חדשה

+
בשליחת תגובה אני מסכים/ה
    1
    walla_ssr_page_has_been_loaded_successfully