בשנים האחרונות לא-מעט ענקיות טכנולוגיה החלו לפתח בינות מלאכותיות, ולחקור את התחום - כל אחת לצורכיה. חלק מהבינות המלאכותיות נועדו לשמש כממשק הפעלה קולית, כמו סירי ואלקסה, וחלק מהבינות המלאכותיות פועלות מאחורי הקלעים, מנתחות מידע ומגיעות לתובנות.
קל להבין למה ענקית החיפוש גוגל, המפעילה את שירות Google Photos, זקוקה לתוכנה המסוגלת לנתח אלמנטים בתמונה ולתרגם אותם לרשימה כתובה של מונחים. את היכולת הזו היא השיקה כבר ממזמן אך לפני כשנתיים, מתכנת ניו-יורקי בשם ג'קי אלסינה הצליח להביך את החברה בציוץ בטוויטר; הוא הבחין כי הוא וחברתו תויגו על ידי גוגל בתור גורילות.
הזיהוי האוטומטי של הבינה המלאכותית יצר סערה ברשת ובתגובה גוגל התנצלה והבטיחה לנקוט בפעולות כדי למנוע מתוצאות כאלו להופיע שוב. התמונות הגזעניות אכן הוסרו אך גוגל לא ממש הצליחה להתמודד עם הבעיה. במקום ללמד את הבינה המלאכותית כיצד להבחין בין בני-אדם לקופים, גוגל פשוט הטילה צנזורה על המילים "גורילות" "שימפנזות" ו-"קופים", כך שכל תמונה המכילה את אחת מהחיות המדוברות תתויג רק כ-"ג'ונגל" או "גן חיות", וחיפוש המילה גורילה הראתה שאין תוצאות.
מגזין Wired החליט לחזור למקרה הזה ולבדוק מה השתנה. אנשי המגזין העלו לגוגל 40,000 תמונות וסמכו על הבינה המלאכותית של גוגל Photos שתסדר את התמונות באלבומים לפי האלמנטים המופיעים בהם; וכך התברר כי שנתיים לאחר מכן, המילים נשארות מצונזרות והבינה המלאכותית של גוגל עדיין לא מסוגלת להבדיל בין אנשים שחורים לקופי-אדם. לפי הדיווח במגזין, גוגל אישרה את העובדה כי המונחים שצוינו מצונזרים.
>> לעוד כתבות מעניינות - עקבו אחרינו גם בפייסבוק.
כבר שנתיים שגוגל לא מצליחה להבדיל בין אנשים שחורים לגורילות
19.1.2018 / 7:39