מה קורה כשמערכת אינטליגנציה מלאכותית מתוחכמת סורקת את הרשת וקוראת עשרות מיליוני מאמרים, במאמץ להבין את השפה האנושית וההקשרים הנכונים בין מילים מדוברות? לפי מחקר שנערך על ידי אוניברסיטת פרינסטון האמריקנית, התוצאה תהיה רובוט גזען שנוטה לקשר בין שמות הפופולריים בקרב האוכלוסייה הלבנה לתכונות חיוביות, ובין שמות נפוצים בקרב האוכלוסייה השחורה לתכונות שליליות.
המערכת שנקראת GloVe, הגיעה למסקנות הללו לאחר שניסתה לפענח את ההקשרים בין שמות ותיאורים. הניסוי לא רק מוכיח שהרשת מלאה בתיאורים גזעניים, אלא גם שמערכות אינטליגנציה מלאכותית שסורקות את המידע במטרה להפוך ל"אנושיות" יותר, לומדות בתהליך גם את התכונות השליליות יותר כמו גזענות ושנאת זרים.
"אנחנו יכולים ללמוד כי דעות קדומות הן עניין פסול", מסבירים עורכי המחקר, "ואינטליגנציה מלאכותית חייבת לעבור הכשרה דומה. אחרת, דעות קדומות המופיעות ברשת ימצאו את דרכן אל תוך האלגוריתמים, ולכך תהיה השלכה גרועה הרבה יותר מאשר חינוך רע לילדינו". זו, כמובן, לא הדוגמא הראשונה לכך. מוקדם יותר השנה, מערכת AI דומה שאותה השיקה מיקרוסופט הפכה בתוך שעות לגזענית, ואף אנטישמית וניאו-נאצית, לאחר שהספיקה "ללמוד" את הדעות הללו מהמשתמשים.
>> לעוד כתבות מעניינות - עקבו אחרינו גם בפייסבוק.