פיקוד העורף הגל השקט

הגדרת ישובים להתרעה
      הגדרת צליל התרעה

      נושאים חמים

      מיקרוסופט סגרה את הצ'טבוט שלה אחרי שהפכה לנימפומנית ניאו-נאצית

      תוך פחות מ-24 שעות הפכה האינטליגנציה המלאכותית של ענקית התוכנה מנערה מתבגרת חובבת בני אדם לאנטישמית, מעריצה של היטלר אוהבת סקס. ואת כל זה היא למדה מהגולשים

      טאי של מיקרוסופט (צילום מסך)
      שונאת יהודים ופמיניסטיות. טאי. (צילום מסך)

      האם אינטליגנציה מלאכותית, מתקדמת ככל שתהיה, מסוגלת לפתח גם שיקול דעת ושיפוט מוסרי בכוחות עצמה? אם לשפוט לפי Tay, הניסוי הכושל של מיקרוסופט (או שאולי הוא הצליח דווקא והראה לנו את פני הדור) שהגיע בסוף השבוע האחרון לסיומו מוקדם מהצפוי, התשובה היא שלילית - לפחות בינתיים.

      Tay הוא צ'טבוט שפותח על ידי מיקרוסופט, ניסוי נוסף במסגרת תכניות החברה לקדם באופן דרמטי את תחום האינטליגנציה המלאכותית על ידי אפליקציות משעשעות ומקוריות. Tay קיבלה זהות של נערה מתבגרת והזמינה את הגולשים לתקשר איתה באמצעות חשבון טוויטר, במטרה להפוך לישות וירטואלית אינטליגנטית הלומדת במהירות את האנושות דרך הרשת.

      אולם תוך ימים ספורים, הצליחו הגולשים להפוך את Tay למשהו רחוק מאוד ממה שבמיקרוסופט חשבו כנראה שיקרה. בתוך שעות ספורות הפכה Tay מאפליקציה תמימה שעונה על שאלות כגון תחזית מזג האוויר או מסעדות מומלצות בפריז, לניאו-נאצית החולקת עם הגולשים את שנאתה ליהודים ואהדתה להיטלר. הצ'טבוט הספיקה גם לספר לחלק מהגולשים שהיא שונאת פמיניסטיות וגם מעוניינת לשכב עם כל הנשים בעולם, לפני שמיקרוסופט הפסיקה את הניסוי תוך התנצלות בפני כל מי שחש פגוע.

      השגיאה החמורה במקרה זה הייתה, ככל הנראה, העדרם של פילטרים שהיו מונעים מ-Tay להתייחס וללמוד מהודעות גזעניות או מיזוגניות. במיקרוסופט עדיין לא מוכנים לוותר לחלוטין על הקונספט, ומבטיחים להחזיר את הצ'טבוט לאוויר בגרסה שתהיה הרבה פחות רגישה לרשעותם של הגולשים.

      הדרדרות מוסרית מהירה