פייק ניוז, או חדשות כזב, שלטו בחדשות הקשורות לבחירות כבר מאז שהן הפכו לסיפור משמעותי במהלך המרוץ לבחירות לבית הלבן ב-2016. אך 8 שנים לאחר מכן, ייתכן שיש איום גדול יותר: שילוב בין מידע מטעה ויצירות דיפ-פייק, שיכול להטעות גם את המומחים.
סביר להניח שהדוגמאות האחרונות של תוכן הקשור לבחירות ונוצר ע"י בינה מלאכותית, כמו שפע של תמונות וסרטונים שהופיעו במהלך מרוץ הבחירות לנשיאות ארגנטינה וקטע השמע המזויף של נשיא ארה"ב ג'ו ביידן, הם רק רמז למה שמצפה לנו בעתיד הקרוב.
בשנה הזו רבע מהאנשים בעולם עומדים לבחור, ועולים חששות מכך שמידע מטעה ותכסיסים מבוססי AI ינוצלו ע"י גורמים בעלי כוונות זדוניות כדי להשפיע על תוצאות הבחירות, ומומחים רבים חוששים מכך שיצירות דיפ-פייק יהפכו לחלק מחיי היומיום.
חברת אבטחת המידע ESET בוחנת את ההשפעה האפשרית של בינה מלאכותית ליצירת פייק ניוז על מערכת הבחירות.
איום המידע המטעה והדיפ-פייק
כפי שצוין, לא פחות מ-2 מיליארד אנשים יוזמנו אל הקלפיות הקרובות אליהם במהלך השנה הקרובה כדי להצביע לנציגים והמנהיגים המועדפים עליהם. בחירות משמעותיות וגדולות עתידות להתרחש במדינות כמו ארה"ב, בריטניה והודו (יחד עם בחירות לפרלמנט האירופי) והשנה הזאת עשויה לשנות את המרחב הפוליטי ואת התנועות הגאו-פוליטיות בשנים הקרובות - וגם לאחריהן.
באותו הזמן, הפורום הכלכלי העולמי (World Economic Forum) הגדיר את המידע המטעה והכוזב כגורם הסיכון הגדול ביותר לעולם לשנתיים הקרובות.
האתגר המשמעותי ביותר בנוגע ליצירות דיפ-פייק הוא הפיכתן של טכנולוגיות מבוססות בינה מלאכותית לזולות, נגישות וחזקות מספיק, עד לרמה שהן מאפשרות גרימת נזק בהיקף רחב. השינוי הזה מאפשר לפושעי סייבר, גורמים מדיניים והאקרים אקטיביסטיים ליצור קמפיינים של הפצת מידע מטעה באופן משכנע, ומאפשר גם יצירת הונאות חד-פעמיות הנוגעות לפוליטיקה. זו הסיבה לכך שהפורום הכלכלי העולמי הגדיר לאחרונה את הפצת המידע המטעה והכוזב לסיכון הגלובלי הגדול ביותר לשנתיים הקרובות, והסיכון השני בחשיבותו הכללית, מקום אחד מתחת לשינויים הקיצוניים במזג האוויר. זאת על פי 1,490 מומחים מהמגזר האקדמי, העסקי והמדיני; מהקהילה הבינלאומית ומהחברה האזרחית, שאיתם התייעצו חברי הפורום.
לזייף עד שמישהו יתעייף
האתגר נובע מכך שכלים כמו ChatGPT וכלי בינה מלאכותית גנרטיביים (GenAI) חינמיים אחרים מאפשרים ליותר אנשים לקחת חלק ביצירת קמפיינים של הפצת מידע מטעה שנוצר ע"י טכנולוגיית דיפ-פייק. כל העבודה הקשה נעשית ע"י "מישהו" אחר, מה שמאפשר לגורמים הזדוניים להשקיע זמן רב יותר בדיוק המסר והפצתו, כך שהתוכן המזויף שהם יצרו יגיע לקהל רחב יותר.
בהקשר של הבחירות, ההשפעה של יצירות דיפ-פייק היא ברורה למדי - ניתן להשתמש בה כדי לכרסם באמון של המצביעים במועמד מסוים. בסופו של דבר, הרבה יותר קל לשכנע אנשים להימנע מלעשות משהו מאשר לשכנע אותם לבצע משהו שונה. אם גורם מסוים יצליח להונות תומכים במפלגה מסוימת או במועמד מסוים באמצעות קטע שמע או וידאו מזויפים, זה יוביל לניצחון מוחלט למפלגות או המועמדים היריבים. במצבים מסוימים, מדינות שאינן חלק מהמשחק הדמוקרטי עשויות לנסות לערער את האמון בתהליך הדמוקרטי כולו, כך שמי שינצח בבחירות יתקשה למשול באופן לגיטימי.
בלב האתגר הזה ניצבת אמת פשוטה: כשבני אדם מעבדים מידע, הם מעדיפים כמות גדולה של מידע קל להבנה. כלומר, ככל שאנחנו רואים יותר תוכן עם מסר דומה, וככל שקל יותר להבין את המסר הזה, כך גדל הסיכוי שנאמין לו. זו הסיבה לכך שבדרך כלל קמפיינים שיווקיים מורכבים ממסרים קצרים שחוזרים על עצמם פעם אחר פעם. הוסיפו לכך את העובדה שכיום כבר קשה מאוד להבדיל בין תוכן אמיתי ובין יצירת דיפ-פייק, וקיבלתם את המתכון המושלם לאסון לדמוקרטיה.
ממחשבה למעשה
ככל הנראה, יצירות דיפ-פייק אכן עשויות להשפיע על רגשותיהם של הבוחרים. בואו ניקח לדוגמה את המקרה הבא: בחודש ינואר 2024, קטע שמע מזויף של נשיא ארה"ב ג'ו ביידן הופץ באמצעות שירות שיחות אוטומטי למספר לא ידוע של מצביעים לבחירות המקדימות במדינת ניו-המפשייר. ככל הידוע, בהודעה אמר הנשיא שלא להגיע לקלפיות, ו-"לשמור את זכות ההצבעה לבחירות לנשיאות בנובמבר". המספר שממנו הוצגה השיחה זויף גם הוא, כך שייראה כאילו ההודעה האוטומטית נשלחה מהמספר האישי של קאת'י סאליבן, חברה לשעבר במפלגה הדמוקרטית במדינת ניו-המפשייר, שכיום מנהלת ועד פעולה פוליטי שתומך בביידן.
קל מאוד לראות כיצד שיחות כאלה יכולות לשמש כדי לגרום למצביעים לוותר על ההצבעה למועמד שלהם לפני הבחירות לנשיאות בנובמבר. הסיכון הזה יהיה משמעותי במיוחד בבחירות צמודות, בהן מעבר של מספר קטן יחסית של הצבעות מצד אחד למשנהו יכולה לקבוע את התוצאה הסופית. כשבמדינות "מתנדנדות" בארה"ב קיים מצב בו מספר קטן של עשרות אלפי אנשים יכול לקבוע את תוצאות הבחירות כולן, קמפיין ממוקד כמו זה יכול לגרום לנזק חסר-תקדים. ואם נזרה עוד מלח על הפצעים, במקרה כזה, בו המסר הועבר באמצעות שיחות טלפון ולא ברשתות חברתיות, יהיה קשה עוד יותר לעקוב אחר ההשפעה ולמדוד אותה.
מה חברות הטכנולוגיה עושות בנושא?
גם YouTube (גוגל) וגם Facebook (מטא) לא הגיבו מהר מספיק ליצירות דיפ-פייק מסוימות שנועדו להשפיע על הבחירות האחרונות. זאת למרות חקיקה של חוק חדש באיחוד האירופי (חוק השירותים הדיגיטליים - Digital Services Act), שדורש מחברות המנהלות רשתות חברתיות לטפל בניסיונות להשפעה על תוצאות הבחירות.
מהצד שלה, חברת OpenAI אמרה שהיא תטמיע את סימני ההיכר הדיגיטליים של הקואליציה למקוריות ואותנטיות תוכן (Coalition for Content Provenance and Authenticity - C2PA) בכל התמונות שנוצרות ע"י DALL-E 3. הטכנולוגיה להטמעת סימן מים קריפטוגרפי - שנמצאת כרגע בניסויים ב-Meta וב-Google - נועדה לגרום לכך שהפקת תמונות מזויפות תהיה קשה יותר.
אך אלו רק צעדים קטנים. בחברת אבטחת המידע ESET מציינים כי רבים חוששים באופן מוצדק מכך שהתגובה הטכנולוגית תהיה קטנה מדי ומאוחרת מדי בעקבות תחילת עונת הבחירות בעולם כולו. במיוחד במקרים בהם התוכן המזויף מופץ באמצעות קבוצות וואטסאפ או שיחות אוטומטיות, יהיה קשה לאתר את התכנים ולהוכיח שהם מזויפים בזמן.
על פי תיאוריית "הטיית העיגון", פיסת המידע הראשונה אליה אנשים מאזינים היא זו שתישאר לאורך זמן, גם אם היא מתבררת לאחר מכן כשקרית. אם יוצרי דיפ-פייק מצליחים להגיע ראשונים למצביעים, קל לראות מי יהיה המנצח בבחירות בסופו של דבר. בעידן של רשתות חברתיות ומידע מטעה שמבוסס על בינה מלאכותית, האמירה של ג'ונתן סוויפט לפיה "השקר עף, והאמת צולעת אחריו" מקבלת משמעות חדשה לחלוטין.