וואלה
וואלה
וואלה
וואלה

וואלה האתר המוביל בישראל - עדכונים מסביב לשעון

מזייפים בקול: איך תשפיע הבינה המלאכותית על הבחירות בארצות הברית?

עודכן לאחרונה: 23.8.2024 / 19:15

השבוע שיתף טראמפ תמונות של מעריצות טיילור סוויפט שתומכות בו, של קאמלה האריס נואמת בפני קומוניסטים ושלו ואילון מאסק רוקדים ביחד. הבעיה רק שאף אחד מהדברים האלה לא קרה במציאות והכל היה פרי AI. איך הדיפ פייק ישפיע על הבחירות הדמוקרטיות בארה"ב ובכלל?

תמונה שנוצרה בעזרת AI: טראמפ וקאמלה האריס. צילום מסך, אתר רשמי
תמונה שנוצרה בעזרת AI: טראמפ וקאמלה האריס/אתר רשמי, צילום מסך

השבוע שיתף הנשיא לשעבר דונלד ג'יי טראמפ כמה תמונות בחשבונות המדיה החברתית שלו ברשת X (לשעבר טוויטר) וברשת הביתית Truth, שבהן נראות מעריצות טיילור סוויפט, או כפי שהן נקראות "סוויפטיות", עם חולצות "סוויפטיות למען טראמפ", כולל הטענה שהן עברו לתמוך בו בעקבות ביטולי ההופעות של סוויפט באירופה. עוד שיתף המועמד לנשיאות תמונה של טיילור סוויפט עצמה לבושה כהדוד סם וקוראת להצביע לטראמפ. הבעיה שסוויפט מעולם לא הצטלמה כך, ולא קראה לתמוך בטראמפ. התמונה המזויפת שלה יוצרה בעזרת בינה מלאכותית מחוללת - ופורסמה במקור בידי חשבון שידוע בהפצת המידע הכוזב שלו.

באופן דומה, שיתף טראמפ כמה ימים לפני כן תמונה של קאמלה האריס נואמת בפני קהל מלא בדגלים אדומים ודגל ברית המועצות לשעבר, וסרטון שלכאורה מציג אותו ואת אילון מאסק, הבעלים של רשת X שתומך בו, רוקדים ביחד לצלילי הביג'יז. שוב, אף אחד מהאירועים האלה לא קרה מעולם ולא התרחש במציאות, אבל נראה שהמועמד הרפובליקני אימץ שימוש נרחב בבינה מלאכותית כדי ליצור נרטיבים וסיפורים שקריים לתומכיו ולמצביעים - ולעזאזל עם האמת העובדתית.

השיתופים האלה חוללו סערה, וטראמפ מיהר אמש (חמישי) להתנער מהם (במיוחד התמונה של טיילור סוויפט שמקימה עילה לתביעה מצדה): "אני לא יודע שום דבר עליהן (על התמונות - נ.ל.) חוץ מזה שמישהו אחר יצר אותן. אני לא יצרתי אותן". ועוד מיהר להוסיף: "זה הכל מומצא בידי אנשים אחרים. בינה מלאכותית היא מסוכנת באופן הזה". אבל כפל לשון מצד פוליטיקאי כמו טראמפ הוא עניין נפוץ, וכידוע, לנשיא לשעבר והמועמד מחדש יש מערכת יחסים בעייתית עם האמת העובדתית.

זרוע מגומי

טראמפ צודק בדבר אחד - הבינה המלאכותית המחוללת שפרצה לחיינו בשנה האחרונה אכן מסוכנת. היא מסוכנת כי היא מסוגלת ליצור עדויות לכאורה לאירועים שלא היו ולא נבראו, ומביאה את היכולת הזו לידיים של כל אדם עם מקלדת וגישה לאינטרנט. אנחנו עלולים לקבל במהלך בחירות הקלטות של פוליטיקאים של דברים שלא אמרו, סרטונים שיכפישו את שמם או שישימו דברים בפיהם שגם לא נאמרו, או תמונות כמו אלה ששיתף טראמפ, הכל כדי להשפיע על דעת בוחרים באופן לא הוגן ולהטות את תוצאות הבחירות באופן מלוכלך ושקרי.

צריך לזכור גם, שמטה טראמפ ואחרים לא בחלו כבר בשיטות האלה בעבר, כמו שראינו בפרשת קיימברידג' אנליטיקה, ועוד לא דיברנו על תפלול והתערבות של מדינות זרות בבחירות זרות כדי לעזור למועמד המועדף מבחינתם, כמו למשל טראמפ ורוסיה.

sheen-shitof

עוד בוואלה

זה כל כך טעים ופשוט: מתכון לבננות מקורמלות

בשיתוף חברת גליל

והמומחים בהחלט מודאגים מהיכולת להנדסת תודעה ויצירת מציאות כוזבת וחלופית, שמבוססת על שקרים כעובדות לאזרחים בדמוקרטיה, והפגיעה בטוהר הבחירות ותוצאותיהן. ד"ר זוהר ברונפמן, מומחה לפילוסופיה של בינה מלאכותית ומייסד חברת Pecan AI, המתמחה בעולמות של בינה מלאכותית ודמוקרטיזציה שלה אומר לנו בשיחה עם "וואלה טכנולוגיה" כי "הפוליטיקה זה אחד המקומות הראשונים למתוח את גבולות היצירה למקום שאני כמעט מנסה לייצר מציאות, כמו 'הסוויפטיז אוהבות את טראמפ'. יש פה גם שאלה רגולטורית לבין יצירה לבין זיוף".

"למה העולם של פייק הוא עולם בעייתי? מהצד של הפסיכולוגיה שיצא לי לחקור. מה שאנחנו יודעים מדעית, גם כשאתה יודע שמשהו הוא מזויף, כשהוא נראה אמיתי, יש לזה השפעה גדולה יותר על תפיסת המציאות. יש ניסויים, שאם מושיבים אותך ליד זרוע מגומי, ולאט לאט מייצרים אצלך אשליה אופטית שמלטפים את היד מהגומי ומלטפים בהיחבא גם את היד שלך, ואז לוקחים פטיש ונותנים מכה ליד מהגומי - אתה מרגיש כאב. יש כאן מנגנון שלא קשור לידע הקוגניטיבי שמדובר בזיוף. אנשים מצביעים לא לפי הרציונל. זה כמו קריקטורה - אתה מנסה להעביר איזשהו מסר, אבל המסר הפייק, משפיע על הלא מודע שלנו כי הוא נראה מציאותי", הוא מסביר.

גם זה זויף: טיילור סוויפט עם כובע שמביע תמיכה בטראמפ. צילום מסך, אתר רשמי
גם זה זויף: טיילור סוויפט עם כובע שמביע תמיכה בטראמפ/אתר רשמי, צילום מסך

ספירלה של זיוף

עוד עומד המומחה על הסכנה הכרוכה בשילוב בין יכולת אינסופית ליצור תמונות, נרטיבים וסרטונים באמצעות בינה מלאכותית - לבין יכולת ההפצה האדירה וההתמכרות שהרשתות החברתיות יצרו בחיינו לתכנים מזיקים ומפלגים.

"הבעיה הכי גדולה של AI היא לא שהמכונות יקומו עלינו, הבעיה האמיתית של העולמות האלה זה בעיות של הנדוס תודעה. שמאוד מאוד קשה להילחם בזה. גם כי זה עוקף את המנגנון הקוגניטיבי (ההכרה הרציונלית - נ.ל.), והרשתות החברתיות שנותנות לזה תוקף היכולת של האלגוריתמים, שהם בעצמם מפוצצים בבינה מלאכותית, והיא בנויה על העיקרון שיגרום לך לצרוך את התוכן בצורה יותר אינטנסיבית. בחיבור למנגנון עם יכולת אינסופית ליצור תוכן - אתה כל הזמן נחשף למידע שהוא מזויף, לפעמים חלקית, לפעמים שקרי לחלוטין ואתה נכנס לספירלה שאתה תצרוך עוד מהתוכן הזה", מציין ברונפמן.

"אם ניתן לשילוב הזה של טכנולוגיה וקפיטליזם, היכולת האינסופית ליצור מרחב של תכנים שלא קשורים למציאות, ומגבירי צריכה של התכנים האלה - השילוב הזה, אם הוא לא ייקטע רגולטורית באופן אינטנסיבי ומהיר, אנחנו נהיה בבעיה מאוד גדולה", הוא מזהיר. יש הסבורים, וכותב שורות אלה ביניהם, כי הפיתרון להתמודד עם המטריקס שנכפה עלינו והמציאות הכוזבת שיוצרות הרשתות החברתיות להמוני אנשים שבולעים את הגלולה הכחולה - הוא בחינוך לביקורתיות והטלת ספק במה שאנחנו רואים, לצד סימון של תכנים שנוצרו בבינה מלאכותית ככאלה באופן בולט. המייסד של Pecan AI סבור שאין בכך די.

"שיטות כמו שהצעת עם חינוך לביקורתיות, לא יהיו יעילות", הוא פוסק. "אין כמעט מישהו בתעשיית ה-AI ובציבור הכללי שעוד חושב שיש דבר כזה 'עובדה'. זאת בעיה אמיתית", הוא חוזר ומתריע - אבל ברונפמן גם מציע פיתרון משלו, שלדעתו צריך להיות מיושם ובבהילות:

אילון מאסק. רויטרס
מאבד שליטה: מודל הבינה המלאכותית של מאסק, גרוק, אחראי ללא מעט פייק ניוז ברשת/רויטרס

מסנני מציאות

"צריכה להיות פה תנועת מלקחיים. שימוש בחוקים ובתקנות שמונעים פייק וזיופים, אבל לבדו זה לא יספיק. יהיה גם צורך במענה טכנולוגי, שייצור מענה טכנולוגי להיזון החוזר הכמעט מהפנט הזה. טכנולוגיות שהן בעצמן מבוססות בינה מלאכותית שלא רק מבחינות באופי התוכן (אמיתי או מזויף), אלא גם מונעות צריכה של תכנים בצורה ממכרת", והוא מפרט: "את הגישה הטכנולוגית שיישמו לגבי בעיית הפרטיות והתממת נתונים, נצטרך ליישם על התכנים שמזהמים לך את הפיד, ולהגיע למצב שאתה יכול לצרוך תוכן שהוא רק מהימן ולא משתמש במניפולציות".

ד"ר זוהר ברונפמן. באדיבות המצולם,
"צריכה להיות פה תנועת מלקחיים. שימוש בחוקים ובתקנות שמונעים פייק וזיופים, אבל לבדו זה לא יספיק". ד"ר זוהר ברונפמן/באדיבות המצולם

במילים אחרות, כמו שחייבו בזמנו את ספקיות האינטרנט להציע מסנני תכנים נגד פורנוגרפיה לילדים, כך יהיה צורך לחייב בחוק את הרשתות החברתיות להתקין "מסננים" שיסננו לנו תכנים מזויפים ומציאות כוזבת, ויאפשרו למי שרוצה לצרוך רק תכנים מהימנים ובדוקים עובדתית לקבל אותם, ורק אותם, גם אם זה נוגד את האינטרס של הרשתות החברתיות...

"כרגולטור אתה לא יכול להכריח אדם לא לצרוך תוכן מזויף אם הוא מעוניין בזה", אומר המומחה. "זה כמו פורנו. כחברה ליברלית, מי שרוצה לצרוך את זה, זכותו. ספציפית אבל בסוגיית הפייק, ההשפעה המשמעותית ביותר היא דווקא לא בשוליים: למשל, הגרעין הקשה של טראמפ, לא תשנה דבר בעמדה שלהם. זה עובד רק במקומות של הקולות המתנדנדים. שם ההשפעה. והטיעון הוא שאנשים כאלה הם לא אנשים שלא מחפשים במודע לצרוך תוכן מוטה", מסביר ברונפמן, "אנחנו חייבים את זה כחברה", הוא מדגיש. "אני מתקשה לחשוב על פוטנציאל נזק גדול יותר מלהנדס תודעה לאוכלוסיות שלמות. אתה חייב לאפשר לאנשים שמקדשים את ערך האמת - להימנע מזרוע הגומי".

טרם התפרסמו תגובות

הוסף תגובה חדשה

+
בשליחת תגובה אני מסכים/ה
    4
    walla_ssr_page_has_been_loaded_successfully