הרשתות החברתיות מוצפות בשבועות האחרונים בגל ויראלי חדש: משתמשים מבקשים מ-ChatGPT ליצור קריקטורה שלהם המבוססת על "כל מה שהמערכת יודעת עליהם". התוצאות, שנעות בין דמויות של הורים עמוסים ועד לאנשי שיווק ואופנה, ממלאות את הפידים באינסטגרם, בוואטסאפ ובלינקדאין. למרות השעשוע שבבדבר, מומחי סייבר מוציאים כעת אזהרה דחופה וטוענים כי הטרנד מהווה דוגמה מסוכנת ל"נורמליזציה של שיתוף יתר".
ד"ר ג'נט בסטימן, מדענית נתונים ראשית בחברת Napier AI, מציינת בראיון ל-The Sun, כי בתוך פחות משעה, בינה מלאכותית יכולה לצבור מספיק נתונים כדי להתחזות לאדם באופן משכנע. לדבריה, המשתמשים לרוב אינם מודעים למקום שבו המידע נשמר, לכמה זמן הוא נשמר או למי יש גישה אליו. החשש המרכזי הוא שמידע זה ישמש ליצירת "דיפ-פייק" או הונאות פיננסיות עוד לפני שהמשתמש יספיק להבין שזהותו נגנבה.
המומחים משווים את המצב הנוכחי לימיה המוקדמים של פייסבוק, אז נהגו משתמשים לשתף עובדות אישיות ששימשו מבלי דעת כתשובות לשאלות אבטחה. ההבדל כיום הוא בקנה המידה ובקבועות של המידע. כאשר משתמש מוסיף הקשר ופרטים נוספים כדי "לדייק" את הקריקטורה, הוא למעשה מאמן את המודל על פרטיו האישיים ביותר. ברגע שהמידע הועלה, אין ערובה לכך שניתן יהיה להסירו או לשלוט בשימוש העתידי שיעשה בו.
אין גבול לטימטום של עידית סילמן.
— R.M (@rachely_baby) February 11, 2026
העלתה תמונת ai של עצמה, לא שמה לב שהתמונה מלאה בזיהום אוויר ועל צווארה שרשרת עם צלב?
פשוט מטומטמת. pic.twitter.com/mMfpjnHhPc
מעבר למידע הטקסטואלי, מומחים מתריעים גם מפני עיבוד נתונים ביומטריים. העלאת תמונה למודל AI מאפשרת לו לנתח תווי פנים כמו מבנה עצמות, עיניים ואף. מוחמד יחיא פאטל, יועץ אבטחת מידע ב-Huntress, מסביר כי משתמשים רבים מוסיפים לתמונות גם שמות מעסיקים, לוגואים או תגי זיהוי, מה שמגדיל את הסיכון. הוא ממליץ למי שבוחר להשתתף בטרנד להשתמש באפשרויות של "צ'אט זמני", לבטל את האופציה של שימוש במידע לצורך אימון המודל ולמחוק את היסטוריית הזיכרון של המערכת.
המספרים מאחורי התופעה מרשימים: אפליקציות צד שלישי המציעות שירותי יצירת דמויות AI רשמו עלייה של מאות אחוזים בהורדות בתוך ימים ספורים. עם זאת, חוקרים מזכירים כי ההיסטוריה נוטה לחזור על עצמה, ומצביעים על פרשת "קיימברידג' אנליטיקה" כדוגמה למשחקים "תמימים" לכאורה שהובילו לניצול נתונים בקנה מידה עולמי. בעולם שבו חוקי הגנת הצרכן בתחום הבינה המלאכותית עדיין אינם מגובשים, האחריות על שמירת הפרטיות נותרת כעת בעיקר בידי המשתמשים.
