וואלה
וואלה
וואלה
וואלה

וואלה האתר המוביל בישראל - עדכונים מסביב לשעון

שיתפתם קריקטורה של ChatGPT? כדאי שתבדקו את הגדרות הפרטיות

עודכן לאחרונה: 12.2.2026 / 11:13

שיגעון הקריקטורות של הבינה המלאכותית כובש את הרשתות החברתיות, אך מומחי אבטחת מידע מתריעים כי חשיפת המידע האישי לצורך יצירת התמונות עלולה להוביל לגניבת זהות, הונאות ושימוש לרעה בנתונים ביומטריים

עליית הבינה המלאכותית וה-Deepfake ברשתות חברתיות: ניווט בין קווי המציאות המטושטשים, מתוך "סוויפ-אפ"/מערכת וואלה!

הרשתות החברתיות מוצפות בשבועות האחרונים בגל ויראלי חדש: משתמשים מבקשים מ-ChatGPT ליצור קריקטורה שלהם המבוססת על "כל מה שהמערכת יודעת עליהם". התוצאות, שנעות בין דמויות של הורים עמוסים ועד לאנשי שיווק ואופנה, ממלאות את הפידים באינסטגרם, בוואטסאפ ובלינקדאין. למרות השעשוע שבבדבר, מומחי סייבר מוציאים כעת אזהרה דחופה וטוענים כי הטרנד מהווה דוגמה מסוכנת ל"נורמליזציה של שיתוף יתר".

ד"ר ג'נט בסטימן, מדענית נתונים ראשית בחברת Napier AI, מציינת בראיון ל-The Sun, כי בתוך פחות משעה, בינה מלאכותית יכולה לצבור מספיק נתונים כדי להתחזות לאדם באופן משכנע. לדבריה, המשתמשים לרוב אינם מודעים למקום שבו המידע נשמר, לכמה זמן הוא נשמר או למי יש גישה אליו. החשש המרכזי הוא שמידע זה ישמש ליצירת "דיפ-פייק" או הונאות פיננסיות עוד לפני שהמשתמש יספיק להבין שזהותו נגנבה.

המומחים משווים את המצב הנוכחי לימיה המוקדמים של פייסבוק, אז נהגו משתמשים לשתף עובדות אישיות ששימשו מבלי דעת כתשובות לשאלות אבטחה. ההבדל כיום הוא בקנה המידה ובקבועות של המידע. כאשר משתמש מוסיף הקשר ופרטים נוספים כדי "לדייק" את הקריקטורה, הוא למעשה מאמן את המודל על פרטיו האישיים ביותר. ברגע שהמידע הועלה, אין ערובה לכך שניתן יהיה להסירו או לשלוט בשימוש העתידי שיעשה בו.

מעבר למידע הטקסטואלי, מומחים מתריעים גם מפני עיבוד נתונים ביומטריים. העלאת תמונה למודל AI מאפשרת לו לנתח תווי פנים כמו מבנה עצמות, עיניים ואף. מוחמד יחיא פאטל, יועץ אבטחת מידע ב-Huntress, מסביר כי משתמשים רבים מוסיפים לתמונות גם שמות מעסיקים, לוגואים או תגי זיהוי, מה שמגדיל את הסיכון. הוא ממליץ למי שבוחר להשתתף בטרנד להשתמש באפשרויות של "צ'אט זמני", לבטל את האופציה של שימוש במידע לצורך אימון המודל ולמחוק את היסטוריית הזיכרון של המערכת.

המספרים מאחורי התופעה מרשימים: אפליקציות צד שלישי המציעות שירותי יצירת דמויות AI רשמו עלייה של מאות אחוזים בהורדות בתוך ימים ספורים. עם זאת, חוקרים מזכירים כי ההיסטוריה נוטה לחזור על עצמה, ומצביעים על פרשת "קיימברידג' אנליטיקה" כדוגמה למשחקים "תמימים" לכאורה שהובילו לניצול נתונים בקנה מידה עולמי. בעולם שבו חוקי הגנת הצרכן בתחום הבינה המלאכותית עדיין אינם מגובשים, האחריות על שמירת הפרטיות נותרת כעת בעיקר בידי המשתמשים.

טרם התפרסמו תגובות

top-form-right-icon

בשליחת התגובה אני מסכים לתנאי השימוש

    walla_ssr_page_has_been_loaded_successfully