הסרטון שפרסמה לורי גריינר, אחת הדמויות הבולטות בתוכנית "שארק טנק" (הגרסה האמריקנית לתוכנית "הכרישים"), הצליח להצית מחדש דיון ישן על פרטיות במיילים - והפעם דרך ג'ימייל (Gmail). גריינר, שהפכה לאימפריה עסקית עם השקעות כמו Scrub Daddy ו-Squatty Potty, טענה בפני מיליוני עוקביה כי גוגל מאפשרת למערכות בינה מלאכותית לסרוק "כל מייל ומייל", כולל מסמכים פיננסיים, מידע אישי ושיחות פרטיות. לדבריה של גריינר, ששוויה מוערך במאות מיליוני דולרים, מדובר במחדל אבטחתי שמתרחש ללא ידיעת המשתמשים, אך כזה שניתן לפתור בתוך פחות מחצי דקה של שינוי הגדרות. בפוסט שהעלתה לאינסטגרם היא הציגה מדריך פשוט המורה למשתמשים להיכנס לתפריט ההגדרות, למצוא את סעיף "תכונות חכמות והתאמה אישית" ולכבות את האפשרות המאפשרת לגוגל לגשת לתוכן ההודעות בג'ימייל, בצ'אט וב-Meet.
המהלך של גריינר, המכונה "מלכת ה-QVC", מגיע בתקופה שבה החשש סביב השימוש בבינה מלאכותית נמצא בשיאו. היא טוענת כי גוגל מסתירה מהציבור את היקף הגישה של ה-AI למידע הרגיש ביותר שלהם, וממליצה בחום לכל בעל חשבון לא להתעלם מהאזהרה. מבחינתה, כיבוי התכונות הללו הוא הדרך היחידה להבטיח שהודעות האימייל מוגנות באמת ושגוגל לא תוכל לגשת עוד למידע האישי.
מנגד, ענקית הטכנולוגיה לא נשארה חייבת. בתגובה לטענות, גוגל הבהירה כי המערכות שלה, ובהן מודל הבינה המלאכותית Gemini, אכן סורקות את תוכן ההודעות כברירת מחדל, אך ורק כדי לספק שירותים פונקציונליים למשתמש. מדובר בכלים כמו סיכום הודעות ארוכות, הצעות למענה מהיר ושיפור יכולות החיפוש בתוך התיבה. בחברה הדגישו כי המודלים של ה-AI אינם מתאמנים על המיילים הפרטיים של המשתמשים וכי המידע נשאר מוגן ונפרד מהפיתוח הטכנולוגי הרחב שלהם.
לפי הצהרת החברה, הגישה של Gemini למיילים היא זמנית ומיועדת לביצוע משימות ספציפיות שהמשתמש מבקש בזמן אמת. ברגע שהמשימה - כמו תמצות של אימייל ארוך - מסתיימת, המערכת אינה שומרת או מחזיקה בנתונים. בלייק בארנס, סגן נשיא למוצר ב-Gmail, חיזק את הדברים וציין כי המערכת נבנתה מראש כדי לפעול בצורה מאובטחת בתוך חשבון המשתמש, מבלי שהמידע יישמר או ייעשה בו שימוש מעבר לצורך המיידי של אותה פעולה. למרות ההסברים הטכניים, המאבק בין הרצון לחדשנות טכנולוגית לבין הצורך בפרטיות מוחלטת ממשיך להעסיק את המשתמשים, שנדרשים כעת להחליט אם הנוחות של ה-AI שווה את החשיפה הפוטנציאלית.
