בדומה לסמסונג שהורתה על כך לעובדיה לפני כמה שבועות, גם אפל עכשיו הורתה לעובדיה להמנע משימוש בכלי בינה מלאכותית מחוללת כדוגמת ChatGPT ואחרות, בעיקר בגלל חששות אבטחה או זליגת מידע רגיש מחוץ לחברה. לפי דיווח של הוול סטריט ג'ורנל, על עובדי החברה גם נאסר להשתמש בכלי הבינה המלאכותית Copilot (טייס משנה) המסייע לתכנות מבית GitHub (כיום בבעלות מיקרוסופט). כתב הטכנולוגיה של בלומברג אף הוסיף כי ChatGPT נמצאת ברשימת הכלים האסורים בשימוש באפל מזה חודשים.
החששות של אפל וסמסונג אינם בלתי מבוססים: כל אותם כלי בינה מלאכותית מאחסנים ושומרים את השיחות שלהם עם משתמשים על שרתי החברות שמפעילות אותם, בעיקר לצרכים של אימון הבינה המלאכותית, אבל בהחלט כל מה שמוזן לאותם כלים חשוף לעיני צד שלישי, במיוחד במקרים בהם יש תלונת הפרה כלשהי, ואז השיחה תיחשף בפני משגיח אנושי שהופקד על בדיקתה.
חברות כמו אפל וסמסונג, חוששות ובצדק, כי מידע או קוד מפרויקטים רגישים עלולים להיות מועברים לשרתים של החברות המפעילות את הבינה המלאכותית במסגרת ניסיונות יצירה ופיתוח של העובדים, ועשויים להיחשף. אצל סמסונג הדבר כבר קרה למעשה, אצל אפל ככל הידוע לנו, הדבר טרם קרה, אולם המדיניות נועדה כדי למנוע אותו. צעדים דומים לאלה של שתי ענקיות הטכנולוגיה נקטו גופים כמו ספקית הסלולר ורייזון, בנק ג'יי פי מורגן ואמזון.
ChatGPT אמנם מאפשרת לבחור באפשרות של מחיקת היסטוריית שיחות לטווח ארוך, אבל גם תחת אפשרות זו, תוכן השיחות נשמר למשך 30 יום כדי לוודא שלא נעשה שימוש זדוני בכלי - כולל האפשרות שייבחנו בידי משגיח בשר ודם, דבר שממנו אפל וסמסונג רוצות להימנע.