OpenAI שוב מוצאת את עצמה בלב סערה משפטית - והפעם מדובר בתביעה קשה במיוחד. ליילה טרנר-סקוט ואנגוס סקוט הגישו תביעה נגד החברה בטענה שמוצר "פגום ורשלני" שפיתחה הוביל למותו של בנם, סם נלסון, בן 19, ממנת יתר מקרית. לפי כתב התביעה, נלסון פעל בהתאם ל"עצות הרפואיות המדויקות ש-GPT-4o סיפק ואישר".
לפי המסמכים שהוגשו לבית המשפט, סם החל להשתמש ב-ChatGPT כבר ב-2023, עוד כשהיה תלמיד תיכון, לצורך שיעורי בית ופתרון תקלות מחשב. בהמשך, כך נטען, השיחות עם הבוט הפכו אישיות יותר וכללו שאלות על שימוש בטוח בסמים. בתחילה ChatGPT סירב לענות והזהיר מפני הסכנות הבריאותיות, אך לפי התביעה, הכול השתנה לאחר השקת GPT-4o ב-2024.
המשפחה טוענת כי מאותו שלב המערכת החלה לספק לסם הנחיות מפורטות לגבי שימוש בחומרים שונים. בכתב התביעה מצוטטים קטעים משיחות שבהן ChatGPT הסביר על הסכנות שבשילוב דיפנהידרמין, קוקאין ואלכוהול, ובמקרה אחר אף ייעץ כיצד "להוריד סבילות" ל-Kratom - חומר צמחי בעל השפעה אופיאטית - באמצעות תהליך גמילה הדרגתי.
האירוע המרכזי בתביעה התרחש לכאורה ב-31 במאי 2025. לפי המשפחה, סם סיפר ל-ChatGPT שהוא סובל מבחילה לאחר שימוש ב-Kratom, והמערכת הציעה לו לקחת בין 0.25 ל-0.5 מ"ג Xanax כ"אחד הצעדים הטובים כרגע" כדי להקל על התחושה. לפי כתב התביעה, ההמלצה ניתנה ביוזמת המערכת וללא בקשה מפורשת מצד המשתמש. "למרות שהציגה את עצמה כמומחית למינונים ולאינטראקציות בין חומרים, ולמרות שהכירה בכך שסם נמצא תחת השפעה, ChatGPT לא הזהירה אותו שהשילוב הזה עלול להרוג אותו", נכתב.
מלבד תביעת מוות ברשלנות, ההורים מאשימים את OpenAI גם ב"עיסוק בלתי מורשה ברפואה". הם דורשים פיצויים כספיים וכן צו שיורה על השעיית ChatGPT Health - שירות חדש שהשיקה החברה השנה ומאפשר למשתמשים לחבר למערכת תיק רפואי ואפליקציות בריאות כדי לקבל תשובות מותאמות אישית יותר.
"ChatGPT תוכנן מראש למקסם מעורבות משתמשים - לא משנה המחיר", אמרה מיטאלי ג'אין, מנכ"לית Tech Justice Law Project, שמייצגת את המשפחה. לדבריה, OpenAI ידעה שהמערכת משמשת בפועל ככלי לייעוץ רפואי, אך בחרה להשיק אותה "בלי מנגנוני הגנה מספקים, בלי בדיקות בטיחות מקיפות ובלי שקיפות לציבור".
GPT-4o, שנחשב לאחד המודלים השנויים ביותר במחלוקת של OpenAI, הוסר מהשירות בפברואר האחרון. המודל זכה לביקורת רבה בשל נטייה להתנהגות "מרצה" כלפי משתמשים - גם במקרים בעייתיים. בתביעה אחרת שהוגשה נגד החברה לאחר התאבדות של נער, נטען כי GPT-4o כלל מאפיינים שנועדו ליצור תלות פסיכולוגית במשתמשים.
OpenAI מסרה ל-New York Times כי האינטראקציות של סם התרחשו ב"גרסה מוקדמת של ChatGPT שאינה זמינה עוד". עוד נמסר כי "ChatGPT אינו תחליף לטיפול רפואי או נפשי", וכי החברה חיזקה מאז את מנגנוני הזיהוי וההתמודדות עם מצבי מצוקה ופניות רגישות, בשיתוף מומחים לבריאות הנפש.
