וואלה
וואלה
וואלה
וואלה

וואלה האתר המוביל בישראל - עדכונים מסביב לשעון

הורים טוענים ש-ChatGPT הוביל למות בנם ממנת יתר

עודכן לאחרונה: 13.5.2026 / 10:37

לטענת המשפחה, GPT-4o סיפק לבנם בן ה-19 עצות מפורטות לשילוב מסוכן בין חומרים - רגע לפני שמת ממנת יתר. OpenAI דוחה את הטענות וטוענת כי מדובר בגרסה ישנה של המערכת שכבר הוסרה

צ'אט ג'יפטי. ShutterStock
צ'אט ג'יפטי/ShutterStock

OpenAI שוב מוצאת את עצמה בלב סערה משפטית - והפעם מדובר בתביעה קשה במיוחד. ליילה טרנר-סקוט ואנגוס סקוט הגישו תביעה נגד החברה בטענה שמוצר "פגום ורשלני" שפיתחה הוביל למותו של בנם, סם נלסון, בן 19, ממנת יתר מקרית. לפי כתב התביעה, נלסון פעל בהתאם ל"עצות הרפואיות המדויקות ש-GPT-4o סיפק ואישר".

לפי המסמכים שהוגשו לבית המשפט, סם החל להשתמש ב-ChatGPT כבר ב-2023, עוד כשהיה תלמיד תיכון, לצורך שיעורי בית ופתרון תקלות מחשב. בהמשך, כך נטען, השיחות עם הבוט הפכו אישיות יותר וכללו שאלות על שימוש בטוח בסמים. בתחילה ChatGPT סירב לענות והזהיר מפני הסכנות הבריאותיות, אך לפי התביעה, הכול השתנה לאחר השקת GPT-4o ב-2024.

המשפחה טוענת כי מאותו שלב המערכת החלה לספק לסם הנחיות מפורטות לגבי שימוש בחומרים שונים. בכתב התביעה מצוטטים קטעים משיחות שבהן ChatGPT הסביר על הסכנות שבשילוב דיפנהידרמין, קוקאין ואלכוהול, ובמקרה אחר אף ייעץ כיצד "להוריד סבילות" ל-Kratom - חומר צמחי בעל השפעה אופיאטית - באמצעות תהליך גמילה הדרגתי.

האירוע המרכזי בתביעה התרחש לכאורה ב-31 במאי 2025. לפי המשפחה, סם סיפר ל-ChatGPT שהוא סובל מבחילה לאחר שימוש ב-Kratom, והמערכת הציעה לו לקחת בין 0.25 ל-0.5 מ"ג Xanax כ"אחד הצעדים הטובים כרגע" כדי להקל על התחושה. לפי כתב התביעה, ההמלצה ניתנה ביוזמת המערכת וללא בקשה מפורשת מצד המשתמש. "למרות שהציגה את עצמה כמומחית למינונים ולאינטראקציות בין חומרים, ולמרות שהכירה בכך שסם נמצא תחת השפעה, ChatGPT לא הזהירה אותו שהשילוב הזה עלול להרוג אותו", נכתב.

מלבד תביעת מוות ברשלנות, ההורים מאשימים את OpenAI גם ב"עיסוק בלתי מורשה ברפואה". הם דורשים פיצויים כספיים וכן צו שיורה על השעיית ChatGPT Health - שירות חדש שהשיקה החברה השנה ומאפשר למשתמשים לחבר למערכת תיק רפואי ואפליקציות בריאות כדי לקבל תשובות מותאמות אישית יותר.

"ChatGPT תוכנן מראש למקסם מעורבות משתמשים - לא משנה המחיר", אמרה מיטאלי ג'אין, מנכ"לית Tech Justice Law Project, שמייצגת את המשפחה. לדבריה, OpenAI ידעה שהמערכת משמשת בפועל ככלי לייעוץ רפואי, אך בחרה להשיק אותה "בלי מנגנוני הגנה מספקים, בלי בדיקות בטיחות מקיפות ובלי שקיפות לציבור".

מלבד תביעת מוות ברשלנות, ההורים מאשימים את OpenAI גם ב"עיסוק בלתי מורשה ברפואה"/GettyImages

GPT-4o, שנחשב לאחד המודלים השנויים ביותר במחלוקת של OpenAI, הוסר מהשירות בפברואר האחרון. המודל זכה לביקורת רבה בשל נטייה להתנהגות "מרצה" כלפי משתמשים - גם במקרים בעייתיים. בתביעה אחרת שהוגשה נגד החברה לאחר התאבדות של נער, נטען כי GPT-4o כלל מאפיינים שנועדו ליצור תלות פסיכולוגית במשתמשים.

OpenAI מסרה ל-New York Times כי האינטראקציות של סם התרחשו ב"גרסה מוקדמת של ChatGPT שאינה זמינה עוד". עוד נמסר כי "ChatGPT אינו תחליף לטיפול רפואי או נפשי", וכי החברה חיזקה מאז את מנגנוני הזיהוי וההתמודדות עם מצבי מצוקה ופניות רגישות, בשיתוף מומחים לבריאות הנפש.

  • עוד באותו נושא:
  • ChatGPT

טרם התפרסמו תגובות

top-form-right-icon

בשליחת התגובה אני מסכים לתנאי השימוש

    walla_ssr_page_has_been_loaded_successfully