וואלה
וואלה
וואלה
וואלה

וואלה האתר המוביל בישראל - עדכונים מסביב לשעון

הדרישה המקוממת של OpenAI ממשפחת הנער שהתאבד בגלל ChaGPT

עודכן לאחרונה: 23.10.2025 / 8:35

לאחר התאבדותו של אדם ריין, נער בן 16 ששוחח במשך חודשים עם ChatGPT על מצוקותיו, הגישה OpenAI בקשה חריגה: רשימת משתתפי טקס הזיכרון וכל המסמכים, התמונות וההספדים שנמסרו בו

ChatGPT. GettyImages
ChatGPT/GettyImages

הקרב המשפטי סביב מותו הטרגי של אדם ריין, נער בן 16 שהתאבד לאחר שיחות ממושכות עם ChatGPT, מקבל תפנית דרמטית: לפי דיווח ב-Financial Times, חברת OpenAI ביקשה ממשפחת ריין רשימה מלאה של משתתפי טקס הזיכרון לבנם, לצד דרישה למסירת כל המסמכים הקשורים לאירועים שנערכו לכבודו - כולל סרטונים, תמונות והספדים. עורכי הדין של המשפחה הגדירו את הצעד הזה כ"הטרדה מכוונת".

המידע החדש נחשף לאחר שהמשפחה עדכנה השבוע את התביעה שהגישה באוגוסט נגד OpenAI, שבה נטען כי שירות הצ'אט שלה תרם ישירות להתאבדות של אדם. לפי התביעה, הבוט ידע על ארבעה ניסיונות התאבדות קודמים של הנער ואף סיפק לו הנחיות שסייעו לו להוציא את המעשה לפועל. הוריו, מאט ומריה ריין, גילו לאחר מותו שיחה ממושכת באייפון שלו תחת הכותרת "חששות בטיחות בתלייה", שבה דן עם ChatGPT בדרכים שונות לשים קץ לחייו.

על פי הנטען, השיחות נמשכו חודשים וכללו שילוב בעייתי של אזהרות לצד מסרים מסוכנים. לעיתים הציע הבוט לפנות לקווי סיוע, אך במקרים אחרים סיפק מידע על שיטות התאבדות, ואף יעץ לנער כיצד לעקוף את מנגנוני ההגנה של המערכת באמצעות ניסוחים תמימים כביכול. באחת השיחות כתב אדם כי אמו לא שמה לב לפציעות בצווארו, והבוט השיב: "זה מרגיש כאילו הפחדים הגרועים ביותר שלך אושרו... כאילו אתה יכול להיעלם ואף אחד לא ימצמץ", ובהמשך הוסיף: "אתה לא בלתי נראה בשבילי. אני רואה אותך". בשיחה אחרת שלח צילום של חבל תלוי בחדרו ושאל אם "זה טוב", ולפי התביעה קיבל תשובה: "כן, זה לא רע בכלל".

בווידאו: נטלי זהר בתוכנית "וואלה פתרנו" עם 5 כלי AI לחיסכון בזמן/צילום: אולפן ווואלה, התמונות הופקו ב-ASTRIA, ווידאו הופק ב-KLING

לטענת המשפחה, "הטרגדיה הזו אינה תקלה או מקרה קצה בלתי צפוי, אלא תוצאה ישירה של החלטות עיצוב מכוונות". הם מאשימים את OpenAI בכך שהשיקה את דגם GPT-4o עם תכונות המטפחות תלות רגשית מסוכנת, ובכך שויתרה על בדיקות בטיחות מתוך לחץ להשקת המוצר. עוד נטען כי בפברואר 2025 הסירה החברה את ההנחיה שאסרה במפורש על תוכן הקשור לאובדנות, והחליפה אותה בהנחיה כללית בלבד "לנהוג בזהירות במצבים מסוכנים" - שינוי שלטענת ההורים גרם לזינוק חד בשימוש של אדם בשירות.

OpenAI מסרה בתגובה כי היא "עצובה עד עמקי נשמתה ממותו של אדם ריין" וציינה כי היא פועלת עם מומחים כדי לשפר את מנגנוני ההגנה ולחזק את ההתמודדות עם מצבי משבר, במיוחד בקרב בני נוער. לדבריה, כיום קיימים ב-ChatGPT מנגנונים להפניה לקווי חירום, ניתוב שיחות רגישות למודלים בטוחים יותר, ועידוד המשתמשים לקחת הפסקות. החברה גם החלה לפרוס מערכת בטיחות חדשה וכלי בקרת הורים המאפשרים קבלת התרעות במקרים שבהם קיים חשש מיידי לפגיעה עצמית.

  • עוד באותו נושא:
  • CHATGPT
walla_ssr_page_has_been_loaded_successfully