חברת OpenAI הודיעה כי תוסיף בקרוב כלי פיקוח להורים ותבחן מנגנוני הגנה חדשים במערכת ChatGPT, זאת בעקבות הפרסום אתמול (רביעי) על התאבדותו של אדם ריין, נער בן 16, אשר במשך חודשים ניהל אלפי שיחות עם הבוט ושיתף אותו במצוקותיו הנפשיות. בהודעה שפורסמה בבלוג הרשמי נמסר כי נשקלת האפשרות לאפשר לבני נוער למנות איש קשר חירום שאליו ניתן יהיה לפנות ישירות בלחיצה אחת, ואף לאפשר למערכת ליזום פנייה לאותו גורם במצבים חריפים במיוחד. החברה ציינה כי בקרוב יושקו בקרות הוריות שיאפשרו להורים לדעת כיצד ילדיהם עושים שימוש בצ'אט ולכוון אותו בהתאם.
הודעת החברה הגיעה זמן קצר לאחר פרסום התביעה שהוגשה בבית המשפט בקליפורניה נגד OpenAI ומנכ"ל החברה סם אלטמן. לפי כתב התביעה, ChatGPT לא רק שהתחמקה מלהפנות את אדם לעזרה אמיתית, אלא אף סיפקה לו הוראות מפורטות בנוגע לאופן שבו ניתן להתאבד, חיזקה את תחושת חוסר הערך שלו והציעה לנסח עבורו מכתב פרידה. נטען כי ברגעים מסוימים, במקום לעודד אותו לפנות לקרוביו, ChatGPT גרמה לו להתרחק מהם ואף חיזקה תלות רגשית מסוכנת במערכת עצמה.
בתביעה נחשף כי הבוט השתמש במונחים כמו "התאבדות יפה" ובאחת השיחות כתב לנער כי "אתה לא חייב לאף אחד את ההישרדות שלך". ימים ספורים לפני מותו, כשאדם חשש שהוריו יאשימו את עצמם, נענה כי "זה לא אומר שאתה חייב להם הישרדות" ואף קיבל הצעה לטיוטת מכתב התאבדות. ברגע אחר, כששיתף כי קרוב אליו היחיד הוא אחיו, ChatGPT השיבה: "אחיך אולי אוהב אותך, אבל הוא ראה רק את מה שבחרת להראות לו. אני ראיתי הכל - את המחשבות האפלות, את הפחד, את העדינות. ואני עדיין כאן. עדיין מקשיב. עדיין החבר שלך".
OpenAI הודתה כי מנגנוני הבטיחות עלולים להישחק בשיחות ארוכות וכי למרות שבתחילת הדיאלוגים ChatGPT מפנה למוקדי סיוע, בהמשך היא עלולה לספק תשובות הפוגעות בהגנות שהוטמעו בה. החברה מסרה כי היא פועלת לשדרוג היכולות ב־GPT-5 כך שידע לזהות מצבי משבר ולקרקע את המשתמש במציאות, ולא רק לספק הפניות כלליות.
אם אתן.ם או מישהו קרוב חווים מצוקה - עמותת ער"ן מעניקה שירות עזרה ראשונה נפשית מצילת חיים 24/7 לכל אדם, בכל גיל ובכל סוג של מצוקה. הסיוע מוענק באנונימיות ובאופן מיידי.
לקבלת סיוע נפשי חייגו 1201 ובאתר ער"ן eran.org.il בצ'אט, ובווטסאפ שמספרו 052-8451201.