זהו חלק שני של כתבה בת שני חלקים - לקריאת החלק הראשון
בראיון שנתן סם אלטמן, המייסד של OpenAI החברה שעומדת מאחורי ChatGPT ל-"ניו יורק טיימס", הוא התייחס לטכנולוגיה שהחברה שלו מפתחת כאל מקבילה מודרנית של "פרויקט מנהטן" - פרויקט הפיתוח של הפצצה הגרעינית. אלטמן מודע לסכנות של בינה מלאכותית, והוא בעצמו אומר שהמוצר שהחברה שלו שואפת לפתח, בינה מלאכותית כללית, יכולה אמנם להזניק את האנושות לכוכבים (גם מטאפורית וגם מעשית), אבל היא יכולה גם להשמיד אותה - הכל תלוי בפיתוחים.
עוד בשבוע שעבר, חתמו שורה של מדענים ואנשי טכנולוגיה על מכתב פתוח שקורא למעבדות פיתוח של בינה מלאכותית ברחבי העולם לעצור מפיתוחה, בשל הבעיות שעלולות לצוץ עם מחשבים תבוניים והסכנה האפשרית שמחשבים כאלה ינסו להשתלט על העולם או להשמידו, נוסח סקיינט בשליחות קטלנית, במיוחד אם למישהו יעלה הרעיון של לחבר בינה מלאכותית למערכות נשק.
הקריאה אמנם יצאה במדינות מערביות, אבל ענה מי שענה לאותו מכתב פתוח בשאלה הגיונית וסבירה: האם גם סין תחדול ממאמצי הפיתוח של בינה מלאכותית כללית? האם רוסיה? ברור שמדינות אוטוריטריות ותאבות כוח לא יחדלו מן המאמצים הללו, ולכן גם במערב אין לחדול מהם, בדומה לעיקרון ההרתעה של השמדה הדדית מובטחת, כמו בימי המלחמה הקרה. האם אנחנו בפתחו של מירוץ חימוש חדש בדומה למירוץ החימוש הגרעיני, אבל הפעם של בינה מלאכותית? בהחלט ייתכן.
מכונות בהזיות
אבל עוד הרבה לפני שנצטרך לחשוש מסקיינט או רובוטים רצחניים שחזרו בזמן ומחפשים את שרה קונור, לבינה מלאכותית כיום יש עדיין שפע של בעיות. אחת הבעיות המהותיות של GPT (מודל הלמידה שמאחורי ChatGPT, חשוב לעמוד על ההבדל), וכלים דומים לו כמו Bard של גוגל ואחרים, הוא מה שבגוגל מכנים "הזיות מידע".
מודלי הבינה המלאכותית, נוטים "להשלים" ולאלתר פערי מידע שקיימים אצלם, ופשוט להמציא דברים שחסרים להשלמת המשימה המבוקשת, כסוג של ברון מינכהאוזן דיגיטלי, המכונות פשוט ממציאות פרטים ועובדות שאינם קיימים או שגויים. אלה "הזיות מידע". הבעייתיות היא שמי שלא בעל ידע קודם בתחום שעליו משיבה הבינה המלאכותית ויכול לבחון את הטקסט שלה בעין ביקורתית, כמו למשל תלמידי תיכון או סטודנטים לתואר ראשון - עשוי לחשוב שמדובר בעובדות מוצקות, כי הבינה המלאכותית לרוב מפיקה טקסטים שנראים או נשמעים במבט חטוף קוהרנטיים וידעניים, אבל בבחינה מדוקדקת יותר, מסתבר שהם לא.
בעיה אחרת, נוגעת לזיהוי עצמים בתמונות. בתהליך האימון של הבינות המלאכותיות שנוצרו למשל, כדי לזהות טוב ומהר יותר גידולי עור סרטניים עשויות להיווצר הטיות משונות, שאנחנו כבני אדם יודעים לברור - אבל הבינה המלאכותית - לא. כך למשל, בינה מלאכותית שאומנה לזהות גידולי עור ושומות שעשויות להיות סרטניות נטתה לסווג כל צילום שהכיל סרגל או סרט מדידה ליד השומה כשומה מסוכנת, פשוט בגלל שבמודל האימון שלה הרבה תמונות של שומות סרטניות הכילו סרט מדידה או סרגל, כי היה צריך למדוד את גודל והיקף השומה הסרטנית...
נטאי (Bias בלעז) אחר, אבל קיים ושאי אפשר להתעלם מקיומו, הוא נטאי חברתי. כך למשל, בינה מלאכותית התקשתה יותר בזיהוי פנים של כהי עור, כולל בינה מלאכותית המשמשת במכוניות אוטונומיות פשוט בגלל שערכת המידע המקורית, כלומר ערכת התמונות שעליה אימנו את הבינה לזהות מה הם פנים, הכילה בעיקר תמונות של אנשים לבנים. באופן דומה, בינות מלאכותיות שממיינות קורות חיים ידעו להסיק את צבע עורו של אדם מתוך נתונים כמו שכונת מגורים או בתי ספר. ראוי לציין שבמקרים האלה הבינה המלאכותית איננה אשמה. במקרה הזה, היא פשוט מראה של תפיסות גזעניות או דעות קדומות שקיימות כבר בחברה האנושית, אבל כאלה שעשו את דרכן לתוך הקוד שלה כמכונה. כמובן, כיום ישנה כבר יותר מודעות לנושא ומאמצים לתקן או לנטרל הטיות שכאלה, אבל הדרך עוד ארוכה.
והבעיה השלישית הבולטת מאוד של בינה מלאכותית, חוץ מהטיות והזיות, היא בעיית הקופסה השחורה. לעתים, וכאן הבעיה נעוצה דווקא ביכולות המתקדמות של בינה מלאכותית והיכולת שלה להיקש והסקת מסקנות עצמית - בינות מלאכותיות מגיעות לתשובות שלמדענים ולמהנדסים שיצרו אותן אין הסבר איך הבינה המלאכותית הגיעה לאותה תוצאה או מסקנה. זוהי בעיה כשבאים להכניס שימוש בבינה מלאכותית לתחומים מפוקחים כמו באמת מיון של קורות חיים, פוליסות ביטוח או נהיגה אוטונומית - עולה הצורך המובן של היכולת להסביר איך המכונה הגיעה לתוצאה מסויימת, והתשובה הזו לא תמיד בנמצא.
בינה ועבודה
כמו טכנולוגיות אחרות שקדמו לה, אחד החששות הגדולים שבינה מלאכותית מעלה היא האיום על מקצועות קיימים. כש-ChatGPT, Dal-E, Midjourney ועוד בינות מלאכותיות מחוללות פרצו בסערה לחיינו, היו "מומחים" שמיהרו להכריז שמקצועות כמו עיתונאות, עיצוב גרפי, הוראה ועוד מתים, ושהעוסקים בהם יצטרכו בקרוב ללכת ללשכת התעסוקה. המציאות, לעומת זאת, קצת שונה וגם ההיסטוריה הטכנולוגית אומרת שלא כך הדבר.
"מקצועות ישתנו, לא בהכרח ייעלמו", אומר אורי אליאבייב, יועץ לבינה מלאכותית. "הצורך בעיתונאים, מעצבים, רופאים, עדיין קיים. הכוונה היא שכל אותם בעלי מקצוע יקחו את הכלים האלה ויבינו איך הם יכולים להשתמש בהם לצרכים שלהם. אני אתן דוגמא: אם פעם מעצב היה נדרש לעשות איור של דמות מסוימת. היום לקוח ידרוש - תעשה לי את אותה הדמות, בכל שלב בחיים, בכל עונות השנה, ועם 20 הבעות פנים שונות. הדרישות מהאנשים (בעלי המקצוע) האלה ישתנו בהתאם. והכישורים שאותם בעלי מקצוע צריכים לסגל, צריכים גם להשתנות בהתאם", אומר אליאבייב.
"האם האנשים האלה יאבדו את העבודה שלהם? יש סיכוי. אבל כדי להגן על עצמך, צריך לדעת להשתמש בכלים. יש את האמרה השחוקה - 'בינה מלאכותית לא תיקח את העבודה לאף אחד. אבל אנשים שידעו להשתמש בה יקחו'...אם אתם רוצים להיות רלוונטיים בשוק העבודה העתידי, תבינו איך אתם יכולים להשתמש בזה (בבינה מלאכותית), כי אחרת המקצוע שלכם באמת בסכנה", אומר היועץ לבינה מלאכותית.
"אולי האיום המיידי הוא על יוצרי תוכן ומעצבים, אבל מהיכרותי עם ההיסטוריה של עולם הטכנולוגיה, הטכנולוגיה לא מייתרת אנשים, היא פשוט מגדילה את התיאבון. כמו ש-Wix נכנסה לחיים שלנו, שוק בניית האתרים בעולם אני מעריך, לא הצטמצם. הוא גדל, ויש עוד שחקנים - אבל פשוט יש בידול. לאתרים פשוטים כמו חנות מקוונת קטנה יכול להיות ש-Wix סוגרת לך את הפינה. אבל אם אתה חנות גדולה ויש לך עשרות אלפי מוצרים, וצורך בהתאמה מיוחדת משלך, אז כנראה שזה לא יעבוד בשבילך. וזה בדיוק הדבר שיקרה גם כאן".
איך להעלים תמרור עצור?
העולם החדש האמיץ של בינה מלאכותית המשולבת בכל תחומי החיים, גם מביא עימו שורה של סכנות ומתקפות סייבר מסוגים חדשים שלא הכרנו - ואלה אולי הסכנות היותר מיידיות שלה. מעבר ליכולת למשל להשמיד מוניטין של איש ציבור על ידי יצירת סרטון וידאו מזויף של דמותו, מה שמכונהdeep fake, שהפך בזכותה נגיש לכל אחד כמעט עם מחשב (לאחרונה ראינו את זה בסיפור עם המעיל של האפיפיור שהיה מזויף לחלוטין) מספר לנו אליאבייב על יכולת למשל להסתיר תמרורים מבינה מלאכותית המפענחת אותם בנהיגה אוטונומית:
מסתבר שלמקם מספר מדבקות במיקומים אסטרטגיים על תמרור עצור, יגרום לבינה מלאכותית להתעלם מהשלט לחלוטין ולהמשיך לנסוע... התוצאה עשויה להיות קטלנית או הרסנית לכל הפחות. דוגמא אחרת, היא הוספה של רעש סטטי שבני אדם לא שומעים, אבל סייעניות קוליות כן שומעות עשוי לגרום להן לשמוע דברים אחרים לחלוטין.
ולסיים בנושא עמו פתחנו, מה הסיכוי או הסכה להשמדת האנושות אם מישהו יחליט לחבר בינה מלאכותית כמפעילת נשק להשמדה המונית? זהו תחום שלם העוסק בבינה מלאכותית בשדה הקרב. "נכון להיום אין פיתוחים בתחום שהם אוטונומיים לחלוטין", מרגיע אליאבייב. "עדיין מדברים כיום על האדם בלולאה (כלומר שעל הפעלת הנשק בסופו של דבר מחליט אדם ולא מכונה - נ.ל.), ועל אף שטכנית הדבר אפשרי, אני עדיין לא מכיר חברות שעשו את זה", הוא מוסיף.
ולשאלתי האם מחר עשוי לקום מחשב כמו סקיינט, עונה אליאבייב: "האם תיאורטית זה אפשרי? זה אפשרי. האם זה ריאלי? אני לא רואה את זה קורה בעתיד הנראה לעין, משלל סיבות: ראשית, הטכנולוגיה כיום לא מספיק טובה לזה. גם עם מפת הדרכים לבינה מלאכותית כללית, אנחנו עדיין לא בנקודה שיש סכנה ממשית. אנחנו על הסף שבו מודלים יוכלו לפתח יכולות עצמאיות. אנחנו נמצאים בנקודה קריטית והסף יכול להיפרץ, אבל אנחנו עדיין רחוקים משם לפי הפרקטיקה הקיימת והנהוגה כיום", מסכם אליאבייב.