השבוע, למעלה מאלף אישי טכנולוגיה וחוקרים, ביניהם אילון מאסק, דחקו במעבדות בינה מלאכותית לעצור את הפיתוח של המערכות המתקדמות שלהן בטענה כי כלי בינה מלאכותית מציבים "סכנות רחבות לחברה ולאנושות". במקביל, הוגשה השבוע גם תביעה ייצוגית בבית משפט ישראלי נגד OpenAI, היוצרת של כלי הבינה המלאכותית ChatGPT. האם אכן צריך לפחד מהשד שנקרא "בינה מלאכותית" על שלל נגזרותיו?
על אף האזהרות וההפחדות, בינה מלאכותית כבר כאן. כמו האינטרנט, הפכנו עיוורים לקיומה בעולם הדיגיטלי, אבל היא כבר פה: אם לעשות פרפרזה: כל פעם שאנחנו מצלמים תמונה בסמארטפון החדיש שלנו - בינה מלאכותית!, כשאנחנו מבקשים לעשות ביטוח או לקחת הלוואה - בינה מלאכותית!, שיפור תמונה או צליל בטלוויזיה שלנו - בינה מלאכותית! המלצות לשירים בספוטיפיי? בינה מלאכותית! אלגוריתמים ומחשבים שעושים חישובים, מטפלים בתמונות, מעריכים סיכונים ועושים הרבה מאוד פעולות שפעם בני אדם היו עושים אבל ביעילות ומהירות גבוהות מאיתנו כבר קיימים ופועלים בהמון תחומי חיים אנושיים - אנחנו פשוט לא מודעים לקיומם, אבל מי שמפעיל ומשתמש בהם, בהחלט מודע.
"בינה מלאכותית זו תוכנת מחשב שעושה פעולות או משימות שלולא אדם היה עושה אותן, הן היו נחשבות אינטליגנטיות. זה קצת מצחיק, כי זה זורק אותנו להגדרה מה זו בינה אנושית?", מסביר בשיחה עם "וואלה!" אורי אליבייב, יועץ לבינה מלאכותית. "ויש הגדרה אחרת שאומרת שבינה מלאכותית זה כל מה שמחשבים עדיין לא עושים, כך שההגדרה היא מאוד נזילה...ההגדרה היא חמקמקה, כי גם בינה אנושית לא מוגדרת היטב", אומר אליבייב. אבל אנחנו נזרום עם ההגדרה שבינה מלאכותית היא תוכנת מחשב, שמבצעת פעולות שאלמלא מחשב היה עושה אותן - הן היו נחשבות לכאלה הדורשות בינה, כלומר ידע והבנה מסויימים.
בתוך עולם הבינה המלאכותית מקובל כיום לחלק את המחקר ואת המוצרים הקיימים בתחום לשני סוגים עיקריים: בינה מלאכותית כללית (Artificial General Intelligence או AGI בקיצור), ובינה מלאכותית צרה. בינה מלאכותית כללית היא הסוג המפחיד יותר לכאורה מבחינת האנושות: בינה מלאכותית כללית מיועדת לפעול ולעשות כל דבר שהמוח האנושי מסוגל לעשות, והיא, כמו המוח האנושי צריכה להיות מסוגלת ללמוד תחומים חדשים בעצמה, להבין אותם ואז להשתמש בידע שצברה, כולל היכולת לבצע מחקר בעצמה או "להתייעץ" עם מערכות אחרות, שמתמחות בנושא ספציפי, ממש כמו שבני אדם פונים למומחה בעל ידע בתחום מסויים כשהם זקוקים לעזרתו, אם זה אינסטלטור, רופא או עורך דין. סופרי מדע בדיוני של שנות ה-60' של המאה הקודמת כבר תיארו דבר כזה, וקראו לו "מערכות מומחה", שמתייעצות ביניהן.
בינה מלאכותית כללית, היא היעד הסופי של חברת OpenAI, היוצרת של ChatGPT. המייסד שלה, סם אלטמן, מודע להשלכות הרחבות של מה שהוא מפתח, ובראיון גדול שנתן השבוע ל-"ניו יורק טיימס", הוא מתייחס לפיתוח שלו כמו "פרויקט מנהטן" - פרויקט הפיתוח של הפצצה הגרעינית, לא פחות. כלומר, אלטמן רואה את עצמו כסוג של אופנהיימר.
מהי ChatGPT?
מה שמביא אותנו ל-ChatGPT, הפיתוח הנוכחי של OpenAI שבאופן מטאפורי ומילולי משגע את העולם. ChatGPT היא בינה מלאכותית מהסוג השני שהזכרנו - בינה מלאכותית צרה. בניגוד לאחותה הגדולה והמפחידה יותר, בינה מלאכותית כללית, בינה מלאכותית היא צרה היא כזו שאומנה ונועדה לבצע משימה מסוג מאוד מסויים, ובינות מלאכותיות כאלה כאמור כבר שזורות בחיינו, כמו עיבוד תמונה, הערכת סיכונים במתן הלוואה, המלצות על סרטונים ביוטיוב ועוד ועוד.
בתוך המחלקה של בינה מלאכותית צרה, יש תת מחלקה שנקראת Generative AI או בינה מלאכותית מחוללת. זו בינה מלאכותית צרה שמסוגלת לקחת מידע קיים כקלט, ולהוציא כפלט יצירה חדשה, כזו שלא הייתה קיימת בעולם. Dal-E, שיוצרת תמונות חדשות מתיאור שאנחנו נותנים לה בטקסט, היא בינה מלאכותית מחוללת וכך גם ChatGPT - הקלט שלה הוא השאלות או הבקשות שלנו ליצור עבורנו משהו (מאמר של 2,000 מילה על גידול דבורים או אתר אינטרנט שעוסק בשואה), והפלט הוא יצירה חדשה לחלוטין - שיצרה תוכנת מחשב ולא אדם. היא נדמית כסוג של פלא או כישוף, אבל בסופו של דבר, גם ChatGPT היא כלי עבודה, אם יודעים להשתמש בו נכון. החלק המרשים ב-ChatGPT הוא פשוט עושר המידע שעליו היא אומנה וממנו רכשה את ה-"ידע" שלה, שזה בערך כל האינטרנט, או לפחות מאגרי מידע מאוד מאוד גדולים. וגם ChatGPT, על אף שחלק מ-"מומחי" טכנולוגיה מטעם עצמם מתעלפים ממנה, לא חפה מטעויות, וגם את התוצרים שלה צריך לשקול ולהעריך בזהירות.
"ChatGPT מאפשר לנו לייצר טקסטים חדשים, תשובות, מאמרים, קטעי קוד וכולי שמתבססים על סט נתונים רב", מסביר אלבייב. "איך ChatGPT עובד? בגדול, הוא נחשף לכמויות מאוד גדולות של מידע, והוא מתחיל להבין הקשרים וקשרים בין כל המילים האלה (שמאכילים אותו - נ.ל.)".
"התוספת המעניינת (ב-ChatGPT) ששווה רגע להתעכב עליה, הוא 'למידת חיזוק', כלומר, היכולת להבין ולחזות מתוך מספר פעולות ולא תוצאה של פעולה בודדת. למשל, בשח-מט. אתה עושה צעד אחד. האם אתה יודע שזה הצעד שיביא לך את הניצחון? לא. אתה מסתכל על שורה של צעדים, בכל מצב יש לך מספר פעולות שאתה יכול לבחור מהן, ואחר כך, בראיה לאחור, אתה יכול לנתח ולהבין כמה היא הייתה טובה. אז את הגישה הזו יישמו ל-ChatGPT", אומר היועץ לבינה מלאכותית. "מה שגרם ל-ChatGPT להתפוצץ, הייתה העובדה שהכניסו בני אדם לתהליך התיקוף הזה - בסיומה של כל שיחה, היו בני אדם שדירגו את איכותה ואמרו כמה היא הייתה טובה", אומר אלבייב.
ברנאר משרטר, פילוסוף בן המאה ה-12, היה זה שאמר "אנו כננסים היושבים על כתפי ענקים, שיכולים אנו לראות דברים רבים יותר ורחוקים יותר מאשר הם, לא דווקא בשל חדות ראייתנו או חוסן גופנו אלא משום שאנו נישאים ומרוממים לגובה על ידי גודלם הענקי".
כך שמסתבר שגם רוחק הראייה של ChatGPT, המסוגלת לראות וליצור דברים רבים וחדשים, בסופו של דבר, למדה מאיתנו, בני אדם. וגם הידע וה-"חוכמה" של ChatGPT איננו חסר גבולות. גם בינה מלאכותית יכולה לטעות. על הטעויות, העתיד והסכנות לאנושות שבבינה מלאכותית ומדוע סם אלטמן חושב שהיא דומה להישג של ביקוע האטום - בחלק שיפורסם בשבוע הבא.