וואלה
וואלה
וואלה
וואלה

וואלה האתר המוביל בישראל - עדכונים מסביב לשעון

סוף עידן הזיופים? חוקרים פיתחו טכנולוגיה חדשה שתחשוף דיפ-פייק - בעזרת נורות

עודכן לאחרונה: 31.7.2025 / 13:18

החוקרים מציגים טכנולוגיה חדשה שמטמיעה קוד סמוי באור שבסצנה בזמן צילום וידאו. לאחר מכן ניתן לבדוק אם הסרטון עבר עריכה או זיוף - לפי התאורה שתועדה. כל שינוי גורם לחוסר התאמה שניתן לגלות

דיפ פייק. ShutterStock, ShutterStock
דיפ פייק/ShutterStock, ShutterStock

עולם ה-AI ממשיך לייצר עוד ועוד כלים מרשימים - וגם עוד ועוד כאבי ראש. אחת מהבעיות הכי נפיצות כרגע היא זיופי וידאו, ובעיקר Deepfakes: סרטונים שנראים לגמרי אמיתיים, אבל בעצם נוצרו או נערכו בצורה מתוחכמת כדי לשנות את המציאות. לפעמים מדובר בעריכה קלה של משפט, ובמקרים אחרים - בווידאו שכולו נוצר מאפס. עכשיו, קבוצה של חוקרים מתחום מדעי המחשב מאוניברסיטת קורנל מציגה פיתוח חדש שיכול לעזור להבחין בין המציאות לדמיון - והכל בעזרת... נורות.

הטכניקה, שזכתה לשם Noise‑Coded Illumination (או בקיצור: תאורה מקודדת ברעש), פועלת על עיקרון פשוט אבל מבריק: להחביא סימנים מיוחדים בתוך התאורה עצמה. כן, בדיוק - לא בקובץ הווידאו, לא באודיו - אלא באור. איך זה עובד? נורות, מסכים או פנסים שמאירים את הסצנה "מהבהבים" בתדרים נמוכים מאוד - כאלה שהעין האנושית בכלל לא קולטת. אבל המצלמות דווקא כן.

כל מקור אור מקבל "קוד" ייחודי, וכשהווידאו מצולם, הקוד הזה בעצם מוטבע עליו בלי שאף אחד ישים לב. אם מישהו ינסה לערוך את הווידאו - להחליף פרצוף, להוסיף משפט שלא נאמר או לשנות את ההקשר - הסימנים שבתוך התאורה יחשפו את השינויים.

כלומר, כל ניסיון לערוך את הסרטון פשוט ייראה לא עקבי עם מה שהאור שידר באותו רגע. וזה בדיוק הרעיון מאחורי השיטה החדשה שחוקרים פיתחו: במקום לנסות לזהות Deepfakes אחרי שהם הופצו, הם מציעים להטמיע כבר בזמן הצילום סימן אימות שלא ניתן לשכפל בדיעבד - דרך האור שמאיר את הסצנה. בהמשך, אם מישהו ינסה לערוך את הסרטון או לייצר גרסה מזויפת שלו - למשל, Deepfake שנראה כאילו צולם באותו חדר - הקוד שמוטמע בתאורה פשוט לא יתאים למה שרואים בסרטון.

עליית הבינה המלאכותית וה-Deepfake ברשתות חברתיות: ניווט בין קווי המציאות המטושטשים, מתוך "סוויפ-אפ"/מערכת וואלה!

מי שעומד מאחורי הפיתוח הם פיטר מייקל, זקון האו, סרג' בלונג'י והחוקר הראשי אייב דיוויס - כולם מאוניברסיטת קורנל. הם פרסמו את השיטה בגיליון יוני של כתב העת ACM Transactions on Graphics, והיא תוצג גם בכנס SIGGRAPH שייערך ב-10 באוגוסט.

דיוויס מסביר שכל הבהוב כזה יוצר בעצם "סרטון קוד" - גרסה דחוסה של הווידאו המקורי עם הטבעה של מתי ואיך צולמה כל שנייה. אם תבואו אחר כך עם סרטון שעבר מניפולציה - הסרטון לא יתאים לנתוני הקוד. ואם מישהו ינסה לייצר את הווידאו כולו מחדש בעזרת AI? זה ייראה כאילו מישהו פשוט זרק רעש רנדומלי על התמונה.

sheen-shitof

עוד בוואלה

המהפכה של וואלה Fiber שתחסוך לכם בעלויות הטלוויזיה והאינטרנט

בשיתוף וואלה פייבר

למי זה טוב? החוקרים מדגישים שזו לא טכנולוגיה שמתאימה לכל מצב - למשל בצילומים בחוץ עם שמש חזקה במיוחד, או כשיש תנועה מאוד מהירה בפריים. אבל בסביבות כמו חדרי ישיבות, מסיבות עיתונאים, ראיונות טלוויזיה או אולמות הרצאות - המקומות שבהם הכי חשוב שהווידאו יהיה אמין - שם היא יכולה לזהור.

מה שנחמד בטכנולוגיה הזו הוא שהיא לא באה להילחם באש עם אש - כלומר, לא מנסה לזהות זיופים בעזרת מודלים של למידת מכונה, אלא משתמשת בשיטה אנלוגית כמעט, שמחזירה אותנו למחשבה מחוץ למסך: האם נוכל להטמיע אמינות כבר ברגע הצילום? לפי קורנל - בהחלט כן.

טרם התפרסמו תגובות

top-form-right-icon

בשליחת התגובה אני מסכים לתנאי השימוש

    walla_ssr_page_has_been_loaded_successfully