לפי דיווח של הוול סטריט ג'ורנל הצבא האמריקאי עשה שימוש במודל הבינה המלאכותית Claude של חברת Anthropic במסגרת המבצע שבו נתפס נשיא ונצואלה, ניקולס מדורו.
בשלב זה לא ברור כיצד השתלב מודל השפה הגדול בתקיפה, אבל לפי המקורות בוונצואלה 83 בני אדם נהרגו בתקיפה שכללה גם הפצצות ושימוש בכלי נשק אל-הרג קולי מסוג חדשני שגרם לכוחות האבטחה לסחרחורות ודימומים מהאף. על פניו מודל שפה גדול יכול לשמש במגוון שימושים של תכנון וביצוע מתקפה צבאית, החל מפענוח תצלומי אוויר ועד תכנון של תקיפה קרקעית.
ב־Anthropic מדגישים כי מדיניות השימוש שלהם אוסרת הפעלה של Claude למטרות אלימות, לפיתוח נשק או לביצוע פעולות מעקב. החברה לא השיבה לשאלה האם המודל שימש בפועל במבצע, אך מסרה שכל שימוש בו חייב לעמוד במדיניות. גם משרד ההגנה האמריקאי לא מסר תגובה לדיווח.
ברם, נראה כי השימוש בקלוד נעשה דרך השותפות של אנתרופיק עם פלנטיר, חברת המודיעין של פיטר ת'יל, העוסקת בשיטור חיזויי ושאר שימושים אפלוליים. גם פלנטיר עצמה סירבה להגיב לדברים.
הדיווח משתלב במגמה רחבה יותר של שילוב כלי AI בתהליכי עבודה צבאיים ומודיעיניים, תופעה שמחריפה את המחלוקת סביב השימוש בבינה מלאכותית בהקשרים של עימותים: מצד אחד, טענה ליעילות תפעולית וליכולת עיבוד מידע מהירה; מצד שני, חששות מפני טעויות, הטיות, והעברת משקל מהחלטה אנושית לשיקול אלגוריתמי במצבים רגישים. על פי דיווחים קודמים של הגארדיאן וכלי תקשורת ישראליים, במלחמת חרבות ברזל עשתה ישראל שימוש נרחב בשתי מערכות בינה מלאכותית לאיסוף מודיעין מטרות, מה שהביא גם להרג של בלתי מעורבים בשל טעויות זיהוי על ידי הבינה המלאכותית.
ברקע הדברים ניכרת מתיחות בין מנכ"ל אנת'רופיק שמתנגד לשימוש של הכלים של חברתו למטרות צבאיות והתקפיות בעלי פוטנציאל הרג, ומנגד, שר ההגנה האמריקאי הגסת' הכריז כי משרד ההגנה לא יעבוד עם חברות שלא יאפשרו שימושים כאלה.
עוד בהקשר זה נציין כי לפי הראיון שפרסמנו השבוע עם מפקד ממר"מ, גם צה"ל עושה שימוש בכלי בינה מלאכותית שונים, לרבות בינה מלאכותית הפועלת בשרתים סגורים והמותאמת לעבודה עם חומרים צה"ליים מסווגים.
