יום אחרי דיווחים על כוונת ממשל טראמפ להקשיח את הפיקוח על תעשיית הבינה המלאכותית, מגיע צעד שממחיש עד כמה היחסים בין המדינה לחברות הטכנולוגיה מתהדקים: גוגל, מיקרוסופט ו-xAI חתמו על הסכמים שיאפשרו לממשל האמריקני גישה מוקדמת למודלי AI חדשים עוד לפני השקתם לציבור. הצעד הזה, שנחשף על ידי ה-Wall Street Journal, מעביר את הכוח לידי המרכז לתקני בינה מלאכותית וחדשנות (CAISI) תחת משרד המסחר האמריקני, שיקבל לידיו את המערכות המתקדמות ביותר כדי לבחון את השלכותיהן על הביטחון הלאומי של ארצות הברית לפני שהן מגיעות לידי המשתמשים.
ההסכמים הללו אינם רק עניין פרוצדורלי, אלא חדירה עמוקה של הממשל אל תוך "קודש הקודשים" של פיתוח הטכנולוגיה. במסגרת השותפות, החברות נדרשות לספק לממשל גישה למודלים כשהם נטולי הגנות - או עם הגנות מופחתות משמעותית - כדי לאפשר לבודקים הפדרליים "להתעלל" במערכות ולבדוק כיצד ניתן לנצל אותן לרעה. כריס פול, מנהל ה-CAISI, הסביר כי מדידה מדעית עצמאית היא קריטית להבנת חזית הבינה המלאכותית, והגדיר את שיתוף הפעולה הזה כחיוני לאינטרס הציבורי ברגע שבו הטכנולוגיה מתפתחת בקצב מסחרר.
התפנית הזו בעייתית במיוחד עבור חברות שניסו לשמור על קו עצמאי. בעוד שטראמפ הציג בעבר תוכנית פעולה המדגישה שוק חופשי וצמצום רגולציה, המציאות בשטח מלמדת על ניסיון לכופף את התעשייה לצרכים אידיאולוגיים וביטחוניים. דוגמה בולטת לכך היא העימות של הפנטגון עם חברת אנתרופיק (Anthropic), שסומנה כסיכון לאחר שסירבה להסיר הגנות שמנעו שימוש בטכנולוגיה שלה למעקב המוני או לנשק אוטונומי. הנשיא אף חתם על צו האוסר רכישת מערכות AI שמקדמות "דוגמות אידיאולוגיות", מה שיצר למעשה מבחן נאמנות עבור חברות הטכנולוגיה.
בסופו של דבר, החתימה של גוגל, מיקרוסופט ו-xAI מעידה על כך שהן מעדיפות לשתף פעולה עם הממשל מאשר להיכנס למסלול התנגשות חזיתי. המשמעות היא שעידן הפיתוח הבלתי תלוי בחדרי חדרים הסתיים; מהיום, כל פריצת דרך משמעותית בתחום הבינה המלאכותית תעבור קודם כל תחת העין הבוחנת של הממשל בוושינגטון. עבור הקורא הממוצע, זה אומר שהכלים שהוא יקבל לידיים יהיו כאלו שכבר עברו סינון ואישור פדרלי, מה שמעלה שאלות חדשות על פרטיות, חופש המידע וגבולות המעורבות הממשלתית בטכנולוגיה שמשנה את העולם.
