הפיזיקאי המפורסם בעולם, פרופסור סטיבן הוקינג, פרסם השבוע מאמר במגזין הבריטי The independent, ושם התייחס בפסימיות לפיתוחים של אינטליגנציה מלאכותית כפי שהם מתבטאים בעידן הנוכחי - ובכללם גם פיתוחים כמו סירי והרכב-ללא-נהג של גוגל. לטענת הוקינג, לכיוון המדעי הזה יש פוטנציאל לא קטן לחולל מהפכה בהיסטוריה האנושית - אולי אפילו המהפיכה האחרונה והסופית.
החברות שעוסקות בטכנולוגיה חכמה מתרכזות בעיקר בלייעל את התהליך ולהשיג תוצאות כמה שיותר מהפכניות, טוען הוקינג, אבל כמעט לא מתעסקות בלפתח הגנה מפני סיכונים אפשריים שמהפיכה הזאת מביאה איתה - וזאת עלולה להיות "הטעות הגדולה ביותר בהיסטוריה". הוא אמנם לא מכחיש שהיתרונות של החידושים בתחום הם רבים וחשובים, אך מטרידה אותו העובדה שהממשלה והתאגידים האחראים אינם עושים מספיק כדי להתכונן לעידן החדש שהם מביאים על המין האנושי: יש להקדיש משאבים משמעותיים לחקר הסיכונים של תחום האינטליגנציה המלאכותית, לפני שיהיה מאוחר מדי להשתלט עליו.
"אם גזע חייזרי עליון היה שולח לנו הודעה שהם מגיעים להשתלט עלינו בעוד כמה עשורים - האם היינו רק אומרים 'אוקיי, תתקשרו כשתגיעו, נשאיר לכם את האור דלוק'?" שואל הוקינג במאמר, "כנראה שלא - אבל זה פחות או יותר מה שאנחנו עושים עם התחום של האינטליגנציה המלאכותית".