ש:
איך הרובוט "סופיה" של ערב הסעודית מעלה שאלות מפחידות חדשות בנושא סייבר?
ת:אחת הטכנולוגיות החדשות החמות ביותר של בינה מלאכותית היא רובוט בגודל טבעי שנועד להראות ולהתנהג כמו אישה.
קוראים לה סופיה והיא מיוצרת על ידי הנסון רובוטיקס, חברה מבוססת בהונג קונג. מדוע היא הרובוט של סעודיה? מכיוון שמדינת המפרץ הזו העניקה לסופיה זכות אנושית מרכזית: זכות האזרחות.
זה עולה להרבה כותרות, ומעורר כל מיני ויכוחים לגבי מהירות הבינה המלאכותית, ומדוע אכפת לנו. אחד הנושאים הגדולים הוא אבטחת רשת - כיצד יתאים תחום הביטחון הקיברנטי לסוגים אלה של טכנולוגיות חדשות?
סופיה וטכנולוגיות דומות מעלות בעיות מפתח בנושא אבטחת סייבר שלא טיפלנו בהן בעבר. להלן כמה דברים שאנשי מקצוע ומומחים צריכים לחשוב עליהם כשהם מפעילים רובוטים שנראים, מדברים ומתנהגים כמונו.
באופן כללי, הממשק הרובוטי החדש כמו בחיים מתוחכם יותר ממה שהורגלנו אליו בעבר, וזה אומר מגוון סוגיות חדשות בנושא אבטחת סייבר. בעולם הטכנולוגיה, אנשים מדברים על כך שיש להם "משטח התקפה דק", למשל, בהתקנת hypervisor או מובנה בתוך אבטחה בצד השרת. רובוט מהלך, מדבר, לעומת זאת, הוא משטח התקפה עבה מאוד - מכיוון שהממשקים מתוחכמים, יש הרבה דרכים להאקרים ולשחקנים רעים לנצל פגיעויות.
סוג מאוד ספציפי של בעיית אבטחת סייבר הוא סוג של מעורב עם מגוון סוגיות חברתיות - אפשר לקרוא לזה "תסמונת מתחזה", אם כי מונח זה שימש בדרך כלל לתיאור פעולותיהם המשתנות של מדעני נתונים בלתי לגיטימיים.
איך שלא תקראו לזה, הבעיה היא שככל שבינה מלאכותית מחקה בני אדם מסוימים עם דרגות הצלחה גדולות יותר, זה הולך ויהיה קשה יותר לוודא שאנחנו לא נתונים בהונאות מורחבות במיוחד שגורמות לנו להטיל ספק באמת. אתה כבר יכול לראות דוגמאות של אנשים המשתמשים בטכנולוגיות חדשות לגמרי כדי לחקות פוליטיקאים מפורסמים כמו בסרטון הזה של ברק אובמה המציג את הקומיקאי ג'ורדן פלה. בעיית המתחזה רק הולכת לצמוח ולהתרחב ככל שהבינה המלאכותית מעניקה לנו חלונות חדשים למחשבות והתנהגויות אנושיות הפוכות.
כמו כן, באופן כללי, הממשקים והיכולות החדשים הללו הולכים להסלים את מרוץ החימוש המתמשך כבר בין אנשי אבטחה להאקרים. ג'יימס מוד כותב על כך במאמר שכתב על Xconomy, מכנה את AI "חרב פיפיות" עבור סייבר, ומצביע כי באופן כללי, התקפה פחות יקרה מאשר להגן ולהצביע על חששות לגבי פרטיות וביטחון. חולץ כמה מהטיעונים הללו לרובוט AI, ותוכלו לראות כיצד עם כוח ויכולת מגיעה סכנה וצורך במשמעת.
סוגיה חדשה נוספת וגדולה עם סופיה ורובוטים ניידים היא שהם בתנועה.
התרגלנו לטכנולוגיות כמו ווטסון של יבמ שעושות עבודה קוגניטיבית ברמה גבוהה במיוחד תוך השארתנו במרכז נתונים או במבנה חומרה נייח. לזה אנחנו רגילים - מהמסגרות הראשונות הראשונות וכלה במחשבים ניידים של ימינו, כולנו השתמשנו בחומרה נייחת. יש לנו עכשיו טלפונים ניידים, אבל הם בעצם מחשבי כיס. מחשבים רובוטיים חיוניים הם שונים באופן מדהים. מדובר בקטעים נעים אוטונומיים שיכולים להיות נשק על ידי גורמים זדוניים. מאמר של רויטרס הבוחן את מהירות הטיפול בבעיות אבטחת סייבר ברובוטים מראה כיצד ניתן למשל לגרום לרובוטים "להתנודד" או לנוע במהירות ובאופן בלתי הולם על מנת לגרום נזק.
בסופו של דבר, סופיה ורובוטים כמוה מעלים שורה של סוגיות בנושא אבטחת סייבר ודאגות אחרות. כיצד נבדיל בין פעילות לגיטימית לבין פעילות מתעתעת ולא לגיטימית כאשר הממשק אינו רשת המחוברת דיגיטלית, אלא חתיכת חומרה ניידת שיכולה להערים אותנו לחשוב שהיא פועלת בדרכים אנושיות? חציית גשר זה תדרוש כמויות אדירות של עבודה טכנולוגית ואתית כדי להבטיח שבני האדם ישמרו על המושכות ושאנחנו משתמשים בטכנולוגיות עוצמתיות אלה לטובת האזרחים.