בית שמע מדוע דארפא חוקר ai שניתן להסביר?

מדוע דארפא חוקר ai שניתן להסביר?

Anonim

ש:

מדוע חוקרת DARPA "AI ניתן להסביר"?

ת:

באופן כללי, בינה מלאכותית מוסברת הופכת לחלק מבשר הרבה יותר מהעבודה החדישה במדעי הנתונים. זה עוזר להנחות את השליטה האנושית בסוג טכנולוגי הפכפך ודינאמי מטבעו - AI שניתן להסביר עוזר לענות על הרבה מהשאלות הקולקטיביות שלנו לגבי אופן הבינה המלאכותית יעבוד.

להבנת AI שניתן להסביר, זה עוזר להבין איך נראה "AI רגיל". באופן מסורתי, כאשר AI מתחיל לקרום עור וגידים, הפרויקט הטיפוסי מורכב מיכולת תוכנה חדשה ומפוארת, מוסתרת באלגוריתמים וערכות הדרכה וקוד ליניארי, זה סוג של "תיבת חסום" למשתמשים. הם יודעים שזה עובד - הם פשוט לא יודעים בדיוק איך.

זה יכול להוביל ל"בעיות אמון "בהן משתמשים עשויים להטיל ספק בבסיס הטכנולוגיה מקבלת החלטות. זה מה שאמורים להסביר AI אמורים להתייחס: פרויקטים של AI שניתן להסביר מגיעים עם תשתית נוספת כדי להראות למשתמשי הקצה את הכוונה והמבנה של ה- AI - מדוע הוא עושה את מה שהוא עושה.

בעידן בו מחדשים מובילים כמו ביל גייטס ואלון מאסק מביעים דאגה מאופן עבודת הבינה המלאכותית, נראה כי ה- AI המסביר יכול להיות מושך במיוחד. מומחים טוענים כי AI שניתן להסביר טוב יכול לעזור למשתמשי קצה להבין מדוע הטכנולוגיות עושות את מה שהם עושים, להגביר את האמון ולהגדיל את קלות השימוש והשימוש בטכנולוגיות אלה.

עם זאת, באופן ספציפי, DARPA מסבירה בפני עצמה באופן ספציפי מדוע היא מעוניינת בפרויקטים החדשים. דף ב- DARPA מראה כי משרד ההגנה צופה "סיקור" של יישומי בינה מלאכותית, וכמות מסוימת של כאוס בהתפתחותו.

"התקדמות מתמשכת מבטיחה לייצר מערכות אוטונומיות שתופסים, ילמדו, יחליטו ויפעלו בעצמם", כותב דייוויד גונינג. "עם זאת, היעילות של מערכות אלה מוגבלת על ידי חוסר היכולת הנוכחית של המכונה להסביר את החלטותיהם ופעולותיהם למשתמשים אנושיים. … AI ניתן להסביר - למידת מכונה ניתנת להסבר במיוחד - יהיה חיוני אם לוחמי לוחמים עתידיים יבינו, יש אמון וניהול יעיל של דור מתפתח של שותפי מכונה חכמים מלאכותית. "

החיבור המקוון של גאנינג מציע שמערכות AI שניתן להסביר יסייעו "לספק את הרציונל" לטכנולוגיות, להראות את נקודות החוזק והחולשה שלהן ולהפוך את מקרי השימוש לשקופים יותר. גרפיקה בעמוד מציגה כיצד קו צינור ישר לפונקציונליות של בינה מלאכותית מנתוני אימונים יתווסף על ידי משהו שנקרא מודל מוסבר וממשק שניתן להסביר שיעזור למשתמש לענות על שאלות. עוד אומר Gunning כי לתוכנית AI שניתן להסביר יהיו שני תחומי מיקוד עיקריים - האחת תעבור דרך נתוני מולטימדיה כדי למצוא מה מועיל למשתמשים, ומיקוד שני יהיה הדמיה של תהליכי החלטה לתמיכה בהחלטה.

DARPA מקווה לספק "ערכת כלים" שיכולה לעזור בפיתוח מערכות AI ניתנות להסבר עתידי.

מדוע דארפא חוקר ai שניתן להסביר?