בית מגמות מדוע חשוב שמדעני נתונים יחפשו שקיפות?

מדוע חשוב שמדעני נתונים יחפשו שקיפות?

Anonim

ש:

מדוע חשוב שמדעני נתונים יחפשו שקיפות?

ת:

שקיפות חשובה במהותה בפרויקטים של מדעי נתונים ותוכניות למידת מכונות, בין השאר בגלל המורכבות והתחכום שמניע אותם - מכיוון שתוכניות אלה "לומדות" (מניבות תוצאות הסתברותיות) ולא בעקבות הוראות תכנות ליניאריות קבועות מראש, וכיוון שכתוצאה מכך, זה יכול להיות קשה להבין כיצד הטכנולוגיה מגיעה למסקנות. בעיית ה"קופסה השחורה "של אלגוריתמי למידת מכונות שאינם ניתנים להסבר מלא למקבלי ההחלטות האנושיים היא גדולה בתחום זה.

עם זאת, היכולת לשלוט בלמידה של מכונות ניתנות להסבר או "AI ניתנת להסבר" עשויה להיות המוקד העיקרי בדרך בה חברות רודפות רכישת כישרונות עבור מדען נתונים. DARPA, המוסד שהביא לנו את האינטרנט כבר מממן מחקר של מיליארדי דולרים במחקר AI שניתן להסביר, מנסה לקדם את הכישורים והמשאבים הדרושים ליצירת טכנולוגיות למידת מכונות ובינה מלאכותית שקופות לבני אדם.

דרך אחת לחשוב על זה היא שלעתים קרובות יש "שלב אוריינות" של פיתוח כישרונות ו"שלב היפר-אוריינות ". עבור מדען נתונים, שלב האוריינות המסורתי יהיה ידע כיצד להרכיב תוכניות ללימוד מכונות ואיך לבנות אלגוריתמים עם שפות כמו פייתון; כיצד לבנות רשתות עצביות ולעבוד איתן. שלב ההיפרות-ספרות יהיה היכולת לשלוט ב- AI שניתן להסביר, לספק שקיפות בשימוש באלגוריתמים של למידת מכונה ולשמור על שקיפות שכן תוכניות אלה פועלות למטרותיהם ומטרות המטפלים שלהם.

דרך נוספת להסביר את חשיבות השקיפות במדעי הנתונים היא שמערכות הנתונים המשמשות כל הזמן הופכות מתוחכמות יותר, ולכן עלולות להיות פולשניות יותר לחיי האנשים. מניע נוסף מרכזי ללמידת מכונות ומידע נתונים שניתן להסביר הוא התקנה האירופאית להגנת המידע הכללית אשר יושמה לאחרונה כדי לנסות לבלום את השימוש הלא מוסרי בנתונים אישיים. באמצעות ה- GDPR כמקרה מבחן, מומחים יכולים לראות כיצד הצורך להסביר פרויקטים בתחום מדעי הנתונים משתלב בענייני פרטיות וביטחון, כמו גם לאתיקה עסקית.

מדוע חשוב שמדעני נתונים יחפשו שקיפות?