ש:
מהן כמה סוגיות אתיות בנושא למידת מכונה?
ת:הסוגיות האתיות סביב למידת מכונות אינן כוללות כל כך אלגוריתמים למידת מכונות בעצמם, אלא אופן השימוש בנתונים.
שערוריית קמברידג 'אנליטיקה עם פייסבוק, בה השתמשה חברת ייעוץ פוליטית בנתונים מאתר הרשתות החברתיות ללא ידיעת המשתמשים או הסכמתם, המחישה הרבה מהבעיות הקשורות באיסוף ושימוש בנתוני משתמשים. למרות שהסכמי רישיון רבים למשתמשים מקצה מציינים כיצד ניתן להשתמש בנתוני המשתמשים, משתמשים רבים במדיות חברתיות עשויים שלא לקרוא את האותיות הקטנות.
הורדה חינם: למידת מכונה ולמה זה חשוב |
בעיה נוספת היא שאלגוריתמי למידת מכונה אלה עשויים להיות "קופסאות שחורות", אי אפשר לראות כיצד הם באמת עובדים. יתכן שאי אפשר לדעת מדוע אלגוריתם ללימוד מכונה קיבל החלטה.
תחום אחד של למידת מכונה הוא ביצוע אבחנות רפואיות. אלגוריתם עשוי לבחון קרני רנטגן כדי למצוא סרטן. רופא אנושי יכול להסביר מדוע ביצעו אבחנה, אך ייתכן שלא נדע כיצד אלגוריתם למידת מכונה קבע כי חולה חולה בסרטן או לא.
פרסום תוכניות למידת מכונה תחת רישיונות קוד פתוח הוא פיתרון אחד. כאשר אנשים יכולים להסתכל על קוד המקור של תוכנית, הם יכולים לראות כיצד היא מקבלת החלטות.
נושא נוסף הוא השימוש בנתוני הדרכה למידת מכונה והטיות אפשריות. היו כמה מקרים של הטיות גזעיות ואחרות שהפכו את זה לתכניות למידת מכונה בלי כוונה. אלגוריתם אחד זיהה אנשים שחורים כגורילות, ואחרת שינתה את תווי הפנים של אנשים בעלי צבע כדי לגרום להם להיראות "אירופיים" יותר תוך שהם טוענים לייפותם.
אחת הדרכים להתמודד עם זה היא להביא יותר אנשים מרקעים מגוונים בתחום ה- AI.
בעיה נוספת היא השימוש הבטוח בלימוד מכונות ובינה מלאכותית. תוכניות AI ולמידה במכונות יכלו לפתח התנהגות שאנשים לא היו רוצים שתהיה, כמו למשל למנוע מאנשים לכבות אותם.