|
הממצאים נראים מבוססים [צילום: אליס אמנדולה, AP]
|
|
|
|
|
בשבוע שעבר הגיש משרד השיכון האמריקני תביעה נגד פייסבוק, בטענה שהיא מאפשרת למפרסמים למנוע מקבוצות שלמות – הורים לילדים, לא-אמריקנים, לא-נוצרים, בעלי מוגבלות, היספנים ועוד – לראות מודעות לרכישת דירות. פייסבוק אומנם סגרה את הכלים שאפשרו אפליה זאת, אך המשרד מבקש מבית המשפט להטיל עליה קנס לדוגמה בשל התנהלותה בעבר.
מתברר שלא מדובר במקרה נקודתי. השבוע (יום ד', 3.4.19) פורסם מחקר שערכו אוניברסיטת נורת'איסטרן שבבוסטון, אוניברסיטת דרום קליפורניה וארגון Upturn מוושינגטון, ולפיו המערכות של פייסבוק עצמה מושפעות מהגזע והמגדר של המשתמשים. אקונומיסט ביקש את חוות דעתם של שישה מומחי מחשב נוספים, וכולם קבעו שהממצאים נראים מבוססים.
החוקרים שילמו תמורת מאות זוגות של מודעות, שהיו זהות למעט מאפיין אחד, ובחנו כיצד הן הופצו. הם מצאו, למשל, כי מודעה עם אותם פרטי נכס הופצה לפחות אפרו-אמריקנים כאשר הנכס הוצע למכירה ולא להשכרה. השפעה הייתה גם לתמונות שנכללו במודעות: תמונה של נכס זול ובו משפחה לבנה, הועברו למשתמשים ש-85% מהם היו לבנים; אותה מודעה, עם משפחה שחורה, לא הועברה ל-73% מהמשתמשים הלבנים. והייתה גם הטיה מגדרית: משרות בקופות ובניקיון של מרכולים הועברו ליותר נשים, ואילו משרה בחטיבת עצים הועברה ליותר גברים.
לדברי אקונומיסט, המחקר מספק ראיות חותכות לכך שפייסבוק משתמשת ב"ראייה מתוכנתת" – מחשבי רבי עוצמה הסורקים תמונות ומאפיינים אותן. ההנחה שזהו המצב שררה זמן רב, אך עד כה טרם הוכחה. החוקרים הנוכחיים הוכיחו זאת, כאשר שינו את שקיפות התמונות שצירפו למודעות, כך שהן נראו רק לעין ממוחשבת ולא לעין האנושית – וההטיות הגזעיות נמשכו.
מפרסמים באינטרנט רוצים להגיע לקבוצות ממוקדות של לקוחות, ובין הרוכשים של נכסי יוקרה יש יותר לבנים מאשר שחורים. אולם היכולת של אלוגריתם להגיע לקהל ממוקד תוך שימוש בפרטים עליו – כגון גזע או מגדר – מעוררת דאגה רבה. הדבר נכון במיוחד לגבי פייסבוק, בשל ההיקף העצום שלה ומשום שמערכת הפרסום שלה כה סבוכה, עד שקשה להציב בבירור את הקו בין מודעות מפלות לבין מודעות מוכוונות קהל.
החוקרים מדגישים, כי אין להם טענות כלפי כל מערכת הכוונת המודעות של פייסבוק, וכי הם בחנו רק כמה מצבים נקודתיים. לדבריהם, אין הוכחה לכך שפייסבוק בנתה את מערכותיה בכוונה בצורה מפלה. אבל התוכנה בה משתמשת פייסבוק, המתאימה את עצמה למידע של משתמשי פייסבוק במטרה לשלוח להם מודעות מתאימות, יצרה את הדעות הקדומות הללו. עוד אומרים החוקרים, כי מצב מדאיג זה קיים לא רק בפייסבוק, אלא בכל מערכת המבוססת על "מכונות לומדות". חברות הטכנולוגיה טוענות שהן מנעו אפליות כאלו, אבל תוצאות המחקר מוכיחות את ההפך.
פייסבוק כנראה מקבלת את הממצאים, שכן זו הייתה תגובתה לפרסום המחקר: "אנחנו מתנגדים לאפליה בכל צורה שלה. הכנסנו שינויים משמעותיים בכלים שלנו להכוונת מודעות ויודעים שזהו רק השלב הראשון. אנחנו בוחנים את מערכת העברת המודעות שלנו ומשוחחים בדיוק על הנושא הזה עם בכירים בענף, אקדמאים ומומחים לזכויות אזרח – ואנחנו בוחנים עוד שינויים".