עבור לתוכן

כוח דיגיטלי מביא עימו אחריות אתית  

| מגמת עתיד
כדור הארץ מהחלל בחושך. רואים נקודות אור על הכדור

תמצית

ארגונים וחברות רבים עורכים חשבון נפש לגבי ערכי החברות שלהם. לפני שנתיים, עדכנה Business Roundtable, עמותה של מנכ"לים בארה"ב, את הצהרת מטרות התאגידים, שבה נאמר, כי תאגיד צריך להביא בחשבון את כל בעלי העניין, כולל העובדים, הלקוחות והקהילה, ולא להציב מולם רק רווח כמטרה. אנליסטים של גרטנר כבר ניבאו את הופעת הבינה המלאכותית האחראית (responsible AI), מסגרת המתעדת כיצד ארגון ספציפי מתמודד עם האתגרים סביב הבינה המלאכותית מבחינה אתית ומשפטית כאחד. זהו מונח-גג הכולל בתוכו היבטים רבים של יישומי בינה מלאכותית, כגון ערכים, סיכונים, אמון, שקיפות, אתיקה, הוגנות, פרשנות, אחריות, בטיחות וביטחון והתאמה.

הציבור מאמין כי על ארגונים מוטלת אחריות פסיקתית ומוסרית, למדוד, להפחית או לבטל חששות מפני הטיות על רקע גזעי, וליקויים אתיים שמקורם בחוסר ביטחון ובחוסר רגישות. המוטו "מה שמזיק לחברה, מזיק לעסקים", גרם לאנליסטים לצפות כי ניתוחי סנטימנטים ומדדים המתעדים את תרומות החברה, יהיו חשובים עוד יותר בשנת 2021 ולאורך זמן. אנליסטים של גרטנר צפו כי 30% מהארגונים הגדולים ישתמשו במדד "קול החברה", כדי לפעול בנושאים חברתיים ולהעריך את השפעות פעילות זו על ביצועיהם העסקיים עד שנת 2024. חברת המחקר IDC כינתה תופעה זו בשם: "אמפתיה בקנה מידה", לאחר שהעלתה כי חברות השתמשו יותר ויותר בניתוחי סנטימנט המונעים על ידי בינה מלאכותית, כדי למדוד כיצד הלקוחות תופסים את המוצרים והספקים שלהן. חוקרי החברה צפו שעד שנת 2024, 32% מיצרני המותגים ישתמשו בניתוח סנטימנט קונטקסטואלי המופעל על ידי בינה מלאכותית, כדי למדוד את תפיסות הלקוחות לגבי אמפתיה.

רגולציה של ממשלות מנסה להדביק את קצב ההתפתחות הטכנולוגית, וזו נעה על חבל דק בין שימוש בנתונים לבין ערך פרטיות האדם. סוגיות אלו מורכבות, ודורשות הבנה וניסיון שלא תמיד קיימים בשל החדשנות שבהן. הרשת מספקת כר נרחב לתעמולת בחירות, ותורמת ליציבות ממשלות או מאיימת עליה. המדינה מאבדת את כוחה אל מול הרשת. לדוגמה, לשימוש הנרחב בזיהוי פנים יש השלכות קריטיות על הגנת הפרטיות ועל חירויות האזרח, מאחר שאלגוריתם לזיהוי פנים עשוי לחזות את האוריינטציה הפוליטית של התושבים, חשיפה שעלולה לאפשר יצירת לחץ על האזרח או פגיעה בו. הדרישה להגביר את כוח האכיפה של רשויות, כגון הרשות להגנת הפרטיות במשרד המשפטים, ולקנוס חברות שמפירות פרטיות של אזרחים, כבר עומדת על הפרק, אך הדרישה מכוונת גם אל גופי הממשל, בעיקר בעקבות ירידת אמון הציבור בו. על כן, יש צורך לפקח על רשויות המדינה ולוודא שגם הן אינן עושות שימוש לרעה בכל המידע שהן אוספות על האזרחים ללא ידיעתם או הסכמתם. וכאמור, הולך וזוקף ראש מאבק מסוג חדש: מאבקן של ממשלות בתאגידי הענק הטכנולוגיים, שהכוח לחסום את חופש הביטוי ולצנזר משתמשים ברשתות החברתיות ללא כל יכולת השפעה מצד המדינה, עובר לידיהם.

בהרחבה

בשנים האחרונות, מדינות רבות בעולם מצטרפות למירוץ בכל הקשור לבינה מלאכותית, והן מפתחות תוכניות לאומיות, מכנסות ועדות אתיקה ומקיימות דיונים לקראת חקיקה בתחום זה. התחושה הכללית היא שמערכות בינה מלאכותית יתחילו לשמש כגורם משמעותי בקבלת החלטות, יומיומיות כמו גם אסטרטגיות, שישפיעו ישירות על חיי אזרחים בכל העולם. התקופה הנוכחית מתאפיינת במתח מובנה בין שני וקטורים מנוגדי כיוון: וקטור הצמיחה המעריכית של שימוש בבינה מלאכותית מחד גיסא, ווקטור ההתנגדות, המסמל את החסמים המבניים לשינוי ולחדשנות, שמפעילות מערכות הרגולציה והמשפט, מאידך גיסא. בפועל, קיים ויכוח בנוגע למהות ולאופי הרגולציה הנדרשת בתחום הבינה המלאכותית ובנוגע לרלוונטיות שלה.

כאמור, רגולטורים וקובעי מדיניות מפגרים אחר קצב האירועים הטכנולוגיים בכלל, ובתחום הבינה המלאכותית בפרט. אולם, הצורך במסגרת אתית בעת יישום של טכנולוגיות חדשות, נובע מקיומן של דילמות מוסריות המעמתות את יתרונות הטכנולוגיה עם הסכנות שבה, במיוחד לאור היעדרה של מסגרת אתית מוסכמת להפעלת מערכות בינה מלאכותית המקבלות החלטות באופן אוטונומי. מגפת הקורונה המחישה את הצורך בטכנולוגיות המסתמכות על איסוף כמויות  ענק של נתונים, לשם מעקב ואיתור מגעים וניתוחם במסגרת ניהול אפידמיולוגי חכם ויעיל. מנגד, היא גם חשפה את הבעייתיות האתית הכרוכה בשימוש בטכנולוגיות הללו – קרי, המתח בין הצורך במעקבים לבין השמירה על הפרטיות.