בינה מלאכותית זקוקה לאתיקה ורגולציה

מגמה חברתית

מערכות למידת מכונה מנטרות את מה שאנחנו עושים, אוספות עלינו מידע מקיף ומפורט, מעבדות ומנתחות אותו לפרטי פרטים. הן נמצאות בלב מערכות מעקב – מצלמות זיהוי פנים ומערכות זיהוי ביומטרי והן כחלק מכל שירות או אפליקציה כמעט שאנו משתמשים בהם, גם בתחומים שמרניים לכאורה כמו בנקאות וביטוח. עד כה, התנהל התחום בצורה די פרוצה. נעשו מהלכים וניסיונות להסדיר חלקים כמו זיהוי פנים או היבטים כמו פרטיות (האסדרה הכללית להגנה על מידע באיחוד האירופי – [102],GDPR) אך לא נעשה מהלך מקיף כלשהו שיגדיר איך משתמשים בבינה מלאכותית, תחת איזה מגבלות ולאילו מטרות. במציאות זו סוגיות כמו אתיקה בפיתוח בינה מלאכותית, נותרו ללא מענה נאות, וחברות ולקוחות נאלצו להתמודד עימן בעיקר בכוחות עצמם, אם בכלל. לאחרונה הוצגה טיוטה לכללי רגולציה של מערכות בינה מלאכותית על ידי האיחוד האירופי, שסימן עצמו בשנים האחרונות כמוביל עולמי בכל הנוגע לאסדרה של חברות ומערכות טכנולוגיה. המסר מעלה כמה עקרונות מרכזיים:

  • איסור על שימוש בבינה מלאכותית למעקב נטול אבחנה
  • איסור על מערכות בינה מלאכותית לדרג אשראי חברתי באמצעות הערכת אמינות של אדם, התנהגות חברתית או תכונות אופי
  • קבלת אישור מיוחד לשימוש במערכות זיהוי ביומטרי במרחבים ציבוריים
  • חובת מתן התרעה לאנשים כשהם מבצעים פעולה מול מערכת בינה מלאכותית
  • פיתוח מערך פיקוח חדש על מערכות בינה מלאכותית היוצרות "סיכון-גבוה" לאדם (מכוניות אוטונומיות, מערכות גיוס עובדים, החלטות משפטיות ודירוג אשראי), כולל הערכה מראש, טרום-שימוש של סיכוני מערכות אלו, והקמת מאגר מידע זמין לציבור של מערכות סיכון-גבוה, שיהיה זמין לציבור.
  • יצירת מועצה אירופית לבינה מלאכותית (European Artificial Intelligence Board), שתכלול נציגים מכל המדינות החברות באיחוד, ואשר תסייע לנציבות האיחוד להחליט אילו מערכות בינה מלאכותית הן בסיכון-גבוה ותמליץ על שינויים ומגבלות מותאמות.

קיימות לא מעט ביקורות על ההצעה. חלק טוענים שהתיאור של מערכות בינה מלאכותית שייאסרו הוא מעורפל ועמוס בשפה לא ברורה שתיצור מקום לפרצות רציניות. חלק טוענים שהרגולציה מחמירה מידי ותפגע בחברות ההזנק של המדינות המעורבות. דעות דומות נשמעו גם לפני כניסת כללי ה-GDPR לתוקף, בפועל ההשפעה שלהם על יכולות תעשיית ההייטק באירופה הייתה אפסית, ומנגד הם שימשו השראה לחקיקת חוקי פרטיות דומים במדינות אחרות והפכו למעשה לסטנדרט בתחום. לרגולציה החדשה יכולה להיות השפעה דומה, בעיקר מכיוון שהיא מחייבת חברות שפועלות באיחוד או משפיעות על אזרחיו לפעילות מתואמת, וענקיות כמו פייסבוק, גוגל, אמזון ומיקרוסופט יידרשו לעמוד בכללי הרגולציה בפעילותן מול האיחוד, ועם הזמן, מול כל השאר.

החסם של כלי הרכב האוטונומיים – מזה עשור קיימת ציפייה שהרכב האוטונומי יהיה חלק בלתי נפרד מחיינו. בפועל תעשיית הרכב האוטונומי נמצאת בצומת הדרכים שבין החזון לבין העיצוב והייצור ההמוני.[103] הרגולציה היא תנאי הכרחי, כמו גם מוקש עיקרי, בדרך לממש את החזון. שוק הרכב שונה משווקים אחרים, לא ניתן לשנות ולהתפתח תוך כדי תנועה, אלא יש צורך ברגולציה עוד טרם עליית הרכבים האלה על הכביש. הדילמה כבר מזמן אינה עוסקת בשאלה את מי יהרוג הרכב, את הילד המתפרץ לכביש או אם עם תינוקה שעל המדרכה, אלא מדובר בסוגיות כגון אבטחת סייבר, פרוצדורות רישוי, היבטי פרטיות (היכן היה, לאן בכוונתנו לנסוע, וחיישנים אחרים), ממשק בין חקיקה של מדינות שונות אבל הכי חשוב, הגדרת החבות לתאונות שייגרמו על ידי רכב אוטונומי. מומחי משפט אינם יודעים כיצד להתמודד עם חוסר ההבנה שלהם ביחס לדרך פעולתה של מערכת לומדת ולמנגנון קבלת ההחלטות שלה. מתמטיקאים מצידם, מנסים ללמד מכונות לחשוב בצורה "סמנטית", כלומר, באמצעות כללים מבוססי מילים. הוראות כמו: "סע בעקבות הרכב שלפניך", "עקוף את הרכב משמאל", הן הוראות שגם משפטנים יבינו. אבל, כשהמתמטיקאים מנסים לעצב "נהג אוטונומי סביר" וללמד את המכונות כללי בטיחות, נוצר מתח בינם לבין המשפטנים. מימוש האתגר של מציאת המרחב המשותף בין המשפטנים והמתמטיקאים בנוגע לרכב האוטונומי, על מאפייניו הייחודיים, יהיה קריאת כיוון להבנת עולם הרגולציה בנוגע לשימושים נוספים ורחבים של בינה מלאכותית.

[102] , [103]

 

מופיעה גם ב:
,
,
2021

לורם איפסום דולור סיט אמט, קונסקטורר אדיפיסינג אלית לפרומי בלוף קינץ תתיח לרעח. לת צשחמי צש בליא, מנסוטו צמלח לביקו ננבי, צמוקו בלוקריה.

2020

לורם איפסום דולור סיט אמט, קונסקטורר אדיפיסינג אלית לפרומי בלוף קינץ תתיח לרעח. לת צשחמי צש בליא, מנסוטו צמלח לביקו ננבי, צמוקו בלוקריה.