רשימה: זכויות אדם בבינה מלאכותית? על המתווה האמריקאי למגילת זכויות בבינה מלאכותית ומשמעותו | עמיר כהנא ודפנה דרור-שפוליאנסקי

זכויות אדם בבינה מלאכותית?

על המתווה האמריקאי למגילת זכויות בבינה מלאכותית ומשמעותו

עמיר כהנא* ודפנה דרור-שפוליאנסקי**

באוקטובר 2022 פרסמה המחלקה המייעצת לנשיא ארצות-הברית בנושאי מדע וטכנולוגיה (The Office of Science and Technology Policy (OSTP)) את "המתווה למגילת זכויות בבינה מלאכותית – הפעלת מערכות אוטומטיות עבור העם האמריקאי" (The Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People),[1] אשר מוגדר כ"ספר לבן".[2] המתווה מציע קווי מתאר לפיתוח מדיניות ופרקטיקות להגנה על זכויות אזרחיות ולקידום ערכים דמוקרטיים בבנייה, פיתוח וממשל של מערכות אוטומטיות העשויות להשפיע על זכויות הציבור, על הזדמנויות, או על גישה לצרכים חיוניים.[3] ברשימה זו נבקש לסקור בקצרה את המתווה ואת משמעותו בתחום האסדרה המשפטית של בינה מלאכותית.

הרקע לפרסום המתווה

בשנים האחרונות מתקיים בעולם שיח ער על העקרונות האתיים שיש להחיל בשימוש ובפיתוח מערכות בינה מלאכותית, ועל הדרך הראויה לאסדרה של המערכות האלו. מערכות בינה מלאכותית הוטמעו בשנים האחרונות במספר תחומים, ונמצאות בשימוש נרחב במערכות ממשלתיות וציבוריות,[4] לרבות בשירותן של סוכנויות אכיפת החוק והביטחון,[5] בהקצאת משאבי רווחה,[6] וגם בזירה המשפטית.[7]

במסגרת זו, פורסמו בשנים האחרונות מסמכי אתיקה רבים,[8] בין היתר על ידי הנציבות האירופית,[9] ה-OECD[10] ולאחרונה גם בישראל.[11] זאת ועוד, שורה של הצעות חוק בעולם, שחלקן כבר נכנסו לתוקף, מאותתות כי שיח המדיניות בתחום הבינה המלאכותית עובר מחשיבה על עקרונות אתיים לאסדרה בפועל. דוגמה בולטת לניסיון לאסדר בינה מלאכותית בחקיקה היא הצעת חוק הבינה המלאכותית של הנציבות האירופית (AIA),[12] ונוסף לה ישנם ניצני חקיקה בסין,[13] בברזיל,[14] בקנדה[15] ועוד.[16]

בשנת 2019 פרסם ממשל טראמפ את הצו הנשיאותי ל"שמירת ההובלה האמריקאית בבינה מלאכותית" המתווה את האסטרטגיה האמריקאית בתחום.[17] הצו הנשיאותי דאז לא כלל את המונח "אתיקה" בתוכו אלא התרכז בצורך בפיתוח בינה מלאכותית ובהובלה טכנולוגית בתחום.[18] בהתאם להוראות הצו, משרד הניהול והתקצוב בבית הלבן פרסם בשנת 2020 חוזר הכולל עקרונות למדיניות אסדרה של בינה מלאכותית (OMB), שמטרתו הייתה בעיקרה להנחות סוכנויות פדרליות באשר לשיקולים הנוגעים לאסדרה של התחום באופן שיקדם חדשנות, הסרת חסמים והגנה על ערכים אמריקאיים, כמו פרטיות, חירות, וזכויות אדם.[19]

בנאום בשנת 2021 ציין אנתוני בלינקן, מזכיר המדינה בממשל ביידן, כי "משימתנו היא לנסח וליישם חזון משכנע על אודות שימוש בטכנולוגיה באופן שישרת את אנשינו, יגן על האינטרסים שלנו ויתמוך בעקרונות הדמוקרטיים שלנו".[20]

בהתאם, המתווה למגילת זכויות אדם בבינה מלאכותית, אשר פורסם לאחרונה, מהווה מהלך הצהרתי חשוב העשוי להיות אבן-דרך במדיניות אסדרת הבינה המלאכותית של ארצות-הברית בעתיד. גם תהליך ניסוח המתווה, אשר ארך תקופה ממושכת וכלל התייעצות עם שלל גורמים ובתוכם ארגוני חברה אזרחית, חברות טכנולוגיה בולטות, והציבור הרחב,[21] עשוי להצביע על כך שזו רק יריית הפתיחה לקראת צעדי אסדרה עתידיים נוספים בהשראת עקרונות אלו. זאת ועוד, כפי שיפורט להלן, פרסום המסמך האמריקאי על רקע מהלכי החקיקה של האיחוד האירופי עשוי להצביע על שאיפה לקדם אסדרה אמריקאית של בינה מלאכותית ובכך למנוע דומיננטיות אירופית בתחום, כפי שקרה בעבר בנוגע לדיני הגנת הפרטיות האירופיים.[22]

עיקרי המתווה

המתווה האמריקאי מציע עקרונות ופרקטיקות נלוות שמטרתן לספק קווים מנחים לעיצוב, לשימוש ולפריסה (deployment) של מערכות אוטומטיות להגנה על זכויות "הציבור האמריקאי" (The American People) בבינה מלאכותית. המתווה כולל שלושה רבדים: (1) עקרונות יסוד – חמישה עקרונות למערכות אוטומטיות: בטיחות ויעילות; הגנה מפני אפליה; פרטיות במידע; הודעה והסבר; וחלופה אנושית; (2) הסבר מפורט על חשיבותו של כל אחד מהעקרונות, כולל דוגמאות מהתנהלות של מערכות אוטומטיות שפועלות בשוק כבר כיום; (3) פירוט כיצד ניתן ליישם את העקרון בפרקטיקה. להלן נפרט על העקרונות שמונה המתווה.[23]

(1) מערכות בטוחות ויעילות:[24] פרטים צריכים להיות מוגנים ממערכות אוטומטיות בלתי בטוחות או לא אפקטיביות. בפיתוחן נדרש להתייעץ עם בעלי עניין ומומחים מגוונים על מנת לזהות סיכונים או השלכות אפשריות של המערכת. מערכות צריכות לעבור בדיקות טרם פריסתן, זיהוי ומיתון סיכונים, וניטור מתמשך שמבטיח שהן בטוחות ואפקטיביות. תוצאות אפשריות של בדיקות כאמור הוא הפסקת פעילות המערכת.

(2) הגנה מאפליה אלגוריתמית:[25] פרטים לא צריכים להיות מושאים של אפליה אלגוריתמית, ועיצובן של מערכות צריך שיהיה הגון (equitable). על מעצבים, מפתחים ומפעילים של מערכות אוטומטיות לנקוט אמצעים על מנת להגן על פרטים וקהילות מפני אפליה אלגוריתמית של קבוצות מוגנות.

זהו סעיף מעניין במיוחד שכן נראה כי לשון הסעיף מפנה זרקור אל עבר המעצבים, המפתחים או המפעילים (deployer) של מערכות אוטומטיות. באופן שאינו משתמע לשתי פנים, המתווה קובע כי על המעצבים והמפתחים לנקוט גישה פרואקטיבית להגנה מפני אפליה במערכות אלה. גישה זו צריכה לכלול, בין היתר, הערכת הגינות (equity assessment) כחלק מעיצוב המוצר; הגנה מפני אפליה עקיפה (proxies) בגין נתונים דמוגרפיים; עיצוב מערכות אוטומטיות באופן המבטיח שתהיינה נגישות לאנשים בעלי מוגבלויות, וכן תכלול הערכת נבדלות (disparity-assessment).[26] המשמעות היא כי מערכות אוטומטיות צריכות לעבור בחינה המוודאת שאינן מפלות, וזאת ביחס פרטני לאוכלוסיות שעשויות להיות מופלות מחמת גזע, צבע, אתניות, מגדר, לידה, נטייה מינית, מידע גנטי, ועוד.[27] המתווה אף מציין כי הערכת נבדלות צריכה להיעשות לא רק בשלב בעיצוב והפיתוח אלא גם על בסיס קבוע כשהמוצר בשימוש. הערכה זו תצטרך להיעשות על ידי מי שמשתמש במוצר.[28]

הגדרת האחריות של המעצבים והמפתחים, וכן הדרישה לפיקוח ובדיקה שוטפת של המשתמשים במערכות, מרחיבות למעשה את האחריותיות הפוטנציאלית לבעלי עניין רבים בשרשרת האספקה של מערכת מבוססת בינה מלאכותית, ונדמה כי במידה מסוימת הדבר מבטא הכרה בכך שהמנגנונים הקיימים כיום להגנה על זכויות אדם – דוגמת חוקי איסור אפליה – עשויים להיות מוגבלים כאשר מדובר באפליה המוטמעת במערכת אוטומטית ואשר קשה לאתרה.[29] המתווה עצמו מכיר בקושי זה, ומציין כדוגמה מערכת אלגוריתמית בשימוש מערכת הבריאות שהתברר שהיא מפלה באופן עקבי אזרחים כהי עור.[30]

בהתחשב בעובדה שמערכות ציבוריות רבות בארצות-הברית כבר מושקעות ומשתמשות במערכות אוטומטיות, החל ממערכות להקצאת זכויות סוציאליות[31] ומערכות לזיהוי ילדים במצוקה הנדרשים להתערבות שירותי הרווחה,[32] וכלה במערכות להערכת מסוכנות של עצורים המיושמת ב-46 מדינות בארצות-הברית,[33] ולנוכח הביקורת על מערכות אלו כלוקות בהטיות אלגוריתמיות מובנות, והרגישות הפוליטית בארצות-הברית לסוגיות של אפליה על בסיס אתני – נדמה שהמהלך מתבקש.

(3) פרטיות במידע:[34] מערכות אוטומטיות צריכות להיות מעוצבות לפי עקרונות של הנדסת פרטיות (privacy by design), ומפתחיהן צריכים להתבסס ככל האפשר על הסכמה של מושאיהן לאיסוף, לשימוש, לגישה, להעברה ולמחיקה של מידע אישי. שימוש במידע אישי רגיש יהיה בכפוף להגנות מוגברות. פרטים וקהילות צריכים להיות מוגנים ממעקב בלתי מבוקר, וטכנולוגיות מעקב צריכות להיות כפופות לפיקוח מוגבר הכולל לכל הפחות הערכה בטרם פריסתן של סיכונים ואיומים לפרטיות ולחירויות אזרח. אין לבצע מעקב רציף בתחומי בהקשרים בהם טכנולוגיות מעקב עשויות להגביל זכויות, הזדמנויות או גישה.

(4) יידוע והסבר:[35] פרטים זכאים לדעת שמערכת אוטומטית נמצאת בשימוש,[36] ולהבין כיצד ואיך היא תורמת לתוצאות ההחלטה שמשפיעה עליהם. מעצבים, מפתחים ומפעילים של מערכות אוטומטיות נדרשים להסביר בשפה פשוטה כיצד המערכות שלהם מתפקדות ומה תפקיד האוטומציה בהן. על ההסבר להיות תקף, בעל משמעות ושימושי לכל מי שנדרש להבין את המערכת.

(5) חלופה אנושית:[37] לפי עיקרון זה לאדם צריכה להינתן האפשרות להחלטה אנושית במקום החלטה אוטומטית במקרים הראויים לכך. המקרים ייקבעו בהתבסס על ציפייה סבירה בכל מקרה לגופו, כשהדגש הוא בהבטחת נגישות רחבה והגנה על הציבור מפני השפעות פוגעניות במיוחד. עוד מצוין במסגרת עיקרון זה כי במקרים מסוימים חלופה אנושית תהיה חובה הנדרשת לפי חוק. במקרים אחרים, נדרש שלפרט תהיה גישה לשיקול דעת אנושי (וסעד שיינתן באמצעות עתודה אנושית) וכן הליך טיפול מסלים (escalation process), אם התגלו שגיאה או כשל במערכת אוטומטית, או במקרה שבו הפרט רוצה לערער או למחות בכין השפעותיה עליו. שיקול דעת או עתודה אנושית צריכים להיות נגישים, הוגנים, יעילים, וכן להיות מנוהלים ומלווים בהכשרות מתאימות. דגשים נוספים נדרשים ביחס להחלטות אוטומטיות ביחס למה שהוגדר כ"תחומים רגישים", קרי, החלטות במסגרת מערכת המשפט הפלילי, תעסוקה, חינוך ובריאות; באשר לתחומים אלה, נדרש יהיה כי המערכות תהיינה מותאמות למטרה, תספקנה גישה משמעותית לפיקוח, וכן תכלול הכשרות לפרטים הבאים באינטראקציה עם מערכות אלו. כמו כן, מערכות אלו צריכות לכלול שיקול דעת אנושי בהחלטות המוגדרות "סיכון גבוה" או "מזיקות". על הדיווחים באשר לפיקוח האנושי על מערכות אלו להיות זמינים לציבור.[38]

בכך מתכתב המתווה האמריקאי עם ה-AIA המוצע על ידי הנציבות האירופית, שבו מוגדרת קטגוריה של מערכות אוטומטיות בסיכון גבוה הכוללות מערכות בשימוש מערכת חינוך, תעסוקה, משפט פלילי ועוד.[39] ואולם, לפי ה-AIA לא תינתן זכות אוטומטית להחלטה של גורם אנושי במקרים אלו אלא המערכות האלו יהיו כפופות למערכת ניהול סיכונים בכל שלבי מחזור החיים שלהן.[40] בהקשר זה, נדמה כי המתווה האמריקאי אף רחב יותר מהזכות להחלטה של גורם אנושי לפי ה-GDPR, לפיה בכפוף למקרים מסוימים עומדת לפרט הזכות שלא להיות נתון להחלטה המבוססת כולה על החלטה אוטומטית, כשלהחלטה זו יש תוצאות משפטיות בנוגע אליו או שמשפיעות עליו משמעותית.[41] לעומת זאת המתווה מרחיב את מסגרת המקרים שבהם צריכה להינתן אפשרות להחלטה של גורם אנושי, ואף מפרט על טיב "העתודה האנושית" והמצופה ממנה במסגרת הליך קבלת ההחלטות שיעבור לידיה.

יש לתת את הדעת על כך שבמסגרת הדוגמאות שהמתווה מפרט להחלטות אוטומטיות העשויות להצדיק חלופה אנושית, נמנות גם החלטות הנעשות במסגרת סינון תכנים אוטומטי (content moderation),[42] הנפוץ ברשתות חברתיות. אף שהמתווה אינו מחייב, ברור שסינון תכנים היא פעולה הנעשית באופן כמעט בלעדי על ידי מתווכי התוכן, ועל כן צעד זה עשוי להתפרש כקריאת תיגר על המדיניות המקלה והבלתי-מתערבת שהממשל האמריקאי נקט עד כה ביחס לאחריותם של מתווכי תוכן.[43]

המשמעות המשפטית של המתווה

מבחינה משפטית גרידא, התוכנית האמריקאית אינה דבר חקיקה ואף לא טיוטת הצעה לחקיקה; מדובר במתווה בלתי מחייב ובלתי אכיף. זוהי למעשה הצהרת עקרונות, שנראה כי מילולית היא נראית ממוסגרת בהקשר הלאומי באמצעות פנייה לעם האמריקאי (For the American People).[44]

עם זאת, קשה להתעלם מהחשיבות ההצהרתית שבמסמך. ראשית, הטרמינולוגיה שנבחרה לכותרת המתווה – המשתמשת במונח "מגילת זכויות" (Bill of Rights) – מסמנת באופן ברור שלצד ההזדמנויות והפוטנציאל החיובי שיש לבינה מלאכותית, היא גם טומנת בחובה סכנות לזכויות אדם, ולכן יש להבטיח שזכויות וחירויות הפרט לא ייפגעו מפעולתן של מערכות אוטומטיות מבוססות בינה מלאכותית. נדמה שזהו צעד מתבקש לנוכח הספרות המחקרית הענפה המצביעה על כך שפעמים רבות מערכות אלגוריתמיות פועלות בצורה מפלה, בהיעדר שקיפות, מובנות ונגישות, באופן המערער עקרונות יסוד של מנהל דמוקרטי ובתוכם עקרון השקיפות והחובה לנמק החלטות.[45]

בחירה צורנית נוספת במסמך שעליה ניתן להצביע היא שימוש בגוף שני בתיאור העקרונות שלו.[46] באמצעות פנייה במישרין אל הקורא האנושי מגלם המתווה את עקרון האדם במרכז (human centric), שלפיו על מערכות אוטומטיות להיות תומכות ומעצימות בני אנוש, ולהיות מעוצבות בצורה שתכלול נורמות כמו שלטון החוק, זכויות אדם, ערכים דמוקרטיים, הגנה על פרטיות, והיעדר אפליה.[47]

זאת ועוד, השימוש של המתווה בשיח זכויות, להבדיל משיח של עקרונות אתיים, ובמיוחד בארצות-הברית שעד כה נקטה ככלל מדיניות של אי-התערבות בתחום הרגולציה של בינה מלאכותית, עשוי לסמן תפנית משמעותית. בעוד שעקרונות אתיים הם עמומים, רחבים ופתוחים לפרשנות בלתי מחייבת, זכויות – אם במישור הלאומי או הבין-לאומי – הן מערכת נורמטיבית מוגדרת, המכילה נורמות מוכרות ומבוססות. זכויות הן גם לרוב אכיפות משפטית ולכן בעלות משמעות חזקה יותר מעקרונות אתיים בעלמא.[48] אף על פי שהמעבר לשפה של זכויות במתווה האמריקאי מוגבל, שכן משאנו מקלפים את הכותרת "מגילת זכויות" מתגלה כי המתווה מפרט "עקרונות" (principles), ולא "זכויות" (right to), הרי שבעצם ההצבה של המינוח מגילת זכויות לצד מערכות אוטומטיות, יש כדי לאותת לכל הפחות על שינוי מגמה במדיניות האסדרה של בינה מלאכותית.

הטבעת חותם במישור הבין-לאומי?

בשנים האחרונות נראה כי אירופה היא שחקן משמעותי בתחום האסדרה של טכנולוגיות חדשות. אם בהשפעה של ה-GDPR משנת 2016 או בזו של דברי חקיקה מאוחרים יותר, כגון טיוטת ה-AIA, ה-EU Digital Service Act[49] או הכרזת הנציבות האירופית על זכויות דיגיטליות (Declaration on Digital Rights and Principles).[50] נוסף עליהם, מועצת אירופה, גוף אירופי חשוב נוסף, פרסמה לאחרונה "קווי יסוד" לבינה מלאכותית.[51] לפיכך, ייתכן שחרף השימוש בלשון הלאומית (American Public) יש בפרסום המתווה הצהרה אמריקאית שלפיה גם ארצות-הברית מבקשת להטביע חותם בפיתוח המדיניות הגלובלית בתחום, וזאת חרף השלבים המתקדמים בחקיקת ה-AIA והסבירות שבשלב זה ארצות-הברית "איחרה את הרכבת".

החקיקה האירופית המסתמנת בתחום הבינה המלאכותית ומסמכי המדיניות שעליה היא מתבססת נעדרים טרמינולוגיית זכויות. אומנם, מסמך המומחים שהתווה את הבסיס ל-AIA מבסס אנליטית את העקרונות האתיים הנמנים בו על זכויות יסוד אירופיות, במטרה לייצר מסגרת אתית לבינה מלאכותית אמינה (trustworthy) הנשענת עליהן, אך אלו אינם מנוסחים כזכויות אדם.[52]

לבסוף, יצוין כי בעת כתיבת שורות אלה פורסם מסמך מדיניות רגולציה ואתיקה בתחום הבינה המלאכותית בישראל.[53] בדומה למתווה האמריקאי, גם מסמך המדיניות הישראלי אינו דבר חקיקה. מדובר בעקרונות אתיים מנחים ביחס למדיניות אסדרה של מערכות בינה מלאכותית.[54] בעוד שחלק מהעקרונות המוצעים בו זהים לאלו המנויים במתווה האמריקאי, המסגור שלהם נותר כעקרונות אתיים מומלצים בלבד. יתר על כן, המסמך הישראלי נועד להתוות את האופן שבו תיבחן אסדרה של בינה מלאכותית במגזר הפרטי;[55] בעוד שהמתווה האמריקאי פונה הן למגזר הפרטי והן למגזר הציבורי.[56]

סיכום

המתווה האמריקאי אינו מהווה מסמך מחייב כשלעצמו אלא בעל תוקף הצהרתי גרידא. זוהי גם עיקר הביקורת המכוונת אליו.[57] בפועל, הוא משאיר את אסדרת הבינה המלאכותית בארצות-הברית כפי שהייתה, וזאת למרות העובדה שהמערכות האלו כבר מהוות תפקיד משמעותי בחייהם של פרטים, בין אם הם אזרחי ארצות-הברית ובין אם לאו. עם זאת, במידה מסוימת, המעבר מרטוריקה של אתיקה לזכויות,[58] מכיר בכך שמערכות בינה מלאכותית אינן מהוות טכנולוגיה "ניטרלית", אלא שיש בכוחן לסכן חירויות וזכויות יסוד. מעבר לקריאה לקובעי מדיניות להיות מודעים לכך ולפעול בהתאם לעקרונות המפורטים במתווה, המתווה עשוי להיות בבחינת סימן לבאות המאותת על שילוב שיח של זכויות אדם ועל מדיניות רגולציה הדוקה יותר בתחום הבינה המלאכותית.


* לקריאת הרשימה ב-PDF *

אזכור הרשימה: עמיר כהנא ודפנה דרור-שפוליאנסקי ״זכויות אדם בבינה מלאכותית? על המתווה האמריקאי למגילת זכויות בבינה מלאכותית ומשמעותו״ אתר משפט ועסקים (18.5.2023) www.runilawreview.org/2023/05/18/cahane-dror-shpoliansky.


* דוקטורנט בפקולטה למשפטים, האוניברסיטה העברית בירושלים; חוקר במרכז לערכים ולמוסדות דמוקרטיים, המכון הישראלי לדמוקרטיה; ועמית מחקר, Three Generations of Digital Human Rights, European Research Council (ERC) Research Project.

** דוקטורנטית בפקולטה למשפטים, האוניברסיטה העברית בירושלים; דוקטורנטית אורחת בפקולטה למשפטים, אוניברסיטת טורונטו; ועמיתת מחקר, Three Generations of Digital Human Rights, European Research Council (ERC) Research Project.

[1] The White House, Office of Science and Technology Policy, Blueprint for an AI Bill of Rights: Making Automated Systems work for the American people (להלן: AI BOR).

[2] שם, בעמ' 2.

[3] שם, בעמ' 3.

[4] U.N. Secretary-General, Extreme Poverty and Human Rights, U.N. Doc. A/74/493 (General Assembly, Oct. 11, 2019).

[5] למשל, באמצעות טכנולוגיות לחיזוי פשיעה המסייעות בהקצאה של משאבי משטרה. ראו Andrew Guthrie Ferguson, Crime Mapping and the Fourth Amendment – Redrawing "High-Crime Areas", 63 Hastings L.J. 179 (2011). כן ראו Andrew G. Ferguson, Policing Predictive Policing, 94 Wash. U. L. Rev. 1109 (2017). להרחבה ראו עמיר כהנא ותהילה שוורץ אלטשולר אדם, מכונה, מדינה: לקראת אסדרה של בינה מלאכותית, חלק 2.3.2 (המכון הישראלי לדמוקרטיה, צפוי להתפרסם ב-2023).

[6] ראו, לדוגמה, את מערכת SyRI ההולנדית – Max Vetzo, The Netherlands-Algorithmic Fraud Detection System Violates Human Rights—The Case of SyRI, 3 Pub. L. 650 (2021). ראו גם גדי פרל ותהילה שוורץ אלטשולר מודל ליצירת שקיפות אלגוריתמית 54–56 (המכון הישראלי לדמוקרטיה 2022).

[7] משפטנים מסתייעים במערכות אלגוריתמיות כדי להעריך את הסתברותן של החלטות שיפוטיות. כך, למשל, חברת ההזנק הקנדית Blue J Legal משתמשת בלמידת מכונה כדי לספק חיזוי של החלטות מיסוי. ראו Benjamin Alarie, Anthony Niblett & Albert H. Yoon, Using Machine Learning to Predict Outcomes in Tax Law, 58 Can. Bus. L.J. 231 (2016); Benjamin Alarie, Anthony Niblett & Albert H. Yoon, How Artificial Intelligence will Affect the Practice of Law, 68 U. Toronto L. J. 106 (2018). נוסף על כך, מדינות ברחבי העולם מתחילות לשקול להיעזר בבינה מלאכותית במלאכת השפיטה. כך, למשל, אסטוניה הכריזה על כוונתה להשתמש בבינה מלאכותית כשופט הדן בתביעות קטנות (שסכומן לא עולה על 7,000 אירו), בכפוף לזכות ערעור על ההחלטה הממוכנת בפני שופט אנושי. Eric Niiler, Can AI Be a Fair Judge in Court? Estonia Thinks So, Wired (March 25, 2019). גם סרביה שוקלת להשתמש בטכנולוגיות דומות. ראו Milica Stojanovic, Serbia Eyes Artificial Intelligence in Courts, but Experts See Dangers, BalkanInsight (Jan. 25, 2021). איגודים מקצועיים בבריטניה וגורמים באקדמיה העלו מספר הצעות להפחתת העומס השיפוטי באמצעות מערכות בינה מלאכותית. ראו Yadong Cui, Artificial Intelligence and Judicial Modernization 23 (2020). להרחבה ראו כהנא ושוורץ אלטשולר, לעיל ה״ש 5.

[8] לסקירות כלליות של מסמכי אתיקה ראו Anna Jobin, Marcello Ienca & Effy Vayena, The Global Landscape of AI Ethics Guidelines, 1 Nature Machine Intelligence 389 (2019); Yi Zeng, Enmeng Lu & Cunqing Huangfu, Linking Artificial Intelligence Principles, arXiv Preprint arXiv:1812.04814 (2019); Thilo Hagendorff, The Ethics of AI Ethics: An Evaluation of Guidelines, 30 Minds & Machines 99 (2020); Jessica Fjeld, Nele Achten, Hannah Hilligoss, Adam Cristopher Nagy & Madhulika Srikumar, Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI (Berkman Klein Center for Internet & Society, Research Publication No. 2020-1, 2020).

[9] AI HLEG, Ethics Guidelines for Trustworthy AI (European Commission, April 8, 2019).

[10] OECD, Recommendation of the Council on Artificial Intelligence, OECD/Legal/0449 (May 22, 2019) (להלן: OECD (2019)).

[11] ועדת משנה של המיזם הלאומי למערכות נבונות בנושא אתיקה ורגולציה של בינה מלאכותית דין וחשבון (נובמבר 2019).

[12] Proposal for a Regulation of the European Parliament and of the Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts, COM (2021) 206 final (April 21, 2021) (להלן: AIA).

[13] Translation: Internet Information Service Algorithmic Recommendation Management Provisions – Effective March 1, 2022, Digichina (Jan.10, 2022). להרחבה על תקנות מערכות ההמלצה האלגוריתמיות הסיניות ראו Gilad Abiri & Xinyu Huang, The People's (Republic) Algorithms, 12 Notre Dame J. Int'l & Comp. L. 17 (2022).

[14] Projeto De Lei Nº 21-A de 2020 (Braz.). לתרגום לאנגלית של ההצעה ראו Walter Gaspar, Non-Official Translation Of The Brazilian Artificial Intelligence Bill, N. 21/2020, CyberBRICS (Oct. 25, 2021).

[15] Directive on Automated Decision-Making (Government of Canada 2019); Bill C-27: An Act to Enact the Consumer Privacy Protection Act, the Personal Information and Data Protection Tribunal Act and the Artificial Intelligence and Data Act and to Make Consequential and Related Amendments to Other Acts 85–100 (1st Sess., 44th Parl., 1st Reading, June 16, 2022).

[16] Algorithmic Accountability Act of 2022, H.R. 6580, 117th Cong. (2nd Sess., 2022).

[17] Maintaining American Leadership in Artificial Intelligence, Exec. Order No. 13859 (2019).

[18] תקציב 2019 של ארצות-הברית התייחס לבינה מלאכותית כאחד מ"תחומי העניין העיקריים" בתחום המחקר והפיתוח. ראו Off. of Mgmt. & Budget, Exec. Off. of the President, Budget of the United States Government, Fiscal Year 2019, 36 (2018).

[19] Memorandum for the Heads of Executive Departments and Agencies, Guidance for Regulation of Artificial Intelligence Applications, Exec. Off. of the President, Off. of Mgmt. & Bud., M-21-06 (Nov. 17, 2020).

[20] Secretary Antony J. Blinken at the National Security Commission on Artificial Intelligence's (NSCAI) Global Emerging Technology Summit, U.S. Department of state (July 13, 2021) (התרגום של המחברים).

[21] AI BOR, לעיל ה"ש 1, בעמ' 4.

[22] Anu Bradford, The Brussels Effect: How the European Union Rules the World 78–81, 131–169 (Oxford Univ. Press 2020); He Li, Lu Yu & Wu He, The Impact of GDPR on Global Technology Development, 22 J. Global Info. Tech. Mgmt. 1 (2019); Cedric Ryngaert & Mistale Taylor, The GDPR as Global Data Protection Regulation?, 114 A. J. Int'l. L. 5 (2020); Graham Greenleaf, Global Data Privacy Laws 2021: Despite COVID Delays, 145 Laws Show GDPR Dominance, 169 Privacy L. & Bus. Int'l Report 1 (2021). לעמדות שונות ביחס להגמוניה העתידית של האסדרה האירופית בתחום הבינה המלאכותית ראו Charlotte Siegmann & Markus Anderljung, The Brussels Effect and Artificial Intelligence: How EU Regulation will Impact the Global AI Market (Centre for the Governance of AI, Aug. 2022); Alex Engler, The EU AI Act will have Global Impact, but a Limited Brussels Effect, Brookings (Jun. 8, 2022).

[23] AI BOR, לעיל ה"ש 1, בעמ' 5–7.

[24] שם, בעמ' 15–22. השוו עם הסקירה של Fjeld, Achten, Hilligoss, Nagy & Srikumar, לעיל ה"ש 8, בעמ' 37. מסמך של ועדת האתיקה הגרמנית למידע מתייחס, בתוך המונח הרחב "ביטחון", להיבטים של אבטחת סייבר, הגנת מידע, בטיחות פיזית ונפשית ולהיתכנות של נזקים קינטיים-ממשיים בשל פעילות מערכות בינה מלאכותית. ראו Opinion of the Data Ethics Commission 45 (Oct. 22, 2020).

[25] AI BOR, לעיל ה"ש 1, בעמ' 23–29. כל (100%) המסמכים שדגמו Fjeld, Achten, Hilligoss, Nagy & Srikumar, לעיל ה"ש 8, וכ-76% מהמסמכים שדגמו Jobin, Lenca & Vayena, לעיל ה"ש 8, מתייחסים להוגנות. השוו ל-AI HLEG, לעיל ה״ש 9, בעמ' 18.

[26] AI BOR, לעיל ה"ש 1, בעמ' 26.

[27] לקוד המוניציפלי המנהלי של העיר ניו-יורק נתווספה לאחרונה הוראה שלפיה השימוש במערכות המקבלות החלטות או המלצות מבוססות אלגוריתמים על העסקת או קידום עובדים יותנה בהליכי בקרת הטיות (bias audit) עצמאיים. ראו N.Y.C. Admin. Code §§ 20-870–20-874. ראו גם Airlie Hilliard et al., Regulating the Robots: NYC Mandates Bias Audits for Ai-Driven Employment Decisions, Holistic AI (2022).

[28] AI BOR, לעיל ה"ש 1, בעמ' 27.

[29] Dafna Dror-Shpoliansky, From Digital Ethics to Human Rights by Design – a Constructive Approach to Incorporate International Human Rights Law in AI Technology (Presented at the European Society of International Law, Aug. 2022) (עותק שמור אצל המחברים).

[30] AI BOR, לעיל ה"ש 1, בעמ' 29.

[31] Cahoo v. SAS Analytics Inc., No. 18-1296 (6th Cir. 2019); Sonia M. Gipson Rankin, The Midas Touch: Atuahene's "Stategraft" and Unregulated Artificial Intelligence, 98 N.Y.U. L. Rev. Online 225 (2023).

[32] Virginia Eubanks, Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor, cha. 4 (2018).

[33] ראו, לדוגמה, State v. Loomis, 881 N.W.2d 749, 754 (Wis. 2016).

[34] AI BOR, לעיל ה"ש 1, בעמ' 30–39. 97% מהמסמכים שדגמו Fjeld, Achten, Hilligoss, Nagy & Srikumar, לעיל ה"ש 8, וכ-56% מהמסמכים שדגמו Jobin, Ienca & Vayena, לעיל ה"ש 8, מתייחסים לפרטיות.

[35] AI BOR, לעיל ה"ש 1, בעמ' 40–45. 94% מהמסמכים שדגמו Fjeld, Achten, Hilligoss, Nagy & Srikumar, לעיל ה"ש 8, וכ-87% מהמסמכים שדגמו Jobin, Ienca & Vayena, לעיל ה"ש 8, מתייחסים לשקיפות. ראו פרל ושוורץ אלטשולר, לעיל ה״ש 6.

[36] על הזכות לאינטראקציה מיודעת עם בינה מלאכותית ראו ס' 52(1) ל-AIA; AI HLEG, לעיל ה"ש 9, בעמ' 18; The Toronto Declaration: Protecting the Right to Equality in Machine Learning, sec. 18 (2018; Deutsche Telekom, Guidelines for Artificial Intelligence, sec. 4 (Nov. 5, 2018).

[37] עקרונות של חירות ואוטונומיה, ובתוכם עקרונות המעמידים את האדם במרכז, נכללים בחלק ממסמכי המדיניות והאתיקה של בינה מלאכותית אשר פורסמו על ידי מדינות שונות בשנים האחרונות. 69% מהמסמכים שדגמו Fjeld, Achten, Hilligoss, Nagy & Srikumar, לעיל ה"ש 8, כוללים התייחסויות להיבטים של שליטה אנושית בטכנולוגיה; וכ-40% מהמסמכים שדגמו Jobin, Ienca & Vayena, לעיל ה"ש 8, מתייחסים לחירות ואוטונומיה.

[38] AI BOR, לעיל ה"ש 1, בעמ' 46.

[39] ס׳ 6 והתוספת השלישית ל-AIA.

[40] ס׳ 8–9 ל-AIA.

[41] Commission Regulation 2016/679 of 27 Apr. 2016, On the Protection of Natural Persons with Regard to the Processing of Personal Data and on the Free Movement of Such Data, and Repealing Directive 95/46/EC (General Data Protection Regulation), 2016 O.J. (L 119) 1, art. 22 (להלן: GDPR). כמו כן ראו Christopher Kuner, Lee A. Bygrave & Christopher Docksey, Background and Evolution of the EU General Data Protection Regulation (GDPR), in The EU General Data Protection Regulation (GDPR) 523–525 (2020).

[42] AI BOR, לעיל ה"ש 1, בעמ' 53.

[43] Anupam Chander, How Law Made Silicon Valley, 63 Emory L J. 639 (2014).

[44] ראו, לדוגמה, AI BOR, לעיל ה"ש 1, בעמ' 1, 2, 31 ו-36.

[45] Harry Surden, Artificial Intelligence and Law: An Overview, 35 Ga. St. U. L. Rev. 1305 (2019).

[46] ראו, לדוגמה, AI BOR, לעיל ה"ש 1, בעמ' 6: "You should know how and why an outcome impacting you was determined by an automated system, including when the automated system is not the sole input determining the outcome".

[47] Human-Centred Values and Fairness (Principle 1.2), OECD.AI Policy Observatory.

[48] ראו Karen Yeung, Andrew Howes & Ganna Porgebna, AI Governance by Human Rights–Centered Design, Deliberation, and Oversight: An End to Ethics Washing, in The Oxford Handbook of Ethics of AI 76 (Markus D. Dubber, Frank Pasquale & Sunit Das eds., Oxford Univ. Press 2020).

[49] Proposal for a Regulation of the European Parliament and of the Council on the Single Market for Digital Services (Digital Services Act) and amending Directive 2000/31/EC, COM (2020) 825 final (Dec. 15, 2020).

[50] European Declaration on Digital Rights and Principles for the Digital Decade (2023).

[51] CAHAI – Ad Hoc Committee on Artificial Intelligence, Council of Europe.

[52] ראו AI HLEG, לעיל ה"ש 9.

[53] מסמך מקצועי: עקרונות מדיניות, רגולציה ואתיקה בתחום הבינה המלאכותית (נספח למסמך המדיניות, משרד המשפטים, ייעוץ וחקיקה, משרד החדשנות המדע והטכנולוגיה 2022).

[54] שם, בעמ' 102–109. עקרונות אלו שואבים את השראתם מהמלצות ה-OECD. ראו שם, בעמ' 103.

[55] שם, בעמ' 16: "מדיניות הרגולציה והאתיקה בתחום הבינה המלאכותית, המוצעת במסמך זה, נועדה להתוות את האופן שבו תבחן הממשלה את השאלה האם יש לקבוע כללי התנהגות לפיתוח ושימוש בבינה מלאכותית במגזר הפרטי ואת האופן לעשות כן. זאת, במטרה לקדם פיתוח ושימוש בטכנולוגיות בינה מלאכותית ואף להפחית חסמים משפטיים ורגולטוריים הניצבים בפניהן, ובד בבד לצמצם פגיעות אפשריות בזכויות יסוד ואינטרסים ציבוריים אגב פיתוח ושימוש בבינה מלאכותית".

[56] AI BOR, לעיל ה"ש 1, בעמ' 8–9.

[57] ראו Khari Johnson, Biden's AI Bill of Rights is Toothless against Big Tech, Wired (Oct. 4, 2022); Eliza Strickland, 6 Reactions to the White House's AI Bill of Rights: The Nonbinding Principles are Being Both Celebrated and Vilified, IEEE Spectrum (Oct. 14, 2022).

[58] The Global AI Index (Tortois). בהקשר זה מעניין לשים לב כי חרף הדירוג הגבוה של ארצות-הברית ושל ישראל באינדקס הבינה המלאכותית הגלובלי (במקומות הראשון והחמישי בהתאמה), שתיהן נשרכות מאחור בקטגוריית האסטרטגיה הממשלתית (במקומות ה-17 וה-45 בהתאמה). ייתכן שפרסום התוכנית למגילת הזכויות בבינה המלאכותית (AI BOR, לעיל ה"ש 1) ומסמך העקרונות למדיניות רגולציה בבינה מלאכותית (מסמך מקצועי: עקרונות מדיניות, רגולציה ואתיקה בתחום הבינה המלאכותית, לעיל ה"ש 53) יחזק את דירוגן באינדקס.

אודות אתר משפט ועסקים

משפט ועסקים הוא כתב העת של בית ספר הארי רדזינר למשפטים, אוניברסיטת רייכמן
פוסט זה פורסם בקטגוריה דרור-שפוליאנסקי דפנה, כהנא עמיר, רשימות, עם התגים , , , , , . אפשר להגיע ישירות לפוסט זה עם קישור ישיר.

תגובה אחת על רשימה: זכויות אדם בבינה מלאכותית? על המתווה האמריקאי למגילת זכויות בבינה מלאכותית ומשמעותו | עמיר כהנא ודפנה דרור-שפוליאנסקי

  1. ייואב דרור הגיב:

    מאמר מעולה שבוהוצג ידע רב בנושא
    שאפו עלייך

כתיבת תגובה