top of page
  • ד״ר טל מימרן

התייחסות – דיון בנושא מערכת איתור חשודים בנמל התעופה בן גוריון (נתב"ג)

אנו מתכבדים להגיש התייחסות לוועדה לקראת הדיון ביחס למערכת האיתור בה נעשה שימוש בנתב"ג. המידע הגלוי בפני הציבור ביחס למערכת, מגיע מפרסומים עיתונאיים,[1] ובזכות עבודתם של גופי חברה אזרחית דוגמת התנועה לחופש המידע.[2] הסיבה לכך, היא כי משטרת ישראל בוחרת לפעול בחסות עננת סודיות המונעת קיום דיון ציבורי פתוח. בהתאם, ישנה חשיבות עצומה לדיון הנוכחי בוועדת חוקה, אשר מאפשר לקיים לראשונה דיון ציבורי שקוף בנושא מערכת שנויה במחלוקת שמעולם לא עמדה למבחן שיפוטי.


מאת ד"ר טל מימרן

חוות דעת עבור ועדת החוקה, חוק ומשפט בראשות חבר הכנסת שמחה רוטמן | 21.05.2023



התייחסות זו לא מתיימרת להקיף את כלל הסוגיות המשפטיות ושיקולי המדיניות העולים מן השימוש במערכת לאיתור נתונים, אלא, נבקש למקד את עמדתנו בפני הוועדה כדלהלן: ראשית, ההכנסה לשימוש וההפעלה של המערכת לאיתור חשודים מעידה על בעיה רוחבית בכל הנוגע לשימוש בטכנולוגיות לשם הפעלת כוח שלטוני, ובפרט כאלו המבוססות על בינה מלאכותית. שנית, המערכת מנציחה ומגבירה את ההסתייעות בפרופיילינג בנתב"ג, שיטה אשר לא הוכחה כיעילה אך פוגעת בזכויות אדם ואולי אף חוטאת למטרה שלשמה היא מיושמת. על כן, שלישית, חשוב לפעול בכדי לקדם הסדרה משמעותית יותר של הכנסה לשימוש של מערכות בינה מלאכותית בישראל, ובנוסף לחזק את הפיקוח הפרלמנטרי על השימוש בטכנולוגיות בשירות משטרת ישראל.


(1) המערכת לאיתור חשודים


ממה שידוע לציבור, ישנה מערכת הכללה ממוחשבת, מבוססת בינה מלאכותית, אשר מופעלת על מנת לאתר בלדרי סמים או עבריינים אחרים. המערכת בונה פרופיל עברייני מסוים, ומנסה לאתר חשודים אפשריים אשר ההתנהלות שלהם תואמת אליו. לא ידוע לנו מהם הקריטריונים אשר על פיהם פועלת המערכת – למשל מקום מגורים, תחום עיסוק, מוצא אתני, קיומו של רישום פלילי או משטרתי ועוד. כמו כן, לא ברור מהיכן נשאב המידע האישי המנותח על ידי המערכת, ובפרט האם הוא מועבר ממאגרים ממשלתיים בלבד או גם מאגרים פרטיים, והאם מדובר במידע אישי שניתנה הסכמה להעברתו.[3] לבסוף, קשה לדעת כיצד המערכת מקבלת החלטות ביחס לנתונים שבפניה, במובן של המשקל של כל פיסת מידע וההיררכיה בין הנתונים.


כאשר אדם מסומן בהתאם למערכת, אשר מייצרת רשימת חשודים המכונה "רשימת ההכללה", הוא יעוכב עם הגעתו לנתב"ג על ידי שוטר, ויעבור חיפוש פיזי או באמצעות מכונת שיקוף. זאת, גם אם אין מידע מודיעיני לפיו מדובר באדם שעבר על החוק. הסיבה לכך, היא כי המערכת לא מתבססת על מאפייניו הפרטניים של הנוסע, אלא מתמקדת במתאם הסתברותי בין קריטריונים מסוימים והיחס ההדדי בינם.[4]


לסיום, ככל הידוע לנו, נעשה לכאורה הליך אישור של המערכת על ידי משרד המשפטים . ועדיין, לא ברור מי היה הגורם המאשר וכיצד הדבר נעשה. עוד לא ברור, מהם הנהלים או ההנחיות המגדירים את אופן הפעלת המערכת, והאם ישנו הליך ביקורת מעת לעת על יעילותה במובן של שיעורי הצלחה.[5]


(2) בינה מלאכותית ללא מגבלות?


קשה לקבל מצב בו אלגוריתם מקבל החלטה על בסיס נתונים שאינם ידועים, דרך הליך קבלת החלטות שאינו גלוי לציבור, ומבלי להסביר מדוע אדם – לעיתים נורמטיבי לחלוטין – צריך להיות מעוכב לחיפוש. ישנו חשש אמיתי של הסתמכות-יתר על המערכת לאיתור חשודים בקבלת ההחלטות, ללא מעורבות אנושית מספקת או יכולת לקבל הסבר על אופן גיבוש המסקנות לגבי חשוד כזה או אחר.[6] חשש נוסף נובע מהעובדה כי ידוע שהטיות ודעות קדומות חברתיות באות לידי ביטוי במסגרת קבלת החלטות אוטומטית או מבוססת אלגוריתם (זאת, מכיוון שהמתכנת "מוריש" תכונות לקוד שהוא כותב).[7]


על רקע זה, נוצרה דרישה להסברתיות (או ל'שקיפות' אלגוריתמית).[8] דרישה זו מזמינה הטלת חובות משפטיות, למשל מתחום המשפט המנהלי, על מנת להגביר את הפיקוח על השימוש בבינה מלאכותית, לחזק את השקיפות בנוגע להפעלת מערכות בינה מלאכותית, ולייצר אחריותיות משמעותית יותר למפעילי בינה מלאכותית (ובמיוחד בתחום כה קריטי לזכויות האדם, כמו ביטחון אישי).


לשם ההשוואה, בטיוטת החוק בנושא בינה מלאכותית המוצעת באיחוד האירופי, מוצע כי תהיה חקיקה נוקשה ביחס למערכות הפועלות על בסיס בינה מלאכותית עם סיכון גבוה, כמו המערכת לאיתור חשודים של נתב"ג.[9] גישה זו מבקשת לקדם באופן מיטבי הגנה על זכויות אדם (כבוד האדם, פרטיות, שוויון ומניעת אפליה, הזכות להליך הוגן ועקרונות כלליים של משפט מנהלי),[10] להגביר את הוודאות המשפטית, לשפר את אפקטיביות האכיפה, וליצור סביבה המאפשרת פיתוח ושימוש במערכות בינה מלאכותית באופן בטוח יותר למשתמשים ולמי שמושפע מן המערכת.[11] בין החובות שהוגדרו, ניתן לציין פיקוח אנושי, בקרת איכות, שמירת מידע, הסברתיות, חובת דיווח על תאונות ותפקוד לקוי של המערכת, וחידוד הצורך בעמידה בדברי חקיקה רלוונטיים להפעלת המערכת.


לא ברור כיצד, ואם בכלל, ישנן דרישות מסוג אלה ביחס למערכת איתור החשודים של נתב"ג. למעשה, אין כרגע בישראל מערכת רגולטורית ברורה המגבירה את האחריותיות ביחס לשימוש באוטומציה, והמחוקק טרם הסדיר מגבלות להכנסה לשימוש של מערכות המבוססות על בינה מלאכותית.


אמנם, לאחרונה פרסם משרד החדשנות מסמך העוסק בעקרונות מדיניות רגולציה ואתיקה בתחום הבינה המלאכותית.[12] ועדיין, מסמך זה בוחר לאמץ גישה של רגולציה רוחבית (בדומה לחקיקה המקודמת באירופה), ובכך הוא מעצים סיכונים חברתיים שונים הכרוכים מהטמעה לא זהירה של בינה מלאכותית. התוצאה, היא מדיניות עמומה ולא קוהרנטית, דבר שהוא בלתי נסבל ביחס למערכות כמו זו שנעשה בה שימוש בנתב"ג, עם השפעה כה משמעותית על זכויות הפרט. הטלת חובות מעבר לרגולציה רכה, ובפרט בהקשר הביטחוני, הכרחית על מנת לחזק את ההגנה על זכויות אדם, להגביר את האמון הציבורי במערכות בינה מלאכותית ובכדי לשפר את יכולת המשילות.


חשוב לציין כי המערכת לאיתור חשודים, גם אם היא מבוססת על בינה מלאכותית לצורך ביצוע חישובים והיסקים ברמת אוטומציה גבוהה, בעצם נבנתה לקבל החלטות, ככל הנראה, על בסיס אותו ההיגיון של שיטת הפרופיילינג, כאשר היא לוקחת את ההיגיון הזה כמה צעדים קדימה באמצעות יכולת גבוהה במיוחד להביא בחשבון נתונים רבים (יותר מאשר בן אנוש), ולקבל החלטה מהירה יותר המבוססת על הערכה סטטיסטית. גם יכולת ההערכה הסטטיסטית של המערכת מדויקת ויעילה יותר משל בני אנוש, עדיין לא הוכח ברמה המחקרית כי יש טעם או ערך בקבלת החלטות בצורה זו. למעשה, כפי שנראה בהמשך, קבלת החלטות על בסיס פרופיילינג דווקא הוכחה כלא יעילה, ויש לה השפעות שליליות ארוכות טווח ברמה החברתית.


 

לקריאה נוספת:




 

(3) הבעיה עם פרופיילינג


חשוב להבהיר, כי גם אם ישנה הצלחה מסוימת בשיטת הפרופיילינג, עליה מתבססת ואותה משכללת המערכת דנן, ישנן השלכות שליליות רבות לשימוש בכלי זה. ראשית, שימוש בשיטה זו מובילה לתחושה של הדרה ופגיעה בכבוד, שוויון והפרטיות של אוכלוסיות אשר מסומנות לשלילה, באופן שעלול למעשה להקשות על יכולת המשטרה להילחם באופן יעיל בעבריינות.[13]


במובן רחב יותר, השימוש בפרופיילינג יכול לגרום לניכור חברתי ולאיבוד אמון במערכת הצדק הפלילי וגם בכך להגביר את היקף הפשיעה.[14] דוגמה לכך, אליה נהוג להתייחס, היא היחס כלפי אוכלוסייה ממוצא ערבי בנתב"ג.[15] הרי, גם אם נעשה שימוש מוצלח בפרופיילינג בגזרה אחת (למשל, מניעת טרור בשדות תעופה), עבריינים יסתגלו לשינוי ויתאימו את דרכי הפעולה שלהם בהתאם (למשל, יפנו תשומת לב לאזורים רגישים אחרים).[16]


על רקע זה, נכון לבחון האם הקצאת משאבי המשטרה נעשתה בצורה יעילה, שכן אפילו אם פרופיילינג מסייע באיתור עבריינים, ייתכן כי ישנה דרך פעולה אחרת – יעילה יותר – אשר ראוי להביא בחשבון.[17] כאשר בית המשפט העליון נדרש להכריע באשר לחוקיות שימוש בפרופיילינג בנתב"ג, עוד בשנת 2007, נמנע זה מהכרעה – מתוך רצון להתחשב בכך שהייתה כוונה לעשות שימוש באמצעים טכנולוגיים חדשים, שימנעו את הצורך בבידוק פומבי של הנוסע. והנה, השנים חלפו, ואמצעים טכנולוגיים מעמיקים את השימוש בפרופיילינג, אך הכרעה בנושא אין בנמצא.


(4) אז מה ניתן לעשות


ראשית, במובן הרחב ביותר, ישנה בעיה עם אסדרה של בינה מלאכותית בישראל במצב הדברים הנוכחי. אמנם, בעוד מסמך העקרונות בנושא מדיניות רגולציה ואתיקה בתחום הבינה המלאכותית הוא התקדמות במובנים של רגולציה,[18] הוא חסר השפעה ביחס למערכת המופעלת בנתב"ג מזה מספר שנים. לגופו של עניין, מסמך העקרונות של משרד החדשנות לא מייצר מגבלות אמיתיות על הפעלת המערכת בנתב"ג, ומכאן ישנה העצמה של סיכונים חברתיים שונים. מצב כזה, המאופיין בעמימות על הפעלת כוח שלטוני, הוא בלתי נסבל ביחס למערכות כמו המערכת לאיתור חשודים בנתב"ג, בשל ההשפעה שלה על זכויות הפרט.


הטלת חובות על הפעלת מערכות בינה מלאכותית, במיוחד ביחס להפעלת כוח שלטוני, הכרחית על מנת להגדיל את ההגנה על זכויות אדם, את האמון הציבורי במערכות הבינה המלאכותית וגם בכדי להגביר את יכולת המשילות. במובן רחב, ראוי לשקול הקמה של מאסדר לאומי בתחום יישומים של בינה מלאכותית בישראל, בדומה לתפקידו של מערך הסייבר הלאומי בהקשר של הגנת הסייבר או פיקוח על יישומים ביומטריים. בנוסף, חיוני להטמיע מתודולוגיית חשיבה אחידה להתמודדות עם הבעיות המשותפות.[19]


שנית, ובפרט ביחס למערכת איתור החשודים, בעוד המערכת אושרה לשימוש על ידי הפרקליטות, ככל הידוע לציבור, לא ברור לנו מה כלל אותו הליך אישור ועל בסיס אילו מדדים נבחנה ההכנסה לשימוש של המערכת. בנוסף, לא ברור האם נעשית ביקורת – אם ברמה הטכנית ואם ברמה המשפטית – באשר להמשך השימוש במערכת. כזכור, גם בית המשפט העליון לא הכריע באשר לרציונל העיקרי המבסס את פעולת המערכת, והוא מדיניות פרופיילינג. בהתאם, תחום נוסף בו דרוש שיפור הוא השדה של הפיקוח על הפעלת מערכות טכנולוגיות על ידי משטרת ישראל.


ראוי לעודד קיום דיונים דוגמת הנוכחי מול ועדת חוקה, אך במתכונת סדורה וכזו המבטיחה חזרה לסוגיה זו מעת לעת. אנו מעודדים כי המחוקק יעשה שימוש בסמכותו החשובה לפקח על הרשות המבצעת, ובפרט על המשטרה במקרה דנן. באופן טבעי, טוב יהיה אם גופים רלוונטיים, דוגמת הרשות להגנת הפרטיות ומערך הסייבר הלאומי, יסייעו וייעצו במסגרת התהליך. המחוקק הישראלי נתון לעומס עבודה משמעותי, אך אירועים מן העת האחרונה (ובפרט פרשת פגסוס-סייפן), לצד הדאגות העולות מהשימוש במערכת איתור החשודים בנתב"ג, מוכיחים כי מדובר בסוגיה חוקית ומוסרית בעלת חשיבות עליונה.


מעבר לקיום דיונים במליאה של ועדת חוקה, ניתן להקים ועדת משנה אשר תעסוק בפיקוח על שימוש בטכנולוגיות על ידי גופי אכיפת החוק בישראל (ובפרט, משטרת ישראל). הדבר יאפשר התמקצעות של חברי הכנסת הרלוונטיים, וגם הגדרה של הליכי עבודה אשר יאפשרו פיקוח משמעותי (למשל, דיונים מסוימים בדלתיים סגורות, כפי שנעשה ביחס לוועדת המשנה לבחינת פרשת פגסוס-סייפן). מבחינה מעשית, אנו מציעים כי הפיקוח יתמקד, בין היתר, בסוגיות הבאות אשר רלוונטיות גם לדיון הנוכחי:


- כיצד נתקבלה ההחלטה להכניס לשימוש את המערכת לאיתור חשודים, ובהתבסס על אילו שיקולים.

- עד כמה נסמך הליך קבלת ההחלטות במערכת על הרציונל של פרופיילינג, ומהן הנחות היסוד אשר משפיעות על קבלת ההחלטות של המערכת (למשל, ביחס לאוכלוסיות מסוימות).

- מהם שיעורי ההצלחה של המערכת, והאם ניתן לעמוד על יעילותה מבחינה מבצעית.

- בחינת השלכות אפשריות של השימוש במערכת (למשל, במישור החברתי או ביחס לדפוסי פשיעה).[20]

- בחינה של הליך קבלת ההחלטות האלגוריתמי, ובפרט האם ניתן להסביר את קבלת ההחלטות של המערכת.[21]

אגב כך, חשוב לשאוף להדק את ההגנה על פרטיות אזרחי ישראל, ולשלב נקודות התערבות אנושית על מנת לצמצם טעויות ולהימנע מקבלת החלטות המבוססת על הטיות של המערכת.[22]


(5) סיכום


אנו עומדים בפני דיון ציבורי תקדימי ביחס למערכת לאיתור חשודים של נתב"ג. במבט רחב, השימוש בבינה מלאכותית משפיע עמוקות על החברה בה אנו חיים –ביחס לאגירת מידע על משתמשים והשפעה על דעת הקהל, השפעה ושליטה על במות ביטוי עיקריות, וכן, כמובן, מערבותה של בינה מלאכותית בהליכי קבלת החלטות אשר יכולים להוביל לפגיעה בזכויות יסוד. אי אסדרה מספקת של הכנסה לשימוש, והפעלה של מערכות המבוססות בינה מלאכותית, יובילו לגרעון דמוקרטי, לפגיעה שלטון החוק ובזכויות הפרט. ראוי לשקול הקמה של מאסדר לאומי בנושא, ולהגדיר מתודולוגיה להערכת סיכונים של מערכות המבוססות על בינה מלאכותית.


בפרט, המערכת לאיתור חשודים של נתב"ג מעידה על האתגר של הכנסה לשימוש של טכנולוגיות על ידי המשטרה, גם במובן של פיקוח מראש וגם במובן של פיקוח בדיעבד. בהתאם, הדיון הנוכחי בוועדת חוקה חשוב באופן בלתי רגיל, ומראה כי ישנו צורך בפיקוח פרלמנטרי על טכנולוגיות בשימוש המשטרה. אנו מציעים כי המחוקק יעשה שימוש תדיר יותר בסמכותו לפקח על המשטרה ביחס להפעלת המערכת לאיתור חשודים, כמו גם טכנולוגיות אחרות אשר ברשותה, בסיוע גופים רלוונטיים כגון הרשות להגנת הפרטיות ומערך הסייבר הלאומי.


בברכה,

ד"ר טל מימרן

ראש תכנית, האמנה חברתית בעידן הדיגיטלי

מכון תכלית למדיניות ישראלית



ד"ר טל מימרן

הוא ראש תוכנית "אמנה חברתית לעידן הדיגיטלי" במכון תַּכְלִית, חוקר ומרצה בתחומי המשפט הבינלאומי והסייבר.




לקריאת חוות הדעת במקור >>


חוות דעת עבור ועדת חוקה_תכלית
.pdf
הורידו את PDF • 209KB


[1]תומר גנון, האלגוריתם שיעצור אתכם בנחיתה בנתב"ג, כלכליסט (10.11.2022), https://newmedia.calcalist.co.il/magazine-10-11-22/m02.html.

[2] התנועה לחופש המידע, המשטרה מסרבת למסור מידע על מערכת הפרופיילינג שהיא מפעילה בנתב"ג (14 בדצמבר, 2022), https://www.meida.org.il/13800.

[3] ביקורת בנושא שיתוף במידע בין רשויות, לעיתים ללא הליכים מוסדרים או הסמכה חוקית לעשות כן, הוצגה בעבר על ידי הממונה על יישומים ביומטריים מטעם מערך הסייבר. ר' הממונה על היישומים הביומטריים, דו"ח מספר 12 (18 במאי, 2022).

[4] ר', לשם ההשוואה, בג"ץ 4797/07 האגודה לזכויות האזרח נ' רשות שדות התעופה (החלטה מיום 22.5.2012).

[5] המשטרה סירבה למסור מידע לגבי השאלות הללו, בתשובה לבקשה של התנועה לחופש המידע. התנועה לחופש המידע, המשטרה מסרבת למסור מידע על מערכת הפרופיילינג שהיא מפעילה בנתב"ג (14 בדצמבר, 2022), https://www.meida.org.il/13800.

[6] Zana Buçinca, Maja Barbara Malaya, and Krzysztof Z. Gajos, To Trust or to Think: Cognitive Forcing Functions Can Reduce Overreliance on AI in AI-assisted Decision-making Proceedings ACM Hum.-Comput. Interact. Vol.5, 188, pp.188:4-5 (April 2021)..

[7] ר' למשל גדי פרל, האלגוריתם של המשטרה בנתב"ג חייב להיות שקוף לציבור, כלכליסט (15.12.2022), https://www.calcalist.co.il/local_news/article/sytgrqooj ("תוכנה היא יציר סובייקטיבי שמשקף את הערכים של המתכנת ואת המידע שהזינו לתוך התוכנה... תוכנה שלמדה רק מפרצופים אירופאים לא תדע לזהות סינים, ותוכנה שלמדה לזהות חתולים לא תדע לזהות כלבים. לענייננו - תוכנה שלמדה משוטר איך לאכוף, רק תטמיע את הדפוסים של השוטר. אם הוא היה גזען, גם היא תהיה.").

[8] Nagy Adam, Hilligoss Hannah, Achten Nele, Fjeld Jessica, Srikumar Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI Berkman Klein Center for Internet & Society (2020)..

[9] EU Commission, Proposal for a Regulation of the European Parliament and of the Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union Legislative Acts, Brussels 21.04.21, COM(20221) 206 Final, p.9 https://eur-lex.europa.eu/.

[10] שם, 11.

[11] שם, 3.

[12] עקרונות מדיניות, רגולציה ואתיקה בתחום הבינה המלאכותית (משרד החדשנות, המדע והטכנולוגיה, משרד המשפטים).

[13] Badi Hasisi, Yoram Magalioth, and Liav Orgad, Ethnic Profiling In Airport Screening: Lessons from Israel 1968-2010, 14 Am. L. & Econ. Rev.517 (2002) . ר' גם Nicola G.Persico & Petra Todd, Passenger Profiling, Imperfect Screening, and Airport Security (January 12, 2005), https://ssrn.com/abstract=651881.

[14] ר' למשל Bernard E. Harcourt, The Shaping of Chance: Actuarial Models and Criminal Profiling at the Turn of the Twenty-First Century, 70 U. Chi. L. Rev. 105 (2003).

[15] ברק מדינה ואילן סבן, אזרח ערבי כחשוד תמידי – פרופיילינג בשדות התעופה, בלוג המרצים למשפטים באוניברסיטת חיפה (http://haifalawfaculty.blogspot.co.il/2008/03/blog-post_29.html.

[16] Bernard E. Harcourt, Muslim Profiles Post 9/11: Is Racial Profiling an Effective Counterterrorist Measure and Does it Violate the Right to be Free from Discrimination?, inSecurity and Human Rights 73 (Benjamin Goold & Liora Lazarus, eds., 2006)).

[17] למעשה, יש הטוענים כי גם אם הוכח ששימוש בפרופיילינג יעיל, ישנם שיקולים אחרים – ובפרט הגנה על זכויות הפרט. כך, ראוי ליישם מדיניות בידוק אחידה, גם אם זו הוכחה כפחות יעילה, בשם הרצון לקדם ערכים של שוויון, כבוד האדם ופרטיות. להרחבה, ר' ברק מדינה, שמירה על ביטחון הציבור: הפליה היא אסורה גם אם היא יעילה, המשפט ברשת 17, 2013.

[18] עקרונות מדיניות, רגולציה ואתיקה בתחום הבינה המלאכותית (משרד החדשנות, המדע והטכנולוגיה, משרד המשפטים).

[19] ר' לדוגמה Rebecca Crootof & BJ Ard, Structuring Tachlaw, 34 Harv. J. L. Tech. 348 (2021). המאמר מציע מסגרת אנליטית לבחינת ההשפעה המשבשת של הטכנולוגיה על ענפי משפט מושפעים ועל הגישה הרגולטורית והמשטרים הרגולטורים המסדירים אותה, אשר ניתן ליישם ולהפעיל ביחס ליישומי בינה מלאכותית. החידוש במסגרת המוצעת שהפך אותה למרכזית בשיח המחקרי טמון בכך שאינה לוקחת כמובן מאליו את ההנחה שטכנולוגיה חדשה מייצרת צורך קבוע לעדכון הדין. במקום זאת, היא מציעה להתמקד בעמימות המשפטית, נורמטיבית או מוסדית שהטכנולוגיה מייצרת ומתוכה להבין מהי הגישה המטא-רגולטורית הנכונה וכיצד הדין והמשטר הרגולטורי צריכים להגיב.

[20] Bernard E. Harcourt, Muslim Profiles Post 9/11: Is Racial Profiling an Effective Counterterrorist Measure and Does it Violate the Right to be Free from Discrimination?, inSecurity and Human Rights 73 (Benjamin Goold & Liora Lazarus, eds., 2006)).

[21] עמיר כהנא ודפנה דרור-שפוליאנסקי ״זכויות אדם בבינה מלאכותית? על המתווה האמריקאי למגילת זכויות בבינה מלאכותית ומשמעותו״ אתר משפט ועסקים (18.5.2023).

[22] להרחבה, ר' גדי פרל ותהילה שוורץ אלטשולר, מודל ליצירת שקיפות אלגוריתמית (המכון הישראלי לדמוקרטיה, 2022).




bottom of page