top of page
  • גל דהן

הצעת הרגולציה של האיחוד האירופי בתחום הבינה המלאכותית – Artificial Intelligence Act

ב-14 ביוני, 2023 פרסם הפרלמנט האירופאי גרסה מעודכנת של הצעת החוק לאימוץ מדיניות רגולציה בתחום הבינה המלאכותית.[1] זהו המאמץ החקיקתי המקיף הראשון בעולם לאסדרת הבינה המלאכותית,[2] ובו ניסיון למקסם ולאזן בין הערכים החברתיים השונים המושפעים מהאצת הפיתוח של בינה מלאכותית, לרבות: בטיחות השימוש; הגברת הוודאות המשפטית של מפתחים ומשקיעים; יצירת תנאים המקלים על פיתוחים וחדשנות; ופריסת רשת הגנה יעילה על זכויות הפרט.[3] החקיקה האירופאית צפויה להיות בעלת השפעה על השוק הגלובאלי, לרבות בישראל, ויכולה להוות השראה למהלך רגולטורי בישראל. בנוסף, צפויה להיות לה השפעה ישירה על חברות ישראליות הפועלות מול השוק האירופאי. בשל חשיבות הצעת האיחוד האירופי בנושא, מביא מכון תכלית עדכון זה הסוקר את עיקרי ההצעה המעודכנת.


גל דהן | ד״ר טל מימרן


הצעת הרגולציה של האיחוד האירופי בתחום הבינה המלאכותית – Artificial Intelligence Act
.pdf
הורידו את PDF • 2.31MB


  • הצעת הרגולציה המעודכנת התקבלה על-ידי הפרלמנט האירופי, וצפויה כעת להיכנס לשלבי החקיקה הסופיים הכוללים משא ומתן בין הגופים השונים באיחוד האירופי – הפרלמנט האירופי, הנציבות האירופית והמועצה של האיחוד האירופי.

  • החקיקה המוצעת מציגה משטר רגולטורי מקיף וחובק כל המבוסס על תפיסת ניהול סיכונים, שבה מותאמת עוצמת הרגולציה לרמת הסיכון הנשקפת לזכויות יסוד ולבטיחות המשתמשים. ככל שקיים סיכון גבוה יותר ביישום העושה שימוש בבינה מלאכותית מתרבות החובות הרגולטוריות על המפתחים של הטכנולוגיה ומפעיליה. נוסף לכך, ההצעה מקימה מוסדות פיקוח הן ברמה המדינתית והן ברמת כלל האיחוד האירופי.

  • קיים פער בין הגישה המקודמת באירופה לבין התפיסה העולה ממסמך המדיניות הראשונה שניסח משרד החדשנות, המדע והטכנולוגיה בשנה האחרונה. מכון תכלית מציע שורה של המלצות במטרה לגשר בין הגישה הישראלית ובין הגישה העולה מהצעת הרגולציה של האיחוד האירופי.


א. רקע


הצעת הרגולציה של האיחוד האירופי מציגה מדיניות ומסגרת משפטית הכוללת הסדרה רוחבית בחקיקה של טכנולוגיות הבינה המלאכותית, באופן שהיא מגדירה את תפיסת ניהול הסיכונים הכוללת, את התבחינים לדרישות הרגולטוריות, ואת הדרישות הרגולטוריות. הגישה הרגולטורית המאומצת בה היא רגולציה מבוססת סיכון: יצירת משטר רגולטורי מקיף וחובק כל הקובע פרמטרים לפיהם ככל שמתגברים הסיכונים החברתיים משימוש ביישום הבינה המלאכותית בשדה מסויים (לדוגמה: מערכות דירוג אשראי, כלי רכב אוטונומיים), כך מתחזקות החובות הרגולטוריות על המפתחים של הטכנולוגיה ומפעיליה.


להלן נציג את המודל הרגולטורי הבסיסי, את החלוקה שעורכת הצעת הרגולציה בין תחומי שימוש שונים והחובות שחלות עליהם, ואת המוסדות והמנגנונים המוצעים לאכיפת הרגולציה והטמעתה.


קודם לכן, ההצעה מספקת הגדרות ברורות של הטכנולוגיה והגופים אשר עתידים להיות כפופים לרגולציה. על מנת להבין לעומק את המדיניות המוצעת באיחוד האירופי, חשוב להתעכב לרגע על ההגדרות העומדות בבסיסו.


הצעת הרגולציה פותחת ברשימה ארוכה של הגדרות הכוללות, בין היתר, הגדרה של מיהו ספק מערכות בינה מלאכותית, מיהו משתמש במערכות בינה מלאכותית וכן מי ייחשב כיבואן של מערכות אלו.[4] ואולם, החשובה מבין כל ההגדרות האלו היא ההגדרה המוצעת למונח מערכות בינה מלאכותית. הרי, הגדרה זו משפיעה על היקף התחולה של הוראות האסדרה – הגדרה צרה תביא לתת-תחולה של הוראות הרגולציה על סוגים מסוימים של מערכות בינה מלאכותית, ואילו הגדרה כוללנית יותר עלולה להביא לתחולת-יתר של הוראות הרגולציה על טכנולוגיות אשר לא בהכרח מייצרות סיכונים הדורשים התמודדות מיוחדת.


בגרסה העדכנית ביותר אשר קודמה על-ידי הפרלמנט של האיחוד האירופי, הוגדרה מערכת הבינה המלאכותית כמערכת מבוססת מכונה שתוכננה לפעול ברמות שונות של אוטונומיה וביכולתה לייצר פלטים מסוימים אשר משפיעים על הסביבה הפיזית או הווירטואלית כמו תחזיות, המלצות או החלטות.[5] הגדרה זו רחבה בהשוואה להגדרה שהופיעה בהצעה המקורית אשר צמצמה את תחולת הרגולציה, בין היתר, על סוגי טכנולוגיה מסוימים שנכללו ברשימה בנספח הראשון להצעה, דוגמת טכנולוגיות למידת מכונה וטכנולוגיות המבוססות על לוגיקה, ידע או גישות סטטיסטיות.[6] דומה כי בבסיס הרחבת ההגדרה של מערכות בינה מלאכותית, עומד הרצון של הפרלמנט האירופי להביא לתחולה רחבה יותר של הוראות הרגולציה. זאת, בכדי להרחיב את רשת ההגנה שנועדה למנוע פגיעה בביטחון, בבריאות ובחירויות יסוד של הפרט.


ב. גישת אסדרה מבוססת סיכונים


במטרה לאזן בין החששות מפגיעה בחירויות יסוד ובבטיחות המשתמשים ובין הצורך בעידוד חדשנות בתחום הבינה המלאכותית, ההצעה מציגה שיטת אסדרה המבוססת על תפיסת ניהול סיכונים, שבה יש התאמה בין עומק הרגולציה ובין רמת הסיכון הנשקפת לזכויות יסוד ולבטיחות. ההצעה מבחינה בין מערכות בינה מלאכותית המטילות סיכונים בלתי מתקבלים על הדעת ולכן יהיו אסורות לשימוש והפצה; מערכות בינה מלאכותית המאופיינות כבעלות סיכון גבוה ומשכך יהיו מותרות לשימוש והפצה בכפוף לסדרת דרישות רגולטוריות; מערכות בינה מלאכותית המציגות רק סיכון מוגבל ואשר יהיו כפופות לחובות שקיפות בלבד. כפי שניתן לראות באיור הבא:



בניגוד לגישת האסדרה העולה מהצעת הרגולציה של האיחוד האירופי, המדיניות המשתקפת בישראל ממסמך העקרונות של משרד החדשנות היא שאין לקדם חקיקת מסגרת רגולטורית רוחבית על כל תחום הבינה המלאכותית וכי הרגולטורים השונים יידרשו לבחון את הצורך בקידום רגולציה קונקרטית בתחומם.[7] מסמך העקרונות של משרד החדשנות מצביע על מספר הצדקות באשר לגישה רגולטורית ענפית זו, וביניהן הקושי בקביעת רגולציה כוללנית שתתאים באופן מספק למאפיינים של כל שימוש ותציע מענה רחב לסוגים שונים של מערכות, וכן החשש מהליך ממושך, בפרט אם מדיניות זו תדרוש עיגון בחקיקה – דבר העלול להביא לכך שבמועד סיומו, התוצאה לא תענה לצרכים הקיימים, או תגרום לקיבוע תוצאות המשקפות את המציאות הטכנולוגית והחברתית הקיימת בשלב מסוים.[8].


עתה, נעמוד על כל סוגי מערכות הבינה המלאכותית אשר מוצעים במסגרת הצעת הרגולציה של האיחוד האירופי, וזאת תוך הצגת הדרישות הרגולטוריות שמקימה ההצעה.


ב.1. מערכות בינה מלאכותית המטילות סיכון בלתי מתקבל על הדעת


על מנת להציב גבולות גזרה ליכולת לפתח בינה מלאכותית, ובשל ההבנה כי מרחב פעולה חסר בקרה עלול לפגוע אנושות בחירויות הפרט, הצעת הרגולציה כוללת רשימה של שמונה סוגים שונים של מערכות בינה מלאכותית מזיקות במיוחד מסוג זה אשר מאיימות על בטחון וזכויות הפרט, ומשכך מוגדרות כבעלות סיכון בלתי מתקבל על הדעת. בהתאם להצעה, ההפצה, ההפעלה והשימוש במערכות אלו יהא אסור.[9] להלן נעמוד על שמונת הסוגים השונים של המערכות אשר נופלות תחת קטגוריה זו:

להלן נעמוד על שמונת הסוגים השונים של המערכות אשר נופלות תחת קטגוריה זו:


א. מערכות בינה מלאכותית שפורסות טכניקות תת-הכרתיות מניפולטיביות מזיקות. במילים אחרות, המדובר בטכנולוגיות אשר מחדירות מסרים לתודעתו של הפרט, מבלי שהפרט מודע להחדרת מסרים אלו – במטרה לשנות את התנהגות הפרט באופן אשר עלול לגרום לנזק פיזי או נפשי.[10] זאת, למעט מערכות שנועדו לשמש למטרות טיפוליות בכפוף למתן הסכמה מדעת, מצד הנחשפים אליהן, לשימוש במערכות אלו.[11]


ב. מערכות בינה מלאכותית אשר מכוונות לניצול של קבוצות מסוימות (למשל בעלי מוגבלות פיזית או נפשית).[12]


ג. מערכות סיווג ביומטריות המסווגות אנשים לפי מאפיינים מסוימים, וזאת למעט מערכות שנועדו לשמש למטרות טיפוליות בכפוף לקבלת הסכמה מדעת לשימוש בהן, מצד האנשים הנחשפים אליהן. [13]


ד. מערכות בינה מלאכותית המשמשות לצורך דירוג חברתי והערכה אישיותית או התנהגותית של פרטים.[14]


ה.מערכות בינה מלאכותית המשמשות לצורך הערכה לביצוע עבירות פליליות על-ידי אנשים, אשר מבוססות על פרופיילינג, והמעריכות תכונות ומאפייני אופי, לרבות מיקומו של אדם וכן עבר פלילי.[15]


ו. מערכות בינה מלאכותית המייצרות מאגר נתונים של זיהוי פנים באמצעות צילומי פנים שנאספו מן האינטרנט או באמצעות מצלמות אבטחה.[16]


ז. מערכות בינה מלאכותית אשר מטרת פעולתן היא להסיק מסקנות בנוגע לרגשות של אנשים, וזאת לצרכי אכיפת חוק, ניהול גבולות, לשימוש במקום העבודה או במוסדות חינוך.[17]


ח. מערכות בינה מלאכותית המשמשות לניתוח צילומים מוקלטים ממרחבים ציבוריים באמצעות מערכות זיהוי ביומטריות.[18] כן חשוב לציין כי מערכות מסוג זה לא יסווגו כמערכות בעלות סיכונים בלתי מתקבלים על הדעת, אם יקבלו אישור שיפוטי בהתאם לחוקי האיחוד האירופי, והשימוש בהן יהא הכרחי לצורך עריכת חיפוש שקשור בסוגים מסוימים של עבירות פליליות.[19]

נראה כי בבסיס הקביעה אילו מערכות יסווגו כבעלות סיכונים בלתי מתקבלים על הדעת, עומד החשש בדבר הפגיעה הצפויה ממערכות אלו, בין היתר בחירויות יסוד דוגמת הזכות לפרטיות והזכות לשוויון. בהתאם, מוצע כי הפצתן, הפעלתן והשימוש בהן ייאסר בתחומי האיחוד האירופי.


ב.2. מערכות בינה מלאכותית המטילות סיכון גבוה


תחילה, נפתח בהגדרות המצויות בהצעה לצורך סיווג מערכות בינה מלאכותית כמערכות המטילות סיכון גבוה, ולאחר מכן נעמוד על הדרישות הרגולטוריות שנקבעו עבור מערכות מסוג זה, תוך הבחנה בין מפתחים, ספקים ומשתמשים. רק עמידה בדרישות אלו תאפשר את ההפצה, ההפעלה והשימוש במערכות מסוג זה.


ההצעה מעגנת שתי הגדרות מרכזיות עבור מערכות בינה מלאכותית בעלות סיכון גבוה: הגדרת סל רחבה, ורשימה מפורטת של מערכות המנויות במפורש בנספח השלישי של ההצעה: ראשית, הגדרת הסל כוללת שתי חלופות: 1) מערכת בינה מלאכותית תסווג כבעלת סיכון גבוה אם היא משמשת כרכיב בטיחות של מוצר מסוים דוגמת מנגנוני בינה מלאכותית למניעת תאונות ברכבים אוטונומיים ומוצרי בטיחות מבוססי בינה מלאכותית בצעצועים; 2) מוצרים מבוססי בינה מלאכותית הנופלים תחת חקיקת האיחוד האירופי המנויה בנספח השני להצעה דוגמת חוקים הנוגעים לצעצועים ומכשור רפואי, יסווגו אף הם כמערכות המטילות סיכון גבוה.[20]


שנית, רשימת מערכות הבינה המלאכותית המנויות בנספח השלישי להצעה מוגדרות כמערכות בעלות סיכון גבוה, אם הן נופלות תחת אחד מן המקרים המפורטים בנספח השלישי, ולכך נוספה הדרישה כי המערכת הספציפית שנבחנת תטיל סיכון משמעותי לפגיעה בבריאות, בטיחות או בחירויות יסוד של הפרט.[21] הרשימה שבנספח השלישי כוללת את המקרים הבאים:


  • מערכות זיהוי ביומטרי וקטגוריזציה של אנשים;

  • ניהול ותפעול של תשתיות קריטיות;

  • חינוך והכשרה מקצועית;

  • תעסוקה, ניהול עובדים וגישה לעצמאים;

  • גישה והנאה משירותים פרטיים חיוניים ומשירותים והטבות ציבוריות;

  • אכיפת חוק;

  • הגירה, מקלט וביקורת גבולות;

  • ניהול צדק והליכים דמוקרטיים.

ראוי לציין כי סיווג זה אינו סוף הדרך עבור הספקים, וההצעה אימצה מעין מסלול ערעורי עבורם אשר במסגרתו, ספקים הסבורים שהמערכת שבידם אינה מטילה סיכון משמעותי לפגיעה בבריאות, בבטיחות או בחירויות היסוד של הפרט, רשאים לפנות לרשות הפיקוח המדינתית, אשר על תפקידיה נעמוד בהמשך, ולשטוח את טענותיהם בנושא זה.[22] אם כן, נראה כי בסיווג של מערכות בינה מלאכותית כמערכות המטילות סיכון גבוה, ניסה המחוקק האירופי לאזן נכונה בין שמירה על הפרט בשימוש בטכנולוגיה, מול האתגרים שמעלה השימוש במערכות בינה מלאכותית המטילות סיכון לפגיעה בבטיחות, בבריאות ובחירויות יסוד של הפרט, ובין הרצון לעודד את הפיתוח והשימוש במערכות אלו ולהפיק את התועלות החברתיות והכלכליות הנובעות מכך. בנסיבות אלו, כזכור, מערכות שיסווגו כבעלות סיכון גבוה יותרו להפצה, הפעלה ושימוש אך בכפוף לדרישות רגולטוריות משמעותיות, כפי שיפורט להלן.


דרישות רגולטוריות עבור מערכות בינה מלאכותית בסיכון גבוה


כל מערכות הבינה המלאכותית אשר מוגדרות בסיכון גבוה יהיו כפופות לדרישות רגולטוריות שונות ועליהן נעמוד כעת תוך הבחנה בין מפתחים, ספקים ומשתמשים.


חובות רגולטוריות הנוגעות לפיתוח ועיצוב המערכות: מתוך הכרה בחשיבות החדשנות, ובמטרה למנוע את הסיכונים האמורים עוד בשלב הפיתוח וטרם הפצת המערכת לקהל המשתמשים, כמו גם נוכח הרצון לצמצם את הסכנות אשר עלולות להתעורר במהלך השימוש במערכת בינה מלאכותית, הצעת הרגולציה מכפיפה את המפתחים של מערכות בינה מלאכותית בסיכון גבוה לשורת חובות רגולטוריות.


למשל, מפתחים של מערכות בינה מלאכותית בסיכון גבוה מחויבים, על פי ההצעה, לעצב מערכות אלו בצורה כזו שתבטיח כי פעולתן תהא שקופה, באופן אשר יאפשר למשתמשים להבין את פעילות ותפקוד המערכת.[23] דרישה זו נועדה להתמודד עם העובדה לפיה מערכות בינה מלאכותית אינן ניתנות להסברה. אכן, אופן האימון של מערכות בינה מלאכותית הוא כזה אשר מוביל לכך שהמערכת מעין "כותבת את עצמה". תופעה זו מתוארת כתופעת "הקופסה השחורה" (Black-Box), והיא מתארת מצב בו המידע המוזן למערכת ידוע, וכך גם התוצאה אליה הגיעה המערכת, אך דרך פעולת המערכת הפנימית אינה ידועה למי שמושפע ממנה, או אף אינה ניתנת להבנה.[24] נוכח קושי זה והשלכותיו, ההצעה מעמידה את הדרישה האמורה, ולצדה אף מחייבת את המפתחים לספק הוראות שימוש מתאימות שילוו את המערכת, אשר יכילו מידע תמציתי, ברור ונגיש דוגמת מטרת המערכת, רמת הדיוק ואבטחת הסייבר שלה.[25]


לכך יש להוסיף את הדרישה כי המפתחים יערכו תיעוד מתמשך במטרה לעקוב באופן מתמיד אחר עמידה בדרישות הרגולטוריות של המערכת אשר מוגדרת בסיכון גבוה, [26]וכן את הדרישה מהמפתחים לעצב מערכות מסוג זה באופן שיאפשר פיקוח אנושי עליהן.[27] כמו כן, נדרשים המפתחים לעצב את המערכת באופן כזה שיביא לידי דיוק ואבטחת סייבר לאורך כל מחזור החיים של המערכת,[28] ועליהם אף לעצב את המערכת להתמודד עם תקלות, טעויות או ניסיונות של צדדים שלישיים לשנות את פעילות המערכת ולנצל את חולשותיה לרעה.[29]


חובות הנוגעות לספקים במערכות בינה מלאכותית בסיכון גבוה: נוסף לחובות הנוגעות למפתחים של מערכות בינה מלאכותית בסיכון גבוה, ההצעה אף מקימה שורה של חובות הנוגעות לספקים של מערכות אלו. זאת, כאמור, מתוך הרצון לצמצם את החשש לפגיעה בביטחון, בבריאות ובחירויות היסוד של הפרט, ולמול הצורך בעידוד חדשנות בשוק האירופי.


טרם הפצת המערכת לשוק האירופי, המפתחים נדרשים להעביר את המערכת הליך הערכה והתאמה שיבוצע על-ידי גופים מיוחדים להערכה שכזו.[30] יתרה מזו, עליהם להוסיף לצד המערכת את שם הספק, כתובתו ופרטי יצירת קשר לצד המערכת,[31] וכן להוסיף סימון בסימן CE עבור כל המערכות אשר עברו בהצלחה את הליך ההתאמה האמור.[32] לצד כל זאת, הספקים נדרשים להעמיד טכנולוגיות שונות אשר יעקבו ויתעדו את פעילות מערכת הבינה המלאכותית, גם לאחר הפצתה לשוק, וזאת כדי להבטיח כי המערכת תעמוד בדרישות הרגולציה. טכנולוגיות אלו יאספו, ינתחו ויתעדו נתונים מסוימים על ביצועי המערכת בצורה שיטתית, וזאת, כאמור, במטרה לאפשר לספק להעריך האם המערכת עדיין עומדת בדרישות הרגולטוריות, גם לאחר הפצתה.[33]

כפי שניתן לראות, החובות אשר חלות על המפתחים נוגעות בעיקרן לבדיקה קפדנית טרם הפצת המערכת לשוק האירופי, וכן לצורך מעקב מתמשך בכל הנוגע לפעילות המערכת ולשם וידוא כי המערכת שברשותם אכן עומדת בדרישות הרגולטוריות גם לאחר הפצתה לשימוש. כל זאת, בכדי לאזן באופן ראוי בין שמירה על הפרט בעת השימוש בטכנולוגיה ובין הצורך בקידום חדשנות בשוק האירופי והיעילות הכלכלית והחברתית שתצמח מקיומן של מערכות מסוג זה.

חובות הנוגעות למשתמשים במערכות בינה מלאכותית בסיכון גבוה: בניגוד לעמדת ההצעה באשר לחובותיהם של מפתחי וספקי מערכות בינה מלאכותיות המסווגות בסיכון גבוה, ההצעה מקימה מספר חובות בלבד עבור המשתמשים במערכות מסוג זה. זאת, בשל העובדה כי מרבית הסכנות מצויות בתחום אחריות המפתחים והספקים. בין חובות אלו, ניתן למצוא את הדרישה מן המשתמשים לפעול בהתאם להוראות השימוש הנלוות שצורפו כאמור על-ידי המפתח לצד המערכת.[34] כמו כן, מקום בו המשתמש מזין נתונים מסוימים למערכת בינה מלאכותית בסיכון גבוה, הוא נדרש לוודא כי נתונים אלו רלוונטיים למערכת הספציפית, בראי המטרה של המערכת בה הוא עושה שימוש.[35]


תרשים ב׳ מפרט את עיקרי הדרישות הרגולטוריות ביחס לבעלי העניין השונים המעורבים בשימוש בטכנולוגיה.


לשם ההשוואה, ראוי לציין כי בהתאם לגישה הישראלית שהוצגה במסמך עקרונות המדיניות, ובניגוד להצעת הרגולציה של האיחוד האירופי, הוצע לבחון שימוש בכלי רגולציה "רכים" ומתקדמים, כגון עקרונות אתיים לתחום הבינה המלאכותית, תקינה, המלצות רגולטור לאימוץ וולונטרי ורגולציה עצמית. זאת, על מנת לעודד חדשנות תחת נכונות וולונטרית לפעילות אחראית ושימת עין מצד הרגולטור והממשלה. לדוגמה, דרך אפשרית במקרים המתאימים לכך היא רגולציה עצמית (Self-Regulation), שמשמעותה העברת האחריות לפיתוח כללי ההתנהגות והוכחה על עמידה בהם למפתחי המערכת או לגורמים אחרים בתעשייה, לעיתים תוך שמירה על פיקוח שלטוני ברמות משתנות (Enforced Self-Regulation). בין היתר, רגולציה עצמית יכולה להיות בלתי מפוקחת ולמעשה "להיאכף" על ידי הגוף שאימץ אותה ביחס לעצמו באופן וולונטרי.[36] היתרון המרכזי לשימוש ברגולציה עצמית, כפי שצוין במסמך העקרונות, הוא שחלק מפערי המידע והמומחיות בין הרגולטור למפוקחים נפתרים משום שהתעשייה נושאת בחלק מהאחריות להסדרת הפעילות בתחום.[37]

ב.3 מערכות בינה מלאכותית המטילות סיכון מוגבל


מעבר לאיסור המוחלט הקיים ביחס למערכות המייצרות סיכון שאינו מתקבל על הדעת, כמו גם הדרישות הרגולטוריות בנוגע למערכות המייצרות סיכון גבוה, ישנו סט של דרישות כלליות אשר חל על כלל מערכות הבינה המלאכותית – לרבות כאלו המייצרות סיכון מוגבל. חובות אלו הן מעטות, וזאת נוכח העובדה כי מערכות אלו מציגות סיכונים מוגבלים בלבד כלפי המשתמשים, ובשל הרצון לקדם חדשנות ולהגביר את היתרונות החברתיים והכלכליים העולים מהפיתוח ומהשימוש במערכות אלו. דרישות אלו חלות על ספקי הטכנולוגיה, והראשונה שבהן היא הצורך ליידע את המשתמשים על כך שהם מתקשרים או צופים בתוכן שהוא תוצאה של שימוש בבינה מלאכותית.[38] לכך, נוספה חובה לציין האם קיים פיקוח אנושי על המערכת וכן מי אחראי על תהליך קבלת ההחלטות במסגרתה.[39] אולם, חובה זו לא תחול על מערכות בינה מלאכותית המוסמכות על פי חוק לאתר, למנוע ולחקור עבירות פליליות.


ישנן גם דרישות ממשתמשים במערכות בינה מלאכותית, לדוגמה החובה שמוטלת על פרטים שמשתמשים בבינה מלאכותית שמייצרת או משנה תוכן (תמונות, אודיו או וידאו) אשר דומה לבני אדם, חפצים או מקומות אמיתיים וכן שמציג אירועים אחרים שעשויים להיראות לאדם כאילו התרחשו במציאות (למשל deep fake) – לחשוף באופן הולם, ברור וגלוי כי התוכן נוצר בידי בינה מלאכותית או שנעשתה בו מניפולציה באמצעות בינה מלאכותית.[40] חובה זו נסוגה במקרים בהם נעשה שימוש בבינה המלאכותית לצרכי אכיפה פלילית או במקרי התנגשות עם חופש הביטוי.[41]


ג. מנגנונים מוסדיים לאכיפת הרגולציה והטמעתה


לצורך הבטחת יישום אפקטיבי של הוראות ההצעה, וכן במטרה לייצר אכיפה עבור שחקנים המפרים את הוראות הצעת הרגולציה, ההצעה מקימה גופים שונים, בין ברמה המדינתית בכל אחת מן המדינות החברות באיחוד האירופי ובין ברמת כלל האיחוד האירופי, כפי שיתואר להלן:


ג.1. רשויות פיקוח מדינתיות


מיד בתום הליך החקיקה של הצעת הרגולציה, כל מדינה החברה באיחוד האירופי נדרשת, בהתאם להצעת הרגולציה, להקים רשות פיקוח מדינתית אשר תפקידה יהיה לפעול ליישום הצעת הרגולציה בתוך גבולות המדינה.[42] נוסף לתפקיד זה, רשות הפיקוח המדינתית תשמש גם כגוף האחראי על הקמה וביצוע של ההליכים הדרושים להערכת ההתאמה של מערכות בינה מלאכותית בסיכון גבוה, וכן תפקח על הגופים שיבצעו את תהליכי ההערכה האמורים.[43]


לשם השוואה, מסמך עקרונות המדיניות הציע להקים בישראל מוקד ידע ותיאום ממשלתי שיעסוק בריכוז ותיאום סוגיית האסדרה של בינה מלאכותית. מוקד זה יפעל במשרד החדשנות, המדע והטכנולוגיה ויעסוק, בין היתר, בייעוץ למשרדי הממשלה ולרגולטורים בגיבוש מדיניות רגולציה בעניין בינה מלאכותית וביישום מדיניות זו, וכן בהקמת פורום מקצועי פנים ממשלתי הכולל נציגי רגולטורים ומומחי טכנולוגיה, מדיניות ומשפט, כמו גם הקמת פורום אשר עתיד לכלול נציגי תעשייה, אקדמיה, ארגוני חברה אזרחית והציבור הרחב, במטרה לדון בסוגיות של הסדרת בינה מלאכותית.[44]


ג.2. המשרד האירופי לבינה מלאכותית


ההצעה מייסדת גוף עצמאי – המשרד האירופי לבינה מלאכותית (European Artificial Intelligence Office), אשר מטרתו המרכזית היא להביא לשיתוף פעולה יעיל בין רשויות הפיקוח המדינתיות במדינות השונות החברות באיחוד האירופי בכל העניינים הקשורים להוראות הרגולציה, ובפרט להביא לידי אחידות בפרקטיקה של מדינות אלו. כמו כן, המשרד האירופי לבינה מלאכותית ידאג לספק הנחיות וחוות דעת מקצועיות עבור רשויות הפיקוח המדינתיות באשר להצעת הרגולציה ואכיפתה, כמו גם שהוא ישמש לסיוע עבור רשויות הפיקוח הלאומיות בהבטחת יישום עקבי של ההצעה.[45]


ד. סיכום


הצעת הרגולציה של האיחוד האירופי מציגה מדיניות חקיקה מקיפה ומפורטת בנושא הבינה המלאכותית. גישה זו ראויה לבחינה ולמידה רצינית, ויש לשקול אימוץ של חלקים ממנה כבסיס לקידום אסדרה ישראלית של השוק המקומי (אגב קידום תאימות מול השוק האירופאי). אנו סבורים כי ראוי שעקרונות רבים המפורטים בהצעת הרגולציה ישמשו כקווים מנחים עבור קובעי המדיניות במדינת ישראל לצורך הכרעה בשאלות רגולטוריות בנושא הבינה המלאכותית. משכך, נבקש להעלות נושאים עיקריים אשר לדעתנו ראויים להמשך בחינה והעמקה מעבר למפורט במסמך העקרונות של משרד החדשנות, וזאת בשים לב להצעת הרגולציה של האיחוד האירופי.


הידוק המדיניות הרגולטורית הלאומית: הגישה המקדמית של משרד החדשנות לנושא מעידה על כוונה לקדם אסדרה מגזרית של התחום, ולהימנע מאימוץ הגישה האירופאית המבקשת לייצר סטנדרט משפטי חובק כל בגישה מבוססת סיכון.[46]


כפי שהסברנו בעבר, הפתרונות האמורים שהוצגו במסמך העקרונות אינם מספקים מענה לסיכונים העולים מאי-אסדרה רוחבית (כדוגמת אי-בהירות ואי-אחידות), שכן המדיניות הרגולטורית המוצעת, גם אם זו כוללת תפריט אקלקטי של אפשרויות פעולה מהן ניתן לבחור, משאירה מקום נרחב לפרשנות שונה על-ידי רגולטורים שונים.[47] מצב דברים זה עלול להוביל ליצירת מסגרת מדיניות שאינה אחידה ואף למתח ברמה המערכתית הכללית.


על כן, ראוי לשקול שני פתרונות משלימים כחלק מפיתוח המדיניות הרגולטורית: הפתרון הראשון יהיה מיסוד מאסדר לאומי. אורגן מאסדר זה ימלא תפקיד כפול: הראשון, הבטחת הרמוניזציה וחתירה משותפת של כלל המגזרים במשק להגשמת יעדי המדיניות הלאומית בהיותו "רגולטור של רגולטורים", באופן הדומה לרשויות הפיקוח המדינתיות אשר עתידות לקום במסגרת יישום הצעת הרגולציה האירופית; השני, פיתוח מדיניות רגולטורית וייעוץ לממשלה על הצעדים הנדרשים להמשך פיתוחה וקיומה. לדעתנו, מדובר במודל ביניים רצוי בין החלופה של רגולציה רוחבית דוגמת הצעת הרגולציה של האיחוד האירופי ובין רגולציה מגזרית, כמוצע במסמך העקרונות, המאפשר להנות מחלק ניכר מהיתרונות הקיימים לכל מודל.


הפתרון השני יהיה הטמעת מתודולוגית אחידה להתמודדות עם אתגרים רגולטוריים ומשפטיים: לבינה המלאכותית צפויה להיות השפעה רחבה, שתשפיע על שווקים רבים ובתוך כך, על הענפים המשפטיים המסדירים את פעילותם. לפיכך, מוצע להטמיע מתודולוגיית חשיבה אחידה להתמודדות עם הבעיה המשותפת. מתודולוגיה זו תכלול שלושה שלבים: בשלב הראשון, שחקנים רגולטוריים יידרשו לסווג את העמימות המשפטית אותה מייצרת הטכנולוגיה במקרה הקונקרטי; בשלב השני, ככל שישנה השפעה משפטית המצדיקה תגובה, השחקנים הרגולטוריים יבחנו מה ראוי שתהיה התגובה המטא-רגולטורית הראשונית; בשלב השלישי, יתגבש הפתרון הכולל לעמימות המשפטית, באופן אשר ישיב את הסטטוס קוו המשפטי/רגולטורי על כנו.


אימוץ ההמלצות האלו יוביל לקידום מדיניות רגולטורית גמישה אך ריכוזית יותר מהמוצע במסמך העקרונות.


אשר להצעת הרגולציה של האיחוד האירופי שהוצגה בהרחבה במסמך זה, אנו סבורים כי יש לתת את הדעת על החשיבות ביצירת התאמה בין הדין הישראלי לדין האירופי. הגישה המוצעת במסמך העקרונות, כאמור, מבקשת לקדם רגולציה רכה ואתיקה, תוך הימנעות מרגולציית-יתר. חרף היתרונות הגלומים בכך, ראוי לעמדתנו לקדם מדיניות רגולטורית הדוקה, הקרובה יותר למדיניות המוצעת באיחוד האירופי, אשר תאפשר לעסקים ישראליים להשתלב בשווקים בין-לאומיים בקלות רבה יותר, ובמיוחד בשוק האירופי. החשיבות לגיבוש רגולציה כבר בשלב זה היא חשובה, ונלמדת ממקרה הבוחן ביחס למשבר התאימות הנוכחי בהקשר של דיני הפרטיות בישראל אל מול אלו החלים באיחוד האירופי. שכן, מעמד תאימות מקל מבחינה רגולטורית על פעילות בשוק האירופי, למשל ביחס לאיסוף וניהול מידע, ולפיכך יש לו חשיבות כלכלית רבה. אימוץ רגולציה ישראלית העולה בקנה אחד עם הרגולציה האירופית תמנע מצב בו בעתיד לא תוכר תאימות כזו.


גל דהן


חוקר, תכנית אמנה חברתית בעידן הדיגיטלי, מכון תכלית



לקריאה נוספת ראו:


ד"ר אלעד גיל וד"ר טל מימרן, התייחסות מכון תכלית ומרכז פדרמן לעקרונות מדיניות, רגולציה ואתיקה בבינה מלאכותית, (1.1.2023).


ד"ר אלעד גיל וד"ר טל מימרן, בינה מלאכותית, (1.6.2023).


Cybersecurity and Artificial Intelligence: Dr Solon Solomon in a talk with Dr Tal Mimran (1.3.2023).


רשימת מקורות:

[4] ראו הצעת הרגולציה, לעיל ה"ש 3, בס' 3(2), 3(4) ו-3(6) בהתאמה.

[5] השינויים, לעיל ה"ש 1, בשינוי 165.

[6]הצעת הרגולציה, לעיל ה"ש 3, בנספח 1.

[7] מסמך העקרונות של משרד החדשנות, לעיל ה"ש 4, בעמ' 8, 94-93.

[8] שם.

[9] הצעת הרגולציה, לעיל ה"ש 3, בס' 5.

[10] שם, בס' 5(1)(a).

[11] השינויים, לעיל ה"ש 1, בשינוי 215.

[12] שם, בשינוי 216; הצעת הרגולציה, לעיל ה"ש 3, בס' 5(1)(b).

[13] השינויים, לעיל ה"ש 1, בשינוי 217.

[14] שם, בשינוי 218; הצעת הרגולציה, לעיל ה"ש 3, בס' 5(1)(c).

[15] השינויים, לעיל ה"ש 1, בשינוי 224.

[16] שם, בשינוי 225.

[17] שם, בשינוי 226.

[18] שם, בשינוי 220 ו-227.

[19] שם.

[20] שם, בשינוי 232.

[21] שם, בשינוי 234; הצעת הרגולציה, לעיל ה"ש 3, בסעיף 6(2).

[22]השינויים, לעיל ה"ש 1, בשינוי 235.

[23] שם, בשינוי 300; הצעת הרגולציה, לעיל ה"ש 3, בס' 13(1).

[24] Yavar Bathaee, The Artificial Intelligence Black Box and the Failure of Intent and Causation, 31 Harv. J. L. & Tech. 889, 893, 901 (2018).

[25] הצעת הרגולציה, לעיל ה"ש 3, בס' 13(2)-(3).

[26] שם, בס' 12(2).

[27] שם, בס' 14(1). ראו הרחבה בנוגע לדרכים להטמיע אפשרויות פיקוח אנושיות בסעיפים קטנים 14(3)-(4) להצעה.

[28] שם, בס' 15(1).

[29] שם, בס' 15(2) ו-15(4); השינויים, לעיל ה"ש 1, בשינוי 324.

[30] להרחבה אודות הליך ההערכה וההתאמה של מערכות בינה מלאכותיות המסווגות בסיכון גבוה, ראו הצעת הרגולציה, לעיל ה"ש 3, בס' 43.

[31] השינויים, לעיל ה"ש 1, בשינוי 333.

[32] הצעת הרגולציה, לעיל ה"ש 3, בס' 16(h) ו-49.

[33] שם, בס' 17(d) ו-61(1).

[34] שם, בסעיף 29(1); השינויים, לעיל ה"ש 1, בשינוי 400.

[35] הצעת הרגולציה, לעיל ה"ש 3, בס' 29(3).

[36] מסמך העקרונות של משרד החדשנות, לעיל ה"ש 4, בעמ' 97-99.

[37] שם.

[38] הצעת הרגולציה, לעיל ה"ש 3, בס' 52(1).

[39] השינויים, לעיל ה"ש 1 בשינוי 484.

[40] שם, בשינוי 486; הצעת הרגולציה, לעיל ה"ש 3, בס' 52(3).

[41] שם.

[42] שם, בס' 59; השינויים, לעיל ה"ש 1, בשינוי 554.

[43 שם; הצעת הרגולציה, לעיל ה"ש 3, בס' 30(1) ו-59(2).

[44] מסמך העקרונות של משרד החדשנות, לעיל ה"ש 4, בעמ' 111-109.

[45]הצעת הרגולציה, לעיל ה"ש 3, בס' 56 ו-58.

[46] מסמך העקרונות של משרד החדשנות, לעיל ה"ש 4, בעמ' 94-93.




bottom of page