טיוטת הנחיית הרשות להגנת הפרטיות בעניין תחולת הוראות חוק הגנת הפרטיות על מערכות בינה מלאכותית

טיוטת הנחיית הרשות להגנת הפרטיות בעניין תחולת הוראות חוק הגנת הפרטיות על מערכות בינה מלאכותית

ביום 28 באפריל 2025 פרסמה הרשות להגנת הפרטיות ("הרשות") טיוטת הנחייה בעניין תחולת הוראות חוק הגנת הפרטיות התשמ"א-1981 ("החוק"), על מערכות בינה מלאכותית ("AI").

ההנחיה, שפורסמה בשלב זה כטיוטה להערות הציבור, מגדירה את יישום הוראות החוק ותקנותיו בשלבי מחזור החיים של מערכות AI, משלב האימון ועד לשימוש בפועל ונועדה לשרטט את גבולות ההגנה על פרטיות הציבור בעידן ה-AI.

עיקרי טיוטת ההנחיה:

מתי הוראות החוק חלות על מערכות AI?

טיוטת ההנחיה מתייחסת לשני מקרים בהם החוק חל על מערכות AI:

  • כאשר המערכת מאחסנת או מעבדת בפועל מידע אישי, הן בשלב הלימוד והן בשלב היישום, אם באופן מכוון ואם בשל רשלנות או טעות.
  • על מידע אישי שנוצר תוך שימוש במערכות AI, לרבות באמצעות היסקים או הערכות.

דרישה לקיומו של בסיס חוקי לעיבוד מידע אישי במערכות AI

הרשות מבהירה כי יש לוודא קיומו של בסיס חוקי המאפשר עיבוד מידע אישי בכל אחד משלבי מחזור החיים של מערכות ה-AI (החל משלב האימון של המודל ועד השימוש בו בפועל). הרשות מבהירה כי הצורך בזיהוי בסיס משפטי לעיבוד מידע אישי הוא חשוב במיוחד לאור הסיכון הגבוה לפרטיות נושאי המידע (מי שנתונה להם הזכות לפרטיות) לנוכח חוסר הוודאות בעניין אופן עיבוד המידע, מטרותיו והשלכותיו, אשר לעיתים קרובות מאפיינת את השימוש במערכות AI.

בענייננו, בנוסחו העדכני של החוק, קיימים בישראל רק שני בסיסים חוקיים המאפשרים עיבוד מידע אישי: (1) הסכמה של נושאי המידע; (2) עיבוד מידע המבוסס על הסמכה בחוק (הרלוונטי בעיקר לעיבוד מידע ע"י רשויות המדינה ובמקרים מסוימים עיבוד מידע במסגרת יחסי עבודה).

הסכמה כבסיס חוקי לעיבוד מידע וחובת היידוע

עיקרון ההסכמה הוא אחד מהעקרונות המרכזיים בדיני הגנת הפרטיות. סעיף 3 לחוק קובע כי ההסכמה הנדרשת כדי לאפשר פגיעה בפרטיותו של אדם, כולל שימוש במידע אישי אודותיו, צריכה להיות "מדעת" (או כאמור, מכוח הסמכה בדין), קרי, לאחר שבידי נושא המידע, היה את כל המידע הדרוש לו באורח סביר כדי להחליט אם להסכים למסירת המידע ולשימושים שיעשו בו והעברתו לצדדים שלישיים, כנדרש תחת חובת היידוע הקבועה בסעיף 11 לחוק, לרבות מטרת השימוש, צדדים שלישיים אליהם יועבר המידע ולאיזה מטרה, והאם חלה חובה חוקית למסירת המידע.

תוכן והיקף היידוע והגילוי לביסוס הסכמה מדעת ולקיום חובת היידוע, לרבות לעניין עיבוד מידע באמצעות AI הוצגו בפירוט גם במסגרת עמדת הרשות לעניין "חובת יידעו במסגרת איסוף ושימוש במידע אישי". עמדת הרשות היא כי,  בפרט, בהקשר לעיבוד מידע אישי במסגרת מערכות AI, יש לכלול כחלק מדרישות חובת היידוע תחת סעיף 11 את פרטי המידע הבאים כדי לעמוד בדרישת היידוע וביסוס הסכמה מדעת:

  • ההסבר על מטרת איסוף המידע ועל השימוש בו יכלול תיאור של אופן פעולת מערכת ה-AI ביחס לעיבוד מידע אישי, ברמת הפירוט המאפשרת לנושא המידע לגבש הסכמה מדעת, לרבות כלל פרטי וסוגי המידע האישי בהם עשויות המערכות להשתמש, המקור של פרטי מידע אלו וכלל מטרות השימוש – לרבות אימון האלגוריתם, ככל ורלוונטי.
  • יש להציג בפני נושא המידע גם את הסיכונים העשויים לנבוע מעיבוד המידע: הן סיכונים לפרטיות והן סיכונים או השלכות שליליות אחרות העלולות להיגרם לו כתוצאה מעיבוד המידע.
  • במקרים הרלוונטיים וכשיש לכך השפעה מהותית על מתן ההסכמה, יש ליידע את נושא המידע על כך שהוא מקיים אינטראקציה עם מערכת אוטומטית מבוססת AI ("בוט") ולא שיח אנושי.

הרשות מבהירה כי ככל שמטרות השימוש במידע האישי הן מורכבות יותר, או חורגות מציפייתו הסבירה של נושא המידע או מן המטרה העיקרית לשמה מסר את המידע מלכתחילה– כך נדרש כי תוכן היידוע יהיה מפורט ובהיר יותר, וכי האינדיקציה שתתקבל לרצונו של נושא המידע למסור את המידע האישי (לצד מודעותו למטרת העיבוד ולהשלכות האפשריות) תהיה מפורשת יותר, כגון בהסכמה נפרדת במתכונת של opt-in.

שימוש במידע אישי אשר מקורו ב"כריית מידע" מרשת האינטרנט (Data Scrapping)  במערכות AI ואימון מודלים של AI

הרשות גם הבהירה כי הסכמה מדעת דרושה אף לצורך עיבוד מידע אישי הנאסף במסגרת כריית מידע אישי מהאינטרנט (data scrapping), לצורך פיתוח או אימון מודלים של AI. הסכמה זו תידרש גם היא לעמוד בחובת היידוע. כלומר, לגישת הרשות תחת ההנחיה, לא ניתן לעשות שימוש במידע או תמונות שמפורסמות על ידי אדם באופן פומבי באינטרנט לצורך אימון מודלים של AI ללא פירוט מלא וברור של מטרות השימוש במידע ויתר הדרישות שפורטו לעיל, כבר בשלב מסירת המידע. בהתאם, גם לתנאי השימוש של הפלטפורמה ישנה חשיבות בבחינת חוקיות שימוש במידע האישי לצורכי אימון מודלים של AI, יש לוודא כי אינם אוסרים על כריית מידע  ואף לוודא כי נושא המידע בחר שלא להגביל את סוג המשתמשים המורשים להיחשף למידע (כלומר, נושא המידע בחר בחשבון שהינו פומבי – public profile ולא פרטי). בהתאם, הרשות מדגישה כי שימוש במידע אישי אשר מקורו בכריית מידע מרשת חברתית או מאתר אינטרנט לצורך עיבודו במערכת AI בניגוד לתנאי השימוש של אותה פלטפורמה או אתר, ללא הסכמת נושא המידע, גם מפר לכאורה את האיסור על עיבוד מידע ממאגר ללא הרשאת בעל השליטה במאגר אשר התווסף לחוק במסגרת תיקון 13 ועלול אף להוות עבירה פלילית לפי סעיף 23 לחוק בנוסחו לאחר תיקון 13.

עצם פרסום המידע ברשתות כאמור, אינו מהווה הסכמה מדעת לצורך השימוש בו לאימון או שימוש במערכות AI מורכבות כאשר קיים חוסר וודאות לגבי אופן השימוש והתכלית ובכך ההשלכות לסיכונים הכרוכים בהן (קרי,  general-purpose AI model כפי שמוגדר ב AI ACT האירופאי). כך לדוגמה, לא ניתן לעשות שימוש בשם ובתמונה שפרסם אדם ברשת חברתית בכדי לאמן אלגוריתם של זיהוי פנים אוטומטי או במטרה ליצר מאגר שכזה, ללא קבלת הסכמה מדעת.

בנוסף, מציינת הרשות, כי בהתאם להצהרה שפורסמה באוקטובר 2024 בידי קבוצת רשויות הגנת הפרטיות מרחבי העולם (Joint statement on data scrapping and the protection of privacy),  שירותים דיגיטליים המאפשרים שיתוף מידע אישי ברשת חייבים לנקוט באמצעים למניעת כרייה אסורה של מידע. כרייה אסורה של מידע אישי ממאגר מידע היא בגדר "אירוע אבטחה חמור", עליו חייב מפעיל השירות לדווח באופן מיידי לרשות להגנת הפרטיות, כנדרש בתקנות הגנת הפרטיות (אבטחת מידע).

אחריותיות

עיקרון האחריותיות קובע בין השאר את אחריות הארגון לקיום הוראות הדין הנוגעות לשימוש במידע אישי. המונח אחריותיות מתייחס לכך שיהיו גורמים מתאימים שיוודאו כי המערכות מפותחות ופועלות בהתאם לתפקיד שהוגדר להן ולסביבה הרגולטורית הרלוונטית. הפרקטיקות המרכזיות המקובלות הן:  

  • מינוי ממונה הגנה על הפרטיות (DPO). חובה חדשה שנוספה במסגרת תיקון 13 לחוק וחלה על גופים מסוימים בהתאם לתנאים בחוק. בין היתר, חובת המינוי חלה על גוף שהוא בעל שליטה או מחזיק במאגר מידע שעיסוקו העיקרי כולל עיבוד מידע בעל רגישות מיוחדת בהיקף ניכר. לעמדת הרשות, תנאי זה בסבירות גבוהה יתקיים בארגונים המאמנים מודלים של AI. על ה DPO לבצע תסקיר השפעת הפרטיות (DPIA  כפי שמוגדר תחת הGDPR), וקיום עקרון העיצוב לפרטיות (Privacy by (Design. למעשה קובעת הרשות כי מינוי DPO מקבל משנה חשיבות ותוקף והופך לרכיב משמעותי במתן מענה לסיכונים הכרוכים בעיבוד מידע אישי במודלי AI, וכי במקרים רבים עשוי ממונה הגנת הפרטיות (ה DPO) להיות הגורם המיומן והמתאים ביותר ליטול על עצמו את המשימה לטפל גם בסוגיות הנובעות הן משימוש במערכות AI  (לפחות כל עוד לא מינה הארגון בעל תפקיד ייעודי לשם כך) וגם בטיפול באתגרים והסיכונים בפיתוח מערכות AI. 
  • ביצוע מוקדם של תסקיר השפעה על הפרטיות (DPIA). התסקיר נועד לשמש ארגונים לזיהוי וצמצום הסיכון לפרטיות במהלך הקמה וניהול של פרויקטים חדשים, ובפרט במערכות טכנולוגיות ופרויקטים הכרוכים באיסוף ובעיבוד של מידע אישי. עמדת הרשות, היא שעריכתו של תסקיר זה (או הליך דומה) עוד בטרם שימוש במערכות AI, היא הדרך המיטבית לוודא כי השימוש במערכות ה-AI עומד בדרישות החוק ותקנותיו.
  • ממשל תאגידי. הכוונה היא ביצירת מחויבות ארגונית לציות לחוק ולקידום ההגנה על הפרטיות בהובלת הדרג הבכיר של הנהלת החברה וחבר הדירקטורים שלה; חלוקת משימות ותפקידים; וכינון מנגנוני פיקוח ובקרה פנימיים נאותים. בעניין זה, נזכיר את הנחיית הרשות בעניין אחריות הדירקטוריון לנושאי פרטיות ואבטחת מידע (להרחבה, ראו עדכון לקוחות בנושא) שמקבל חשיבות גם בביצוע בקרה על שימוש בכלי AI  של החברה וכמובן פיתוח מערכות AI.

אבטחת מידע

אימון ושימוש במודלים של AI כרוך בסיכוני אבטחת מידע ייחודיים (למשל, "מתקפות הסקה" המאפשרות חילוץ של שרידי מידע אישי). בהתאם, הרשות מבהירה כי יש לתת את הדעת לסיכונים הייחודיים במערכות AI ולדרכי ההתמודדות עימם. הרשות מבהירה כי לנקוט בדרכים הבאות כדי למזער סיכונים אלו:

  • להתייחס לסיכונים הייחודיים למערכות AI במסגרת מסמך הגדרות המאגר (המחויב לפי תקנה 2(א) לתקנות אבטחת המידע);
  • להתייחס להיבטים הנוגעים למערכות ה-AI גם במסגרת סקרי הסיכונים ומבדקי החדירות (אותם יש לערוך לפי תקנה 5 לתקנות אבטחת המידע);
  • לדווח באופן מידי לרשות על מתקפות הגורמות לאירוע אבטחה חמור, הנוגעות לאימון ושימוש במערכות AI;
  • להתייחס במסגרת נהלי אבטחת המידע לשימוש באפליקציות ושירותים חיצוניים מבוססי AI (ChatGPT, Copilot ואחרים) ולעמוד ביתר דרישות תקנות אבטחה מידע בהתקשרות עם ספקים אלו ושימוש במערכותיהם (הסכם עיבוד מידע, הדרכות עובדים ועוד).

כלומר, על הארגון לפעול לעריכתה וקיומה של מדיניות ארגונית לעניין שימוש ב AI, אשר תסדיר נושאים ותהליכים כגון ניהול הרשאות הגישה, בחינת כלי ה AI המדובר, הדרכת העובדים כיצד בטוח ונכון להשתמש בכלי AI, איזה מידע ניתן או רצוי להימנע משימוש, הגדרת כלי ה AI המותרים לשימוש בארגון, בחינת התחייבויות חוזיות לסודיות ולאבטחת מידע אל מול ספק כלי ה AI, שימוש הכלי במידע המועלה ע"י העובד והארגון, שימוש נכון ברישיונות, הכל במטרה לצמצם ככל הניתן את סיכוני אבטחת המידע והפגיעה בפרטיות, וכן איסור שימוש במידע הכלול בשאילתה החורגת ממדיניות זו, וצמצום משך שמירת השאילתה (input) במערכת הAI. בנוסף, הרשות מבהירה כי בכוונתה לעשות שימוש בסמכותה בתקנה 20)(א)(1) לתקנות אבטחת המידע, ולקבוע כי במקרים מסוימים יש להחיל רמת אבטחה גבוהה על מאגרי מידע, בשל העובדה שמערכותיהם מבוססות AI בסיכון גבוה.

זכויות נושאי מידע

בהתאם לחוק הגנת הפרטיות, לכל אדם הזכות לדרוש תיקון או מחיקה של מידע שגוי על אודותיו במאגר מידע. הרשות מבהירה כי במערכות בינה מלאכותית, הזכות לבקש תיקון מידע אישי שגוי עשויה לחול גם על תיקון האלגוריתם שהפיק את המידע, כאשר אין דרך אחרת למנוע מן האלגוריתם לשוב ולהפיק מידע שגוי. על בעל השליטה במאגר חובה להפעיל באופן יזום מנגנון שמטרתו להבטיח כי המידע שבמאגר המידע נכון, שלם, ברור ומעודכן, ולכן בכל הנוגע לפיתוח מודל AI משמעות חובה זו הינה להפעיל מנגנונים למניעת למתקפות הגורמות ללימוד הדבר הלא נכון או לעשות את הדבר הלא נכון (learn wrong things or do wrong things). זאת ניתן לקיים ע"י הקפדה על איכות המידע וביצוע בקרות קפדניות.

לאור החשיבות המיוחדת של הדיוק והאמינות של המידע המעובד ומופק במערכות בינה מלאכותית, הרשות מדגישה באופן מובהק כי בכוונתה לשים דגש על האכיפה של זכויות נושאי מידע (לרבות נושאי מידע מהאיחוד האירופי, ככל ורלוונטי למאגר המידע בהתאם לתקנות) ביחס למערכות בינה מלאכותית.

חובת רישום מאגרי מידע של מערכות AI וחובת הודעה על ניהולם

לאחר כניסתו לתוקף של תיקון 13 לחוק הגנת הפרטיות, תוטל חובת הרישום על מאגרים שמטרתם העיקרית איסוף מידע אישי לשם מסירתו ועל מאגרי מידע של גופים ציבוריים. על מאגרים אחרים, שאינם מחויבים ברישום, עשויה לחול חובת הודעה לרשות. הרשות מבהירה כי במאגרים עליהם תחול חובת הרישום, תבדוק הרשות, טרם אישור רישום המאגר, אם עצם איסוף המידע, צבירתו במערכת AI, והשימוש בו מפרים את הוראות הדין. אם התשובה היא חיובית, הרשות עשויה לסרב לרשום מאגרים אלו.

בהחלטתה האם לאשר את רישום המאגר, נדרשת הרשות לבחון האם "המאגר משמש או עלול לשמש לפעולות בלתי חוקיות או כמסווה להן, או שהמידע הכלול בו נתקבל, נצבר או נאסף בניגוד לחוק זה או בניגוד להוראות כל דין", כמו כן מוסמך ראש הרשות לבטל רישום מאגר או להתלות את תוקפו אם קבע כי הפר בעל השליטה או המחזיק את חוק הגנת הפרטיות או התקנות לאבטחת מידע ואף אם יש לו יסוד סביר להניח כי המאגר משמש לפעולות בלתי חוקיות. כלומר, הרשות מדגישה כי במסגרת הליך הרישום היא תבדוק באופן אקטיבי אם עצם איסוף המידע במערכות AI או השימוש במידע במערכות AI מפרים את חוק הגנת הפרטיות.  

לפיכך, מדגישה הרשות כי יש לציין בבקשת הרישום מהי המטרה הברורה והמדויקת של המערכת, ולוודא כי המטרה וסוגי המידע המפורטים בבקשה מתאימים לשלב הרלוונטי – אימון או יישום. יש לוודא כי רק המידע המינימאלי הדרוש למימוש המטרה שהוגדרה למערכת מראש יעובד.

לסיכום

טיוטת ההנחיה מהווה צעד משמעותי בהסדרת השימוש במערכות בינה מלאכותית בישראל ומבהירה כי חוק הגנת הפרטיות חל על כל שלבי מחזור החיים של מערכות AI. טיוטת ההנחיה מציבה דרישות ברורות בנושאי הסכמה מדעת, אחריותיות ואבטחת מידע ובהתאם נראה כי בכוונת הרשות למקד את מאמצי האכיפה, בין היתר, בנושאים אלו. ארגונים המפתחים או משתמשים במערכות AI נדרשים לבחון את פעילותם הקיימת והמתוכננת ביחס לדרישות ההנחיה ודרישות דיני הפרטיות, ולהיערך בהתאם לקראת כניסתן לתוקף של הוראות תיקון 13 לחוק באוגוסט 2025.


נשמח לעמוד לרשותכם ולסייע לארגונכם לעמוד בציות לדרישות הדין והנחיות הרשות, מחלקתנו מלווה ארגונים ביישום מדיניות אכיפה הן לשימוש ופיתוח בכלי AI והן לאכיפת הגנת הפרטיות ואבטחת מידע לרבות ייעוץ וליווי לעריכת מדיניות ארגונית כאמור לעניין שימוש בכלי AI (AI Governance Policy) בהתאם לצרכי לקוחותינו ולשימושים הרלוונטיים במערכות AI בארגון, אשר מספקת מענה לדרישות החוק ולדרישות הרשות אשר צוינו בהנחיה לעיל.

בברכה,
פרקטיקת AI, סייבר, מידע ופרטיות
שבלת ושות'

חדשות נלוות