
ברוכים הבאים לגיליון הראשון של ניוזלטר ”Shibolet AI” בנושא בינה מלאכותית של שבלת! בגיליון זה תמצאו, בין שאר, סקירה קצרה של הטרנדים החמים בתחום ה-AI, ניתוח אסטרטגי של מגמות טכנולוגיות ורגולטוריות, דיון משפטי בזכות להישכח בעידן הזכרון הנצחי ומבט אל עתיד פרוטוקול הדירקטוריון בעידן כלי ה-AI. אנו שואפים לספק לכם תובנות רחבות, ניתוחים מקצועיים ומידע פרקטי שיסייעו לכם לנווט בבטחה ובבהירות במציאות הטכנולוגית המורכבת והמרתקת של ימינו.
מה בעצם קורה כאן – רדאר המגמות הטכנולוגיות החמות

עו״ד שלומי כהן
שוק ההון וניירות ערך
שנת 2025 תיחשב כנקודת מפנה בעולמות ה-AI. סיכמנו לכם ארבעה טרנדים מרכזיים שמובילים את המהפכה הטכנולוגית, שכל אחד מהם מבטיח לשנות את הפרודוקטיביות, היצירתיות, שיטות העבודה שלנו ואת העולם בכלל.
סוכנים – סקירה קצרצרה של הקולגות החדשות
אנחנו מניחים שאתם מכירים אותם, הם הטרנד הלוהט של 2025 ויום אחד אולי אף נעבוד אצלם –סוכני בינה מלאכותית. בחצי השנה האחרונה הם הפכו מ"טייסי משנה" לקולגות, שמסוגלים לבצע משימות מורכבות לבד. למי שהיה אוף דה גריד מינואר ועד עכשיו, אספנו לכם כמה דוגמאות:
- החזון (המשעמם) של מייקרוסופט לסוכני בינה מלאכותית – שדרוג סביבת העבודה התאגידית: החזון של מייקרוסופט הוא לשדרג את סביבת העבודה באמצעות סוכני AI. Copilot Studio מאפשר לארגונים לבנות ולהטמיע סוכני AI, לשימושים מגוונים כמו פיתוח, HR ומכירות. למרות ההבטחות, כרגע לפחות, Copilot ב-Office עדיין לא חולל מהפכה של ממש. תרומתו מתמקדת בעיקר בסיכום משימות, מיילים ופגישות, ביצירת מסמכים ומצגות, ובתרגום ב-Teams.
- עוזרי מחקר אישיים (הסוכנים): כמעט כל המודלים המתקדמים כוללים כיום פונקציית Deep Research, בה "סוכן חוקר" סורק את האינטרנט ומפיק דוח מעמיק לפי שאלת מחקר. Notebook LM של גוגל פועל על בסיס מידע שהמשתמש מזין, מספק תשובות עם ציטוטים, ויוצר תוצרים כמו מדריכים, פודקאסטים ומפות חשיבה.
- לענות למיילים מטיול בהימלאיה – סוכנים מתקדמים: Anthropic השיקה כבר לפני זמן מה סוכן חכם שיש לו פונקציה שעשויה לשנות את עתיד המחשוב כפי שאנחנו מכירים אותו– Computer Use. הסוכן יכול להפעיל את סביבת המחשב ממש כמו משתמש אנושי –להוריד קבצים, לשלוח מיילים, לערוך מסמכים ותמונות, ואפילו לשחק עבורנו במחשב. אם גם אתם רוצים לטייל בהימלאיה ולענות לכל המיילים שלכם במקביל – אתם מוזמנים להתנסות. הנה מדריך 101: לינק.לפני מספר ימים Open AI הציגה סוכן ChatGPT חדש (מעין סוכן על) המסוגל לבצע משימות מורכבות באופן עצמאי באמצעות מחשב וירטואלי משלו, המשלב את יכולותיהם של שני סוכנים אותם הציגה בעבר: ה-Operator שיכול להריץ משימות מקוונות לבד, דוגמת הזמנת כרטיסי טיסה או מקום במסעדה, בצירוף יכולות המחקר המעמיק של סוכן ה-Deep Research. הסוכן החדש יכול לנווט באתרים, להריץ קוד, לנתח מידע וליצור מסמכים ערוכים, תוך שמירה על שליטת המשתמש בכל שלב. היכולת החדשה זמינה למשתמשי Pro, Plus ו-Team עם הגבלות שימוש חודשיות ואמצעי אבטחה מתקדמים להגנה מפני סיכונים. (לינק)
- קסטומיזציה אישית: בפלטפורמה של OpenAI אפשר לאמן סוכן ייעודי שמבוסס על מודלים מתקדמים (GPT), על מידע בנושא ספציפי. כך, נוצרה "חנות GPTs", בה ניתן למצוא "מאמני כושר", יועצים בתחומים שונים, מורים ללשון, "מנהלי מוצר" וכו'. וכן, אפילו את ברקוני.
ווידאו, קריאייטיב ושיווק על סטרואידים – פלטפורמות מומלצות
אחד התחומים שנכבשו בסערה על ידי בינה מלאכותית הוא עולם השיווק, היצירה והתוכן. מה שהיה נחלתם של מעצבים ואנשי קריאייטיב, נעשה כיום עצמאית או בצוותא עם בינה מלאכותית.
אפשר להכין בקלות מצגות מרהיבות, מסמכים אינטראקטיביים, גרפיקה לפרסום ברשתות חברתיות ואפילו אתרים שלמים, לרבות דפי נחיתה, עם פתרונות חכמים כמו Gamma או Beautiful.ai, בלי כל ניסיון או ידע בעיצוב.
גם עולמות הווידאו עוברים שינוי דרמטי. Google ו-OpenAI השיקו מודלים חדשים לגנרציה של ווידאו כדוגמת–Veo3 ו-Sora, שמאפשרים לייצר סרטונים ריאליסטיים משלב הסטורי-בורד, דרך הפקת תמונות מונפשות ועד שילוב סאונד איכותי, והכל בלחיצת כפתור, תוך חיסכון ניכר בזמן ובמשאבים. לצד זאת, גם חברות תעשייה ותיקות כמו Adobe השיקו פתרונות AI מתקדמים לחבילת האפליקציות שלהן, וגם Midjourney הוותיקה יחסית השיקה תכונות חדשות המיועדות לשימוש מקצועי.
חברות אופנה וחברות תעשייתיות רבות עושות שימוש בבינה מלאכותית לצרכי פרסום – קלווין קליין, קוקה קולה, ו-Toys R Us, שהפכה לרשת הקמעונאית הגדולה הראשונה שהשתמשה ב-SORA לפרסומת (ראו כאן). חברת לוריאל הקימה את CreAltech, המאפשרת לצוותי השיווק ליצור 50,000 תמונות ו-500 סרטונים מדי חודש[1].
כל התקדמות מרגשת בעולמות הבינה המלאכותית, כמו האפשרות "לחקות" את הקול שלכם, או ליצור תמונות מקצועיות שלכם, טומנות בחובן גם סכנות גדולות לגניבות זהות ו-Deep Fake למטרות זדוניות. ראו למשל יוטיוברים שמלמדים מודלים של Eleven Labs לחקות את קולם, כדי שיוכלו להקריא טקסטים בשמם (ראו כאן). תופעות אלו מדגישות את הצורך באמצעי זהירות, כגון אימות זהות וכלים לזיהוי זיופים, כדי להגן על המשתמשים והמותגים בעידן החדש.
לבנות אפליקציות בלי לדעת לתכנת עם Vibe Coding
בפברואר 2025, אנדריי קרפטי, מייסד שותף ב-OpenAI, טבע את המונח Vibe Coding, המתאר את האפשרות של כל אחד, בכל מקום, לפתח במהירות אפליקציות או מוצרים באמצעות AI. פשוט תאמרו איך אתם מדמיינים את האפליקציה, והיא תיבנה. מרעיון – למציאות.
בכך, ה-AI השלים מהפך בעולם התכנות, מכלי עזר למפתחים, היום אפשר באמצעות שפה טבעית ובלי תיווך של שפות קוד מורכבות, לבנות בקלות יישומים מהמסד ועד ה-UI. וזה כבר משנה את העולם. 25% מהחברות בתוכנית החורף של Y Combinator (מהאקסלרטורים המובילים בעולם) כתבו כ-95% מהקוד שלהן באמצעות AI[2]. השוק הזה צפוי לגדול ל-27 מיליארד דולר עד 2032. [3]
חברת Base 44, למשל, של היזם הישראלי מאור שלמה, פיתחה פלטפורמה ליצירת אפליקציות בשפה טבעית, ונמכרה לאחרונה תמורת 80 מיליון דולר לחברת Wix, לאחר חודשי פעילות ספורים וגידול מסחרר במשתמשים.
בפלטפורמת Claude Artifacts של Anthropic, אפשר לבנות אפליקציות ל-web ויש שם כבר מעל 500 מיליון אפליקציות. ממליצים לקפוץ לשם לביקור (לינק). פלטפורמות נוספות מציעות יכולות דומות (Bolt, Lovable, V0, Replit), ואפילו מאפשרות ליצור אפליקציות ישירות מסקיצה, התממשקות מתקדמת עם שרתי צד (למשל, לשליחת דוא"ל ותזכורות) זיכרון מורחב, ועוד מגוון תכונות נוספות.
להכיר את מה שמסתתר תחת מכסה המנוע – מדריכון לסוגי המודלים והשימוש בהם
כלי ה-Vibe Coding, וגם סוכנים, פועלים באמצעות מודלים מתקדמים של חברות AI מובילות המשמשים כ"מנוע" מאחורי הקלעים. המודלים נחלקים לשתי קטגוריות עיקריות שמביאה יתרונות ייחודיים לסוגים שונים של משימות: מודלי הסקה ומודלי מהירות.
- מודלי הסקה: מאפשרים תהליכי חשיבה מעמיקים, רב-שלביים ומורכבים. המודל מפרק את הפרומפט של המשתמש לרכיבים ומתאים לכל אחד מהם פרומפט חדש, ומשלב שימוש בכלים שונים, כתיבת קוד, חיפוש באינטרנט ועוד, כדי להגיע לפתרון מיטבי. דוגמאות בולטות: OpenAI השיקה את מודל O3 Pro, גוגל את Gemini 2.5 Pro, ו-Anthropic את Claude Opus 4. המודלים הללו מציבים סטנדרט חדש של "חשיבה מורכבת", המאפשרת ניתוח מעמיק של בעיות מורכבות, לעיתים במשך זמן רב. לחלקם, יש חלונות הקשר רחבים במיוחד (עד מיליון טוקנים), המאפשרים לעבד מערכי נתונים עצומים ולהתמודד עם בעיות מורכבות.
- מודלי Flash : מודלים המתמקדים במהירות – בעלי איזון אופטימלי בין ביצועים, מהירות ועלות נמוכה ומיועדים בעיקר למשימות פשוטות יותר שאינן דורשות ניתוח מעמיק. בין המודלים המובילים בקטגוריה זו ניתן למצוא את Chat GPT 4.1, את Claude Sonnet 4 ו-Gemini 2.5 Flash.
המודלים החדשים מציגים שיפורים אדירים לעומת הדורות הקודמים, ואולי מסמנים את סיומו של עידן ה-"One size fits all". האתגר המרכזי כיום הוא בחירת המודל המתאים לכל משימה תוך הבנה של היכולות המשלימות של כל אחד מהם. לדוגמא, ניתן לבקש מ-ChatGPT שיסייע בבניית פרומפט מותאם לכלים ייעודיים ליצירת וידאו או לשלב מודלים שונים בתהליכי עבודה מורכבים. יותר ויותר מודלים מאפשרים גם אינטגרציה עם אפליקציות צד שלישי- כמו יצירת וביקורת של מסמכים ב-Google Drive, וחיפוש ב-Gmail, ועוד- מה שמרחיב משמעותית את אפשרויות השימוש והאוטומציה.
זווית שלנו: אנחנו מתקרבים במהירות ליום שבו לא נזדקק כלל לממשק תוכנה מסורתי, ונוכל לתקשר ישירות עם מחשבים בשפה טבעית, בקלות ובפשטות. ממערכות כמו -Vibe Coding, דרך סוכני AI ועד לאופן שבו ישתנו הסרטים, הפרסומות והמידע המוצג לנו, אנחנו לא רק צופים במהפכה טכנולוגית, אלא חיים אותה. מייקרוסופט, כרגיל, מבטיחה הבטחות גדולות ברמת ה-Enterprise, כשבפועל Copiliot עדיין מרגיש מעט מסורבל ומוגבל. אם יום אחד Copilot יתחיל להיות יותר מעוזר אישי חכם , ויוכל ללבצע משימות מורכבות ביעילות, תהיו בטוחים שנספר לכם על כך. בינתיים, פלטפורמות אחרות משיקות מודלים מתקדמים בהרבה, שמציבים רף חדש ליכולות הבינה המלאכותית. ואנחנו? רק מחכים לרגע שבו נוכל לאמן סוכן GPT מומחה בגיימינג, כדי שינצח עבורנו בטורניר PUBG בזמן שאנחנו ישנים.
רגולציה (לא) משעממת ותקדימים שחייבים להכיר
עו"ד דעואל הורביץ
בינה מלאכותית וחדשנות
בין בטיחות לסטנדרטים – מגמות ברגולציית AI בצל המרוץ העולמי לקדמה
סקירה קצרה של הרגולציות העדכניות בתחום ה-AI, עשויה לבלבל אף את המשפטן המנוסה. מצד אחד, מדינות כמו ארצות הברית, אנגליה, קנדה והודו, מאמצות רגולציה נוקשה יחסית על שימוש בתוכן גנרטיבי, ו-Deepfakes,– כולל חובות שקיפות, סימון ואיסורים (למשל על יצירת תכנים פורנוגרפיים). מצד שני, אין עדיין רגולציה ברורה ומחייבת על יישומים משמעותיים– מכוניות אוטונומיות, רובוטים דמויי אדם (humanoids), מערכות עצמאיות לקבלת החלטות ועוד, אף שמדובר בטכנולוגיות בעלות פוטנציאל השפעה דרמטי על חיי היום-יום והחברה כולה.[4]
התשובה הקצרה לכאוס הרגולטורי הזה היא, שבעולם של קיטוב גיאופוליטי, כאשר העולם מתפצל בין הגוש המזרחי (סין, רוסיה ובעלות בריתן), למערבי, עליונות טכנולוגית היא שם המשחק. דבר לא יעצור מדינות רבות בעולם מהשגת עליונות, אפילו לא שיקולי ביטחון הציבור ורווחת הכלל, שאולי היו מכתיבים התפתחות זהירה יותר, בהתחשב בכך שמדובר בטכנולוגיה עם פוטנציאל עצום, לטוב ולרע.[5]
התשובה הארוכה היא שמדינות מעצבות את מדיניות הבינה המלאכותית שלהן בהתאם לשאיפות הלאומיות ולמיקומן בזירה העולמית. ולפי האופן שבו הן מבינות את מיקומן בסדר העולמי ומערך יחסי הכוחות החדשים שנוצרו בשנים האחרונות בעולם, עם התגברות התחרות הטכנולוגית והכלכלית בין סין לארה"ב והמערב.
ארה"ב בריטניה, סינגפור וישראל מקדמות רגולציה סקטוריאלית רכה ופרו-עסקית כדי לעודד חדשנות. בסין, הממשל מזרים השקעות עתק לחדשנות ופיתוח AI, תוך הטלת פיקוח דרקוני על התוצרים, מצנזר ומשתמש בטכנולוגיה למעקב המוני. אסטרטגיית "הגן הסגור" שלה מתבטאת בחדשנות מואצת פנימה ושליטה מוחלטת כלפי חוץ.[6]
במבט ראשון, נראה שמי שלא קיבל את ה-memo על המרוץ העולמי לחדשנות – הוא האיחוד האירופי. בדו"ח נוקב בן 400 עמודים פירט ראש הבנק האירופי לשעבר כיצד אירופה מפגרת מאחור בתחומים טכנולוגיים ובפרט ב-AI, בשל שוק עבודה מיושן, העדפה לרגולציה ותקינה מורכבת, וחוסר פוקוס כללי על העתיד[7]. מנקודת המבט הזו, גם חוק הבינה המלאכותית החדשני שנחקק בשנה שעברה באירופה, הראשון מסוגו בהיקף וברמת הפירוט, אינו בהכרח משפר את מעמדה של אירופה בתחום, ואף עלול להכביד על קצב החדשנות. החוק האירופי נכנס לתוקף בהדרגה החל מאוגוסט 2024 – הוראות ביחס למערכות AI אסורות נכנסו לתוקף בפברואר 2025, הוראות בקשר למודלים של בינה מלאכותית כללית (GPAI) ייכנסו לתוקף ב-2 לאוגוסט 2025, ואילו הוראות הנוגעות למערכות AI עם סיכון גבוה, ייכנסו לתוקף ב-2 לאוגוסט 2026.[8]
מעבר לכך, תיאבון מופחת יחסית לסיכון שיש לגופי ההשקעה הגדולים באירופה (בנקים) ביחס לקרנות הון הסיכון האגרסיביות בארה"ב ובישראל, יכול לתת הסבר חלקי לפיגור הזה. עם זאת, יש להדגיש שהאירופאים עובדים מסודר ושיטתי. אי אפשר להבין את הרגולציה האירופית בלי להתייחס לתכנית Open Strategic Autonomy שהאיחוד האירופי יזם לפני כמה שנים, וממשיכה עד לשנת 2040. מטרת התכנית היא לשמר ולחזק את מעמדה של אירופה בזירה העולמית בעתיד (ובפרט לאור עלייתה הכלכלית של סין), באמצעות, בין השאר, מיצובה כספקית גלובלית של סטנדרטים, תווי תקן ואיכות. תחשבו GDPR על סטרואידים.[9]
אירופה לא לבד בהבנה שסטנדרטים בין לאומיים יכולים לעצב שווקים גלובליים באופן אסטרטגי. אפילו בארה"ב, לצד נסיון לעצור חקיקה מדינתית למשך עשור כדי לייצר סטנדרט אמריקאי אחיד (אשר נבלמה בדקה ה-90 על ידי הסנאט ברוב מוחץ), הכריז לאחרונה ממשל טראמפ על שינוי שם ה-AI Safety Institute ל-AI Standards and Innovation Institute- מהלך שמדגיש את המעבר מחשיבה על בטיחות בלבד להתמקדות בתקינה וחדשנות. לצד זה גם הוצג במסגרת ה-A big beautiful bill מסגרת חקיקתית מפורטת אשר מטרתה לקדם את אסטרטגית ה-AI של ארה"ב, כולל סובסידיות והשקעות פדרליות גדולות בתעשייה –אשר זכתה ללא מעט ביקורת מצד גורמים בתעשייה.[10]
יש שיטענו שהשינוי משקף שינוי בסדרי העדיפויות– במקום שמירה על בטיחות בעזרת גופי פיקוח, ארה"ב פונה לסלילת נתיבי כניסה מובנים לחדשנות, באמצעות תקינה וסטנדרטיזציה, במטרה לשמר ולחזק את עליונותה הטכנולוגית בזירה העולמית ולקדם אינטרסים לאומיים. ייתכן שלמרות הכל, אולי יש מה ללמוד מהבירוקרטים האירופיים.[11]
זווית שלנו: מדינות העולם חלוקות בין הרצון להוביל את המהפכה הטכנולוגית הבאה, לבין הצורך להציב לה גבולות. בעוד שבעבר ארה"ב ייצגה את השוק הליברלי, ואירופה נתפסה כמכתיבה את כללי המשחק, ייתכן שאנו עדים למגמת התכנסות – אסדרה פרואקטיבית ככלי להאצת חדשנות. מעניין יהיה לראות איך הקרב על עיצוב הסטנדרטים העולמיים בתחום הבינה המלאכותית יתפתח בשנים הקרובות, כשהמעצמות ינסו לייצא את הערכים והאינטרסים שלהן דרך רגולציה ותקינה. האם החקיקה החדשנית באירופה תתרכך, או שמא העולם ילך בעקבותיה ומגמת השימוש באסדרה כאסטרטגיה בזירה העולמית תגדל.[12]
איך משביעים מפלצות חכמות בלי לאבד את הראש – פסיקת בתי המשפט על data scraping, מלחמות המידע ועתיד של האינטרנט
מודלים חכמים צריכים כמויות אדירות של מידע להתאמן . כדי להשביע את התאבון הזה, חברות כמו Google, OpenAI, Anthropic סרקו את כל האינטרנט וגרפו כמויות מידע עצומות (Data scraping), גם אם היה מוגן בזכויות יוצרים או היה מידע אישי, ואפילו חומרים פיראטיים. מאז, המודלים הגדולים כבר "בלעו" ועיבדו את מרבית התוכן האנושי ברשת האינטרנט ואת כל הספרות האנושית כמה פעמים, והתאבון רק גדל. ובהתאם המאבק על שימוש בחומרים שיש עליהם זכויות יוצרים נמצא בעיצומו. החברות טוענות בהליכים שונים בבתי משפט ברחבי העולם שמדובר ב"שימוש הוגן" – חריג לדיני הקניין הרוחני, אשר מפורש לרוב בצמצום, במיוחד בהקשרים מסחריים.
הטענה הזו התקבלה לראשונה בבית משפט פדרלי בארה"ב, שם נפסק כי ל-Anthropic, שהתכוונה ליצור ספריה וירטואלית עם כל הספרים שאי פעם נכתבו, מותר לאמן את המודלים שלה על ספרות מוגנת בזכויות יוצרים, מאחר ומדובר ב"שימוש הוגן". פסק הדין הבחין בין עותקים שהושגו כחוק לבין עותקים פיראטיים שהשימוש בהם אסור, וציין כי ההכרעה לא עוסקת בשאלה אם תוצרי המודלים מפרים זכויות יוצרים – סוגיה שתיבחן בהמשך. כמה ימים לאחר מכן דחה בית המשפט פדרלי בקליפורניה תביעה דומה של קבוצת סופרים נגד Meta (פייסבוק).[13] פסיקות אלו מתחילות לשרטט את גבולות הגזרה בין שימוש מותר ביצירות מוגנות – אימון מודלים כללי, לשימוש אסור – העתקה או יצירת תוצרים הדומים ליצירות המקור באופן ברור.[14] נראה שלמגמת הפסיקה שמסתמנת בארה"ב יש כבר השפעה על תיקים דומים במקומות אחרים בעולם.[15]
גם בישראל מתקיים דיון ער בסוגיות הללו. לאחרונה פרסמה הרשות להגנת הפרטיות טיוטת עמדה, לפיה עקרונות חוק הגנת הפרטיות, כמו דרישת ההסכמה כבסיס חוקי לעיבוד וכן החובה לצמצם איסוף ושימוש במידע אישי, חלים גם על גריפה של מידע פומבי לשם לאימון מודלים,וזאת גם המידע התפרסם באופן פומבי במכוון על ידי נושא המידע. בהערות שהוגשו מטעם משרד שבלת משרדנו, עמדנו על כך שמדובר בדרישה מכבידה ועד בלתי אפשרית, ובוודאי ביחס למידע כאמור שכבר נעשה בו שימוש, אשר אינה עולה בקנה אחד עם עמדות של רגולטורים אחרים בעולם ביחס לנושא זה (לינק). המשמעות: ייתכן שהפרקטיקה של "בליעת האינטרנט" תהפוך בקרוב לבעייתית מאוד גם בישראל.[16]
יש לציין כי על פי מחקר של הפרלמנט האירופי (EPRS), שהתפרסם על ידי ועדת המשפט של הפרלמנט האירופי (JURI), עצם העובדה שמידע אישי או מוגן בזכויות יוצרים זמין לציבור אינה מהווה הצדקה לשימוש בו לאימון מודלים, ובכל מקרה דרושה בחינה פרטנית של הבסיס המשפטי לעיבוד המידע והשלכותיו. אף שמסקנות הוועדה אינן בעלות מעמד מחייב, הן משקפות עמדות פרשניות עדכניות במוסדות האיחוד ולעיתים מהוות אינדיקציה מוקדמת לכיוונים רגולטוריים וחקיקתיים. בהתאם, יש להן משקל פרשני והסברתי אשר עשוי להשפיע על עיצוב מדיניות, יוזמות חקיקה ואף על פסיקה עתידית באיחוד ובמדינות החברות בו.[17]
התיאבון האינסופי למידע גובה מחיר. חברות שמחזיקות בתוכן אורגני איכותי, מזמן גובות תשלום על הגישה למאגרי המידע היקרים הללו (Reddit, Discord ו-X לדוגמא). במובן הזה אפשר לחשוב על מידע "אורגני" ששמור באינטרנט (כזה שנוצר על ידי בני אדם) כמו על הדלק המאובן (fossil fuel) של מהפכת ה-AI. כמו בתעשיית האנרגיה, שבה הבינו שלא ניתן להסתמך על נפט לנצח, גם בתעשיית המידע מתחילים להבין שמודלים גדולים של שפה (LLMs), יידרשו בקרוב למקורות "דלק" אלטרנטיביים.[18]
הצורך במקורות מידע אלטרנטיביים יוצר בעיות קשות לא פחות. אחד הפתרונות למשל הוא ייצור מידע סינתטי בעזרת AI כדי לאמן מודלים חדשים. פתרון זה יוצר כמה בעיות, למשל, אם האלגוריתם שמייצר את המידע הסינתטי סובל מהזיות או הטיות בגלל המידע שעליו אומן במקור או מסיבות אחרות, הבעיות הללו יכולות להשתרבב למידע הסינתטי החדש, וכך להשתכפל למודלים חדשים. אפילו אם המידע הסינתטי יהיה "נקי", ככל שהמידע הזה יוזרם על ידי משתמשים כתוכן לתוך האינטרנט – כמו שעושות כיום מחלקות שיווק רבות בכל העולם- האינטרנט יהפוך בהדרגה לפחות אנושי ויותר אלגוריתמי.[19]
בישראל התפרסמה לאחרונה טיוטת עמדה של הרשות להגנת הפרטיות להערות הציבור, במסגרתה הביעה הרשות דעתה כי השימוש במידע אישי לשם אימון מודלים, גם אם התפרסם באופן פומבי במכוון על ידי נושא המידע, כפוף לדרישת ההסכמה המעוגנת בחוק הגנת הפרטיות. בהערות שהוגשו מטעם משרד שבלת משרדנו, עמדנו על כך שמדובר בדרישה מכבידה ועד בלתי אפשרית, ובוודאי ביחס למידע כאמור שכבר נעשה בו שימוש, אשר אינה עולה בקנה אחד עם עמדות של רגולטורים אחרים בעולם ביחס לנושא זה. (לינק)
זווית שלנו: האינטרנט שעליו גדלנו כבר לא יחזור להיות מה שהיה, ואולי יהפוך בעתיד לפרוטוקול ענק של תקשורת בין מכונות. עולם המשפט מגיב באיחור ומנהל, כהרגלו, קרב רגולטורי מאסף עם ענקיות הטכנולוגיה, תוך שהוא מתיר בדיעבד התנהלות אגרסיבית, ומשרטט גבולות גזרה לא מאיימים במיוחד. באנלוגיה למהפכה התעשייתית, אנחנו עדיין בשלב השימוש "בפחם" והרגולציה תידרש לעוד זמן רב כדי להדביק את הפער ולהסדיר את "המכרות" ואת הזכויות החברתיות הנוגעות להם.
צלילה עמוקה 1 הזכות להשכח בעידן הזכרון הנצחי

עו״ד מיקי גלר
פרטיות ובינה מלאכותית
אחת הטענות המרכזיות בנוגע לבינה מלאכותית היא שהקצב המהיר שבו היא מתפתחת מקשה על הסדרה רגולטורית אפקטיבית. אף שאישית, אני תומך ברגולציה, וסבור שיש להסדיר את התחום באמצעות מסגרת גמישה ודינמית, ניתן לראות כיצד הבינה המלאכותית מערערת את ישימותן של מסגרות רגולטוריות קיימות – לדוגמה, בכל הנוגע לזכות למחיקת מידע והזכות להישכח בעידן הדיגיטלי החדש.
הזכות להישכח קיבלה ביטוי משפטי משמעותי בפסק דין משנת 2014 בעניין גוגל. בפסיקה, בית המשפט הכיר בזכותו של אדם לדרוש הסרת קישורים לתכנים ישנים הנוגעים אליו ממנוע חיפוש, גם כאשר המידע עצמו נותר זמין במקור (לפסק הדין המלא). לאחר מכן, הזכות להישכח קיבלה עיגון מפורש בסעיף 17 לתקנות ה-GDPR האירופאיות, לצד הזכות למחיקת מידע [20]. שתי הזכויות משיקות אך אינן חופפות: הזכות למחיקה, המעוגנת בסעיף 17(1), מאפשרת לנושא המידע לדרוש את מחיקת המידע האישי שלו כשמתקיימים תנאים מסוימים – כמו סיום הצורך במידע, משיכת הסכמה, עיבוד בלתי חוקי, או חובה משפטית למחיקה. לעומתה, הזכות להישכח, המעוגנת בסעיף 17(2), מהווה הרחבה של הזכות זו במקרה שבו המידע פורסם ברבים, ומטילה על בעל השליטה חובה לנקוט צעדים סבירים, לרבות טכניים, כדי ליידע צדדים שלישיים שמעבדים את המידע על בקשת המחיקה, ולפעול להסרת קישורים, עותקים או שכפולים של המידע.
בעל השליטה במידע אישי ("controller") כפוף באופן אוטומטי לחובות מחיקה סטטוטוריות, ונדרש גם למלא אחר בקשות למחיקה מצד נושאי המידע. הדין אינו מכתיב כיצד יש למחוק את המידע בפועל והעיקרון המנחה הוא מחיקה באופן שלא ניתן יהיה לזהות מידע אישי באמצעים סבירים. לרוב, די בכך שנשאבו הנתונים, הושמדו פיזית או נמחקו לצמיתות באמצעים טכנולוגיים ייעודיים. עם זאת, הזכות להישכח אינה מוחלטת והיא מוגבלת בעיקר כאשר היא מתנגשת עם זכויות אחרות, למשל חופש הביטוי. חריגים נוספים עשויים לחול כאשר עיבוד המידע נדרש לצורך עמידה בחובה משפטית, מטרות ארכיון, מחקר או לצורך התגוננות מפני תביעות משפטיות.
מימוש זכויות אלו אינו פשוט בפני עצמו ומטיל על גופים נטל שלעיתים קשה לעמוד בו. מימוש הזכות למחיקה ובפרט הזכות להישכח הופך מורכב במיוחד כאשר מדובר במודלים של בינה מלאכותית שאומנו על גבי מידע אישי. עניין זה מעלה שאלות שונות – כיצד ניתן ליישם זכויות אלו? האם יש להסיר את המידע ולבצע אימון מחדש של המודל? האם די בכך שהמודל לא יוכל לשלוף את המידע באופן ישיר?
גם כשהמידע נמחק ממסד נתונים, ייתכן שהמודלים שכבר הוכשרו על בסיסו ממשיכים לשמר דפוסים שנלמדו ממנו. האם המשמעות היא שיש למחוק את המודל כולו? הרי מובן כי מדובר בפתרון לא פרופורציונלי, במיוחד כאשר מדובר במודלי שפה גדולים (LLMs) או מודלים גנרטיביים אחרים המאומנים על כמויות גדולות של מידע. במסגרת מחקר שנערך בשנת 2019 באוניברסיטת סטנפורד, ציינו החוקרים כי הדרך היחידה להסרה מוחלטת של השפעת מידע אישי היא באימון מחדש של המודל – פתרון יקר ובלתי ישים ברוב המקרים (לינק למחקר המלא).
הספרות המשפטית מציעה פתרונות אפשריים כמו שימוש במידע מותמם (פסאודונימי), טכניקות ערבול מידע, או שימוש במידע סינתטי, במטרה להקשות על זיהוי מידע אישי בתוך המודל, אך גם פתרונות אלו נתונים לביקורת. כך לדוגמה, הנחיית מועצת הגנת המידע האירופית (EDPB) קובעת כי גם מידע מותמם עשוי להיחשב כמידע אישי, כאשר ניתן לשחזר את הזיהוי – גם אם מפתח ההתממה לא מצוי בידי הגורם המחזיק במידע (לינק להנחיית EDPB).
גישה שונה לחלוטין מציעה להתאים את הדין לטכנולוגיה. הרי הציפייה שמידע אישי שנכלל במודל כמו GPT-4, המכיל 1.8 טריליון פרמטרים ונשען על מאגרי מידע עצומים, צריך להיות כפוף לאותן זכויות מחיקה – כאשר הסיכוי שיישלף פרט מסוים הוא זניח, היא לא סבירה. בהשוואה לסוגיה המוזכרת בניוזלטר בעניין הגנת "שימוש הוגן" שטענה מטא בעניין ההתנגשות בין הצורך באימון מודלים לבין זכויות יוצרים, קבעו השופטים כי ככלל, שימוש ביצירות המוגנות בזכויות יוצרים לצורך אימון מודלים גנרטיביים של בינה מלאכותית עשוי להיחשב שימוש הוגן, בשל האופי הטרנספורמטיבי (המשנה באופן מהותי) של תהליך האימון של מודלים לשפה טבעית. בעניין זה, פורסמה בישראל כבר בשנת 2022 (חוות דעת של משרד המשפטים אשר במהותה דומה לקביעת בית המשפט (לינק לחוות הדעת המלאה.
למרות שנראה שמדובר בפתרון הנכון והיעיל, אפשרות זו לא תואמת את גישת הרגולטורים בעולם. כך למשל, ה-EDPB קבע כי מפתחי מערכות בינה מלאכותית עשויים להיחשב "בעלי שליטה" לפי ה-GDPR ובהתאם יחולו חובות הדין ביחס לזכויות נושאי המידע, ביניהן הזכות למחיקה והזכות להישכח תחת ה-GDPR כפי שצוין לעיל.
בארצות הברית לא קיימת זכות פדרלית להישכח, והסדרה בנושא נעשית בעיקר ברמה המדינית. עם זאת, בשנת 2024 קליפורניה תיקנה את חוק הגנת הצרכן שלה (CCPA) באמצעות חוק AB 1008שהרחיב את הגדרת "מידע אישי" בחקיקה הראשית, כך שתכלול גם מערכות בינה מלאכותית המסוגלות לספק פלט הכולל מידע אישי – ובכך הורחבה האפשרות לדרוש מחיקת מידע אישי גם ביחס למערכות בינה מלאכותית אלו.
בבריטניה, בהתבסס על עמדת רשות הגנת המידע הבריטית (ICO), ניתן לראות גישה מחמירה גם כן בנוגע לזכות למחיקת מידע אישי ממודלים. במסמך שפרסמה הרשות, נקבע כי בקשות למחיקת מידע אישי מתוך נתוני אימון אינן ניתנות לדחייה רק בשל כך שהמידע עבר עיבוד מקדים (pre-processing) או שאינו כולל מזהים ישירים – כל עוד ניתן לייחס אותו לפרט כלשהו. אף שהרשות הבריטית מציינת חריגים מסוימים ומכירה בצורך לאזן בין זכויות הפרט לבין מגבלות טכנולוגיות, הגישה שהיא מציגה משתלבת במגמה הכללית של רגולטורים הדורשים מתאגידים להתמודד בפועל עם יישום הזכות למחיקה, גם בהקשרים של מודלים מאומנים ([לינק מסמך ICO]().
בישראל, נכון לעכשיו, לא קיימת זכות למחיקת מידע או זכות להישכח תחת דיני הפרטיות. עם זאת, קיימות זכויות אחרות כגון הזכות לעיון, והזכות לתיקון ומחיקת מידע שגוי, חלקי או לא מדויק. מעניין יהיה לראות כיצד זכויות אלה ייושמו ביחס למערכות של בינה מלאכותית, בפרט לאור פורסמה של טיוטת הנחיית הרשות להגנת הפרטיות המחילה את חוק הגנת הפרטיות גם על מערכות אלו. במסגרת ההנחיה, מבהירה הרשות כי במערכות בינה מלאכותית, הזכות לבקש תיקון מידע שגוי עשויה להתייחס גם לתיקון האלגוריתם שהפיק מידע כאמור, כאשר אין דרך אחרת למנוע ממנו לשוב ולהפיק מידע שגוי. לכן, ניתן להסיק שככל שיותאמו זכויות נושאי המידע בישראל למצב הקיים באיחוד האירופי (כפי שהצהירה הרשות להגנת הפרטיות במספר הזדמנויות על תיקון המשך לחוק הגנת הפרטיות), הגישה שתינקט תהיה דומה. הרשות אף הבהירה, במסגרת טיוטת ההנחיה, כי לאור החשיבות המיוחדת של הדיוק והאמינות של מידע אשר מעובד ומופק במערכות בינה מלאכותית, בכוונתה לשים דגש על אכיפת זכויות נושאי המידע ביחס למערכות אלה (לינק לטיוטת ההנחיה).
סוגיות אלו ימשיכו להעסיק את הרגולטורים בעולם, שיאלצו להכריע אם להתאים את הדין הקיים או ליצור דינים חדשים – שיהיו דינמיים וגמישים להתפתחות הטכנולוגית המואצת.[21]
צלילה עמוקה 2 – בינה מלאכותית ופרוטוקול הדירקטוריון: חדר הישיבות של העתיד

עו״ד אמיר שחר
שותף, שוק ההון, ניירות ערך ובינה מלאכותית
הבינה המלאכותית כבר אינה ניצבת מחוץ לדלת ישיבת הדירקטוריון- היא משתלבת בהדרגה ומשנה את פני הממשל התאגידי בחברות. הפרוטוקול, מהמסמכים הפורמליים החשובים ביותר בתאגיד, עובר מתיחת פנים וזוכה ליישומים חדשים, אך לצד ההזדמנויות מתעוררים גם אתגרים וסיכונים בשילוב כלי הקלטה, תמלול וסיכום מבוססי AI. בכתבה זו נציג דרכי פעולה מעשיות שיסייעו להפיק את המירב מהכלים הטכנולוגיים בפרוטוקול, תוך שמירה על אחריות, דיוק ועמידה בדרישות הרגולציה.
היתרונות של שימוש בבינה מלאכותית בפרוטוקולים
עורך הפרוטוקול נדרש לתעד במדויק את כל הנאמר במהלך הישיבה וליצור מסמך המשלב דיוק עובדתי של עיקרי הדיון וההחלטות שהתקבלו, והכל בפורמט ברור, שניתן להעביר למשתתפים תוך זמן קצר לאחר הישיבה. פרוטוקול כתוב היטב מהווה לא רק כלי עבודה חיוני, אלא שכבת הגנה חשובה לדירקטורים מפני אחריות אישית. משימה זו דורשת מיומנות גבוהה, ריכוז מתמשך והבנה מעמיקה של הדינמיקה בחדר הישיבות ושל פעילות החברה, וכן היכרות עם הדרישות המשפטיות והרגולטוריות הרלוונטיות.
כיום, ניתן לייעל את התהליך באופן משמעותי באמצעות בינה מלאכותית. כלים מתקדמים מסוגלים להקליט, לתמלל ולסכם את הישיבה באופן אוטומטי, ובכך לצמצם את הסיכון להחמצת פרטים חשובים. היתרונות ברורים: יעילות מוגברת, שיפור הדיון והעקביות, חיסכון ניכר בזמן ועלויות והפקת פרוטוקולים בפורמט אחיד הכולל את כל המידע הנדרש על פי דין.
יתרונות הבינה המלאכותית אינם מוגבלים רק לתיעוד ישיבת הדירקטוריון עצמה, אלא משדרגים גם תהליכים נלווים, כגון:
- הכנת חומרי רקע לישיבות: סיכום חומרים רבים, הצגת נתונים באופן ויזואלי, בניתוח מידע מגוון, בזיהוי מגמות והפקת תובנות רלוונטיות.
- ניסוח החלטות דירקטוריון: ניסוח החלטות פורמליות, שיהיו מנוסחות בבהירות ויכללו את כל הפרטים הנדרשים.
- מעקב אחר יישום החלטות: אחד האתגרים בעבודת הדירקטוריון הוא מעקב שוטף אחר ביצוע החלטות לאורך זמן. כלי AI יכולים לנהל מערכת מעקב אוטומטית, להתריע על החלטות שטרם יושמו, ולהציג את סטטוס הביצוע בזמן אמת.
גם בדירקטוריונים שבהם קיימת הסתייגות מהקלטת הישיבות, ניתן להזין פרוטוקול גולמי שהוקלד במהלך הישיבה לכלי AI לצורך עריכה, שיפור הניסוח והשלמת פרטים חסרים- תוך שמירה על הדיוק והמהות של הדברים שנאמרו.
אתגרים וסיכונים משפטיים בשימוש ב-AI
בינה מלאכותית אינה חפה מטעויות ושימוש בה לצרכים אלו מעלה אתגרים משפטיים מהותיים. לעתים, הכלים אינם מבינים את הדקויות של השיחה האנושי ועלולים להפיק תכנים שגויים או לא מדוייקים, לרבות "הזיות" (hallucinations) – כלומר יצירת תוכן שנראה אמין אך למעשה אינו מדויק או אף בדוי לחלוטין. טעויות אלו פחות שכיחות ב"תמלול" ישיבת דירקטוריון, אך הן עלולות להופיע בסיכום ישיבות ולפגוע באמינות ובתקפות הפרוטוקול.
קיימת גם חשיפה בהיבטי אבטחת מידע ופרטיות. על החברה להבטיח, בסיוע מומחים בתחום אבטחת מידע ופרטיות, שמידע מאובטח, לא יעבור לצד שלישי, יימחק ממאגרי המידע של השירותים הרלוונטים תוך פרק זמן מוגדר ולא ישמש לאימון מודלים נוספים. מומלץ לאסור שימוש בכלים לא מאושרים במסגרת ישיבות הדירקטוריון, גם אם מדובר בכלי פרטי של דירקטור (למשל, תוסף ל-Zoom שהדירקטור התקין באופן עצמאי).
פרוטוקול הדירקטוריון צריך לשקף את הדיון האנושי, לרבות הנימוקים, חילוקי הדעות, השאלות, התשובות, והאתגרים שהוצגו להנהלה או נדונו בין הדירקטורים עצמם, תהליך קבלת ההחלטות וזהות המתנגדים או הנמנעים. הסתמכות עיוורת על כלי AI לסיכום הדיון, עלולה להוביל לפסיביות ולהחלשת מעורבות גורמים רלוונטיים בתהליך ולפגוע באיכות התיעוד. בפרט, בנושאים מהותיים, פרוטוקול שטחי או תמלול אוטומטי, ללא בקרה אנושית קפדנית עלול לערער את הגנת כלל שיקול הדעת העסקי ולחשוף את הדירקטורים לסיכונים משפטיים ממשיים.
סוגי פרוטוקולים, יתרונות וסיכונים בשילוב בינה מלאכותית והמלצות לשימוש מושכל
סוג פרוטוקול | נפוץ בקרב | יתרונות שימוש בבינה המלאכותית | סיכונים | המלצות |
סיכום כללי של עיקרי הישיבה (ללא תמלול עיקרי הדברים שנאמרו על ידי כל משתתף באופן מובחן) בעזרת כלי חכם | סטרטאפים, חברות ללא כוונת רווח, חברות דואליות | מהירות הכנת הסיכום ושליחתו לעיון הדירקטורים, כשהמידע עדיין טרי ומדויק | פספוס ניואנסים, אי הבלטת נושאים שונים לרבות דעות מיעוט או שאלות מהותיות שעשויות להיות חשובות מאוד משפטית | מתן הנחיות ברורות לבינה המלאכותית להבליט הסתייגויות, דעות מיעוט, שאלות דירקטורים ותשובות מהותיות של ההנהלה, חומרי רקע, אופן הצבעה ונימוקים בנושאים חשובים ונושאים שנדחו. אין להסתפק בסיכום אוטומטי – יש לבצע בקרה אנושית ולוודא שהסיכום משקף נאמנה את עיקרי הדיון והחלטות הדירקטוריון |
סיכום עיקרי הדברים שנאמרו בישיבה | חברות הכפופות לרגולציה מחמירה (רשות ניירות ערך, רשות שוק ההון וכדומה) | יכולת גבוהה לזהות דוברים ולסכם את דבריהם המהותיים; לשנות את התמלול לגוף שלישי באופן עקבי ולשפר את הניסוח והעיצוב תוך שמירה על המשמעות המקורית | אי-דיוק בניסוחים, פספוס ההקשר המלא או השמטת הסתייגויות חשובות. קושי בהפיכת התמלול לסיכום שישקף את מהות הדברים, אי הבלטת דעות מיעוט או דיונים חשובים | יש להפעיל את הבינה המלאכותית גם ככלי בקרה ("שומר סף" משפטי). לבקש ממנה להתריע על פערים, חוסרים רגולטוריים או נושאים שלא קיבלו מענה מספק. מומלץ לשלב בקרה אנושית ולוודא שכל דעה מהותית, הסתייגות או שאלה חשובה תכנס לפרוטוקול. |
המלצות מעשיות: שילוב חוכמה אנושית עם חוכמה מלאכותית
. יישום בטוח של בינה מלאכותית דורש נקיטת צעדים מובנים להפחתת סיכונים:
- גיבוש מדיניות משפטית ברורה: קביעת מדיניות פנימית מפורטת לשימוש בבינה מלאכותית, כולל הגדרת אחריות משפטית, תהליכי סקירה, נהלי שמירה ומועדי מחיקה של תמלילים וטיוטות. חשוב לזכור ששמירת תמלילים גולמיים לטווח ארוך עלולה לערער את מעמד הפרוטוקול הרשמי וליצור חשיפה משפטית מיותרת.
- בקרה אנושית ופיקוח משפטי: כל תוצר של בינה מלאכותית חייב לעבור בדיקה מעמיקה על ידי איש מקצוע מנוסה. אסור להסתמך על תמלול, סיכום או ניתוח אוטומטי מבלי לבחון אותו בעין ביקורתית ולוודא שהוא משקף נאמנה את מהות הדיון וההחלטות שהתקבלו.
- הגנה על סודיות ואבטחת מידע: בעת שימוש בכלי AI חיוני לוודא מול הספק שהנתונים הארגוניים יישארו חסויים ולא ישמשו לאימון מודלים. יש לוודא שלגורמים אנושיים אצל הספק לא תהיה גישה לנתונים, שהמידע לא יישותף עם צדדים שלישיים ללא הסכמה מפורשת, לא ישמש לאימון, ושהספק מחזיק בתוכנית אבטחת סייבר מתקדמת המתעדכנת שוטף, וימחק את הקבצים מהשרת תוך זמן מוסכם.
- הגבלות גישה והרשאות: ודאו שהשימוש בכלי AI תואם למדיניות הקיימת של הגבלות גישה והרשאות פנימיות של החברה, כדי למנוע חשיפה בלתי מורשית של מידע רגיש או סודי.
- הכשרה והדרכה: לכל הפחות דירקטורים ומזכיר החברה צריכים לעבור הכשרה מתאימה לגבי שימוש מושכל ב-AI, להבין את מגבלותיה ולדעת לשאול את השאלות הנכונות ולזהות סימני אזהרה בתוצרים שהיא מייצרת.
- בחינה תקופתית של התהליך: קיימו בחינה תקופתית של אפקטיביות השימוש ב-AI בעבודת הדירקטוריון, כולל זיהוי נקודות תורפה, הפקת לקחים ועדכון הנהלים בהתאם.
זווית שלנו: כלי הבינה המלאכותית מציעים יתרונות משמעותיים בייעול תהליכי תיעוד, הכנת חומרי רקע לישיבות, ניסוח החלטות ומעקב אחר יישומן. עם זאת, יש לזכור כי הבינה המלאכותית היא כלי עזר בלבד והאחריות המשפטית הסופית נותרת בידי הדירקטורים. שילוב נכון של טכנולוגיה בחדר הישיבות שמחייב איזון בין חדשנות תוך בקרה אנושית הדוקה והקפדה על עקרונות ממשל תאגידי תקין.
להרחבה נוספת בעניין:
- https://ami.org.au/wp-content/uploads/2024/08/AI-and-Board-minutes-Issues-Paper.pdf
- ttps://www.aicd.com.au/content/dam/aicd/pdf/tools-resources/director-tools/board/legal-opinion-on-contemporary-issues-in-minute-taking-may-2025.pdf
- https://corpgov.law.harvard.edu/2025/06/23/ai-can-draft-board-minutes-but-should-it-considerations-for-public-companies/
הזדמנויות מימון לחברות AI, קולות קוראים, אירועים קרובים, והיכן אפשר לפגוש בימים אלה את צוות משרד שבלת
האיחוד האירופי השיק את תכנית InvestEU שתשקיע מאות מיליארדי יורו במיזמי חדשנות ובינה מלאכותית
תכנית הדגל של האיחוד האירופי מציעה מימון משמעותי לחברות המפתחות "Trustworthy AI", במודל דומה לתוכניות דוגמת Horizon Europe, עם דגש על פתרונות לתעשייה המסורתית ו-SMEs. נשמח לסייע בבחינת התאמה ובהגשה לחלון הגשה Q4 2025.
InvestEU – Trustworthy AI Funding
קול קורא של רשות החדשנות "הנגשת נכסי דאטה להאצת מחקר בינה מלאכותית
במסגרת ההליך החדש ניתן להגיש בקשות לקבלת מענק לצורך הקמה והנגשת נכסי דאטה (מאגרי נתונים ותשתיות מו"פ) שישמשו להאצת מחקרי AI היוזמה נועדה למנף את מאגרי המידע הקיימים בישראל ולאסוף דאטה חדש לטובת מו"פ בתחומי ה-AI כדי להעניק לישראל יתרון תחרותי גלובלי על ידי קידום חברות בתחום זה. נכסי הדאטה מיועדים למחקר ופיתוח במגוון תחומים, כולל מדעי החיים, ייצור מתקדם, אגרוטק, פודטק, דזרטק ואקלים, ביטחון והייטק. וובינר רשות החדשונת יתקיים ב-6.8.25 פרטים נוספים אפשר למצוא כאן.
הרצאה של ניר פיינברג והילה שרייבמן בנושא "הבינה היא מלאכותית – האחריות היא משפטית" שהתקיימה בכנס שנתי של ארגון היועצים המשפטיים (ACC)
ההרצאה התמקדה בפער המתרחב בין התפתחות טכנולוגיות AI לבין ההסדרה המשפטית, תוך סקירת מגמות רגולציה עולמיות והמצב בישראל וסקירת סיכונים מעשיים, תוך הדגשת תפקיד היועמ"ש בהובלת מדיניות יזומה, והצעת כלים פרקטיים לניהול סיכונים, מיפוי שימושים, ניסוח מדיניות והכשרת עובדים.
הרצאה של מעין זילברמינץ בנושא רגולציית AI ופרטיות שהתקיימה בוובינר של קהילת "יועמ"שים למען יועמ"שים" ופורום העסקים והחדשנות אירופה – ישראל
ההרצאה יועדה ליועצים משפטיים וקציני ציות כהכנה לקראת שינויים רגולטוריים משמעותיים בתחום ה-AI והפרטיות. הוובינר עסק בטיוטת הנחית הרשות להגנת הפרטיות בנושא תחולת חוק הגנת הפרטיות על כלי בינה מלאכותית ובתיקון 13 לחוק הגנת הפרטיות (שייכנס לתוקף ב-14 לאוגוסט). בנוסף, ההרצאה עסקה ביישום רגולציית הבינה המלאכותית האירופית (EU AI Act) וכללה סקירה עדכנית ומתן המלצות פרקטיות להיערכות, בהשתתפות מומחית ממשרד Taylor Wessing בבריטניה.
וובינר בנושא AI & Health Care בשיתוף משרד Hogan Lovells בנושא התפתחויות בתחום רגולציה של בינה מלאכותית ביישומים רפואיים
הוובינר התקיים בהשתתפות עמוס בנצור וניל חיון דיקמן
המילה האחרונה – המגמות שנעקוב אחריהן ברבעון הקרוב ולמה הן חשובות
האם תוגש בקרוב התביעה הגדולה הראשונה בגין שימוש במידע סינתטי "פגום"? תביעה כזו עשויה להציב במבחן את שרשרת האחריות של מפתחי המודלים, ספקי הפלטפורמות והמשתמשים. מעניין יהיה לראות אילו משרדי עורכי דין בארה"ב ייקחו על עצמם את המשימה המורכבת של להוכיח שהאינטרנט השתנה לטובה או לרעה בעקבות עליית הבינה המלאכותית.
מה יעלה בגורל תחום ה-RegTech? מדובר בתחום חדש יחסית שהתפתח בשנים האחרונות בקצב מסחרר. האם פלטפורמות ציות חכמות יחליפו את משרדי עורכי הדין המסורתיים או שהמקצוע המשפטי הזה פשוט יומצא מחדש. קשה לדעת אך ברור שתעשיית הציות משתנה מן הקצה לקצה לנגד עינינו.[22]
נשמח לעמוד לרשותכם ולסייע לארגונכם לעמוד בציות לדרישות הדין והנחיות הרשות, מחלקתנו מלווה ארגונים ביישום מדיניות אכיפה הן לשימוש ופיתוח בכלי AI והן לאכיפת הגנת הפרטיות ואבטחת מידע לרבות ייעוץ וליווי לעריכת מדיניות ארגונית כאמור לעניין שימוש בכלי AI (AI Governance Policy) בהתאם לצרכי לקוחותינו ולשימושים הרלוונטיים במערכות AI בארגון, אשר מספקת מענה לדרישות החוק ולדרישות הרשות.
בברכה,
פרקטיקת AI, סייבר, מידע ופרטיות
שבלת ושות'
[1] https://www.forbes.com/sites/sethmatlins/2025/06/19/the-2025-forbes-worlds-most-influential-cmos-list/
[2] https://techcrunch.com/2025/03/06/a-quarter-of-startups-in-ycs-current-cohort-have-codebases-that-are-almost-entirely-ai-generated/?utm_source=chatgpt.com
[3] https://www.polarismarketresearch.com/industry-analysis/ai-code-tools-market?utm_source=chatgpt.com
[4] ניתן לעקוב אחר התפתחויות הרגולציה בעולם ב-OECD.AI Policy Observatory, לקרוא על חוק ה-AI של האיחוד האירופי, ועל הצו הנשיאותי של ארה"ב בנושא ה-OECD.ראו; https://iapp.org/resources/article/global-ai-legislation-tracker/ ;OECD AI Policy Tracker
[CFR – U.S.–China Tech Competition]
[5] דו"ח על התחרות האסטרטגית-טכנולוגית בין ארה"ב לסין Council on Foreign Relations – The U.S.-China Technological Competition
[6] Full Stack – China's Evolving Industrial Policy for AI
[7] את הדוח המלא אפשר למצוא כאן. לרכיב טכנולוגיית ה-AI בפיגור האירופי הכללי ראו בעמ' 14, לדיון בסוגיית מבנה המימון של טכנולוגיות מתקדמות באירופה ראו עמ' 62-65.
[8] להרחבה ראו מדריך לרגולציית בינה מלאכותית של משרד עורכי הדין White & Case, בעמ' 101 כאן.
[9] התכנית המקורית הוצגה במסגרת אסטרטגיית הסחר הבין לאומי של האיחוד האירופי בשנת 2021, במקביל לפרסום מסמך המדיניות המרכזי בנושא על ידי מכון המחקר של הנציבות האירופית שהיה שותף פעיל בגיבושה –כאן.
[10] The One Big Beautiful Bill is one big disaster for AI וכן AI and Tech under the One Big Beautiful Bill Act: Key Restrictions, Risks, and Opportunities, Ropes & Gray.
[11] מומלץ להקשיב לפודקאסט של ה-CSIS (Center for Strategic & International Studies) בנושא (לינק).
[12] לקריאה נוספת בנושא "אפקט בריסל" ראו ספרה המקיף והחשוב של אנו בראדפורד משנת 2020 The Brussels Effect: How the European Union Rules the World.
[13] ראו סיקור חדשותי כאן, ואת פסק הדין כאן.
[14] – Is Web Scraping Legal? Unraveling the Complexities of Data Privacy & Ownership ראו גם – [OECD – IP & Data Scraping for AI].
[15] Getty Images משכה תביעה כנגד חברת Stability AI על שימוש בתוכן מוגן לאימון מודלים בבריטניה ימים ספורים לאחר הפסיקות בארה"ב Getty drops copyright allegations in UK lawsuit against Stability AI
[16] ראו טיוטת הנחיה – תחולת חוק הגנת הפרטיות על מערכות בינה מלאכותית.
[17] Generative AI and Copyright Training, Creation, Regulation; EPRS Study requested by JURI
[18] ראו Will We Run Out of Data? Limits of LLM Scaling Based on Human-Generated Data
[19] לדיון מעניין בנושא ראו Discord's CTO is just as worried about enshittification as you are.
[20] לסקירה ראו כאן [GDPR.eu – Right to be Forgotten].
[21] לקריאה נוספת ראו – The Right to Be Forgotten Is Dead: Data Lives Forever in AI.
[22] למשל – מטא הכריזה לא מזמן שהיא תייצר 90 אחוז מדוחות הבטיחות, הסיכונים והפרטיות שלה באופן אוטומטי https://www.npr.org/2025/05/31/nx-s1-5407870/meta-ai-facebook-instagram-risks.