© כל הזכויות שמורות לברנע ג'פה לנדה משרד עורכי דין

Together is powerful

שימוש בבינה מלאכותית במגזר הפיננסי: דוח סופי

תקציר

  • דוח סופי לשימוש בבינה מלאכותית במגזר הפיננסי: פורסם לאחר הליך שיתוף ציבורי על ידי צוות בין־משרדי, ומהווה המשך לדוח הביניים מסוף 2024. הדוח מעודד חדשנות תוך הסרת חסמים רגולטוריים ייחודיים לישראל.
  • סיכונים מרכזיים: הדוח מצביע על סיכונים פיננסיים, סייבר, הונאה, תחרות, אפליה ופגיעה בפרטיות, ומדגיש את הצורך בגישה מערכתית והיערכות של הגופים הפיננסיים.
  • עקרונות להטמעה אחראית: המלצות הדוח כוללות גישת סיכון, ממשל תאגידי פנימי, הסברתיות של מערכות, מעורבות אנושית לפי הצורך, גילוי למשתמשי הקצה ומניעת הטיה ואפליה. כמו כן, מוצע בסיס חוקי חדש לעיבוד מידע אישי לצורכי אימון מערכות בינה מלאכותית.
  • תחומים יישומיים: בהתייחס לייעוץ השקעות, אשראי בנקאי וחיתום ביטוח, ממליץ הדוח להטמיע בינה מלאכותית באופן מבוקר, להבטיח הסברים ברורים להחלטות אוטומטיות ולשמור על אחריות מלאה של הגופים הפיננסיים.
  • צעדים נדרשים לגופים פיננסיים: למפות ולזהות שימושים קיימים בבינה מלאכותית, להעריך סיכונים, לגבש מדיניות פנימית, להבטיח יידוע ושקיפות, וליישם אמצעים להבטחת פעילות הוגנת ואחראית של המערכות.

בתום הליך שיתוף ציבורי נרחב, פורסם בשבוע שעבר דוח המלצות סופי בנושא בינה מלאכותית בסקטור הפיננסי. הדוח גובש על ידי צוות בין-משרדי הכולל את משרדי המשפטים והאוצר, רשות התחרות, רשות ניירות ערך, רשות שוק ההון והפיקוח על הבנקים. דוח זה מהווה המשך לדוח הביניים שפורסם בסוף שנת 2024, אשר את עיקריו סקרנו בעדכון לקוחות קודם , והוא משקף את המסקנות שהתגבשו לאחר תהליך בחינה שנערך מול הערות הציבור והגורמים המקצועיים.במסגרת זו אף נלקחו בחשבון המלצות המשרד ביחס להיבטי הבינה המלאכותית בגיבוש התוצר הסופי.

 

הדוח מעגן המלצות לשימוש בטכנולוגיית בינה מלאכותית במגזר הפיננסי, ומציג מתווה פעולה מומלץ לרגולטורים הפיננסיים בישראל, תוך עידוד החדשנות ואימוץ הבינה המלאכותית. המלצות הדוח מבקשות להימנע מיצירת חסמים ייחודיים לישראל ובהסרת חסמים קיימים כדי לעודד שוק תחרותי, חדשני ויעיל.

הדוח סוקר את האתגרים בתחום הבינה המלאכותית באופן כללי, את הסיכונים הייחודיים הנוגעים לעולם הפיננסי, ואת ההשפעות בשלושה תחומי פעילות – ייעוץ השקעות וניהול תיקים, אשראי במערכת הבנקאית וחיתום ביטוח.

 

אתגרי הבינה המלאכותית במגזר הפיננסי

 

הדוח מצביע על מספר אתגרים עיקריים בשימוש בכלי בינה מלאכותית שעל הגופים הפיננסיים להיערך אליהם:

 

סיכוני יציבות פיננסית – הסתמכות על מספר מצומצם של מודלים מקובלים של בינה מלאכותית בידי שחקנים שונים במגזר הפיננסי עלולה להוביל לתופעה בה שחקנים רבים פועלים באופן דומה ולהוביל לפגיעה ביכולת קבלת החלטות מגוונות. משמעות הדבר היא כי כשל במערכות אלה עלול להביא לזעזוע במגזר כולו, ולסכן שחקנים רבים בשל ההסתמכות המשמעותית עליהן.

 

סיכוני סייבר והונאה – הבינה המלאכותית עלולה לשמש כלי להפצת דיסאינפורמציה ולהונאות פיננסיות, באמצעות שימוש באמצעי התחזות טכנולוגיים כדוגמת deep fake או אחרים.

 

סיכון לתחרות – הטמעת מודלים של בינה מלאכותית בתחום הפיננסי עלולה להעלות חששות תחרותיים במספר מישורים: חשש מריכוזיות או מיצירת מונופול באספקת שירותי בינה מלאכותית (למשל – בידי חברות טכנולוגיה גדולות) אל מול גופים פיננסיים; חשש מהעצמת הריכוזיות ומהגבהת חסמי הכניסה לתחום הפיננסי עבור גורמים שאין בידם מידע בהיקף מספק; וחשש לחיזוק הכוח של גורמים פיננסיים המשתמשים במודלים של בינה מלאכותית מול לקוחותיהם השבויים וחשש לתיאומים או להתאמת התנהגות דמוית-קרטל באמצעות המודלים..

 

אפליה ופגיעה בפרט – טעויות הנובעות משימוש בבינה מלאכותית עלולות להוביל לנזקים משמעותיים ללקוחות, הנובעים מהסתמכות על עיבוד הנתונים שנעשה באמצעותה. למשל, בדחיית בקשות אשראי, זיהוי שגוי של עסקאות חשודות, העדפות במסחר מבוסס בינה מלאכותית ועוד.

 

עקרונות להטמעת בבינה מלאכותית במגזר הפיננסי

 

כאמור לעיל, הדוח סוקר את האתגרים הכלליים הנוגעים לשימוש במערכות בינה מלאכותית בכלל, ולשימוש בה בסקטור הפיננסי בפרט. ביחס לכל סוגיה, מציע הדוח המלצות שונות:

 

  1. הגדרת הבינה המלאכותית – הדוח מציע לקבוע הגדרה אחידה לבינה מלאכותית שתשמש את הרגולטורים. עם זאת, בדוח נכללה המלצה לשמר גמישות בהגדרה, באופן שיאפשר לגופים פיננסיים להחריג מערכות מסוימות מתחולת ההוראות. כך, גוף פיננסי יוכל להחליט, בהתאם להנחיות הרגולטור, כי מערכת מסוימת אינה, לפי מהותה, מערכת בינה מלאכותית. המהלך נועד למנוע רגולציית יתר על כלים פשוטים ולמקד את המשאבים והפיקוח על מערכות מורכבות ומשמעותיות.
  2. גישה מבוססת סיכון וממשל פנימי – לגישת מנסחי הדוח, ההתמודדות עם הטמעת מערכות בינה מלאכותית צריכה להיעשות באמצעות גישה מוכוונת סיכון. מצופה כי הגופים הפיננסיים יקבעו את רמת הסיכון של כל מערכת בהתחשב בסיכון ללקוחות, למשקיעים, לציבור ולגוף הפיננסי עצמו. כפועל יוצא, יידרשו הגופים הפיננסיים לקבוע מסגרות ממשל ארגוני פנימי שיבטיחו בחינה אפקטיבית של הסיכונים ביחס לכל מערכת, ואת ההתמודדות עמם. הדוח מציע לקבוע שתי רמות סיכון – נמוכה-בינונית וגבוהה, כאשר מערכות בסיכון גבוה ידרשו אמצעי הפחתת סיכון משמעותיים יותר.
  3. הסברתיות במערכות בינה מלאכותית – הדוח מבקש לחלק את ההסברתיות לכללית – המתייחסת ליכולת להבין את פעילות המערכת, ופרטנית – המתייחסת לאפשרות לספק הסבר לאופן שבו התקבלה החלטה פרטנית בידי המערכת. בדוח ממליץ הצוות לכלול הסברתיות פרטנית בכל מקרה שבו מערכת הבינה המלאכותית היא רכיב מהותי בתהליך קבלת ההחלטה או יצירת ההמלצה, למשל במקרה של תהליכים אוטומטיים להמלצת השקעה; במקרים אחרים, לא יידרשו הגופים לכלול הסברתיות פרטנית בהקשר למערכת או שיוכלו להסתפק בהסבר חלקי.
  4. מעורבות אנושית – כדי להבטיח פעולה בטוחה ואתית של מערכות בינה מלאכותית, ממליץ הדוח ליישם תהליכי מעורבות אנושית, הגם שאינו כולל חובה לכך בכל אחד משלבי פעילות המערכת. בפרט, מוצע לכלול מעורבות אנושית במערכות המעורבות בהחלטות שהסיכון לפרט בהן גבוה, ובהיעדר חלופות מפצות אחרות. הדוח מדגיש כי תהליכי מעורבות אנושית צריכים להיבחן ביחס לכלל המסגרות הרגולטוריות החלות על מערכת הבינה המלאכותית, וכי במערכות התומכות בהחלטה אנושית ניתן לצמצם באופן ממשי את הדרישה. זאת ועוד, ובניגוד לקבוע בחקיקה האירופאית, נקבע כי אין להחיל דרישה לחלופה של החלטה אנושית לבינה מלאכותית וניתן לאפשר החלטות המבוצעות באופן בלעדי בידי בינה מלאכותית.
  5. יידוע וגילוי – הדוח כולל המלצה ליידוע של משתמשי הקצה בדבר עצם השימוש במערכות בינה מלאכותית, כדי לאפשר בחירה מושכלת ולחזק את האמון בשירות. בפרט מומלץ להקפיד על גילוי כאמור במקרים בהם עשוי המשתמש לטעות ולחשוב שהוא נמצא באינטראקציה עם גורם אנושי. ביחס ליידוע, הומלץ בדוח כי הרגולטורים יתאימו את נוסח ואופן הגילוי, בהתאם לאופי פעילות הגופים הפיננסיים ודרישות נוספות הרלוונטיות לגביהם. מנסחי הדוח ממליצים גם לשלב מידע הנוגע למאפייני השימוש במערכת הבינה המלאכותית במידע המונגש למשתמשים.
  6. בסיס חוקי לעיבוד מידע – הדוח כולל המלצה משמעותית וחדשנית בישראל לקבוע בסיסי עיבוד מידע חדשים לעיבוד מידע אישי, מעבר להסכמה לפי חוק הגנת הפרטיות. בפרט מוצע לקדם בסיסי עיבוד שיאפשרו עיבוד מידע אישי לצורך אימון מערכות בינה מלאכותית. המלצה זו מבקשת לשנות באופן מהותי את המצב החוקי הקיים היום, באופן המסיר חסמים מהותיים מתהליכי פיתוח של מערכות בינה מלאכותית. עוד ממליץ הדוח לאפשר לגופים שבידיהם נצבר כבר מידע פרטי, להשתמש במידע זה לצרכים חדשים של אימון מערכות בינה מלאכותית, בלי קבלת הסכמה מחודשת של נושאי המידע בכל מקרה. המלצות אלה עומדות בעת הזו בניגוד להוראות חוק הגנת הפרטיות, והטמעתן עשויה לדרוש שינוי חקיקה.
  7. הטיה ואפליה – הדוח מדגיש את ההכרח להבטיח כי מערכות הבינה המלאכותית יהיו נקיות מהטיות ואפליה. בין היתר, ממליץ הדוח על הפעלת סמכויות פיקוח בידי הרגולטורים הנוגעים לאיסור האפליה בחוק. בכדי להתמודד עם סיכון זה מומלץ לנקוט תהליכים הבודקים היבטים אלה לכל אורך חיי המערכת, לרבות בחינה תוצאתית של אפליה, כדי לקבוע אם כלי מסוים נקי מהטיה ואפליה.

 

המלצות ביחס לייעוץ השקעות, אשראי בנקאי וחיתום ביטוח

מעבר לסקירה רחבה של סיכונים חוצי מגזר, כולל הדוח המלצות פרטניות לגבי שלושה תחומים מרכזיים:

 

  1. ייעוץ השקעות וניהול תיקים

בראי הדוח, בכוחה של הבינה המלאכותית להוזיל עלויות ולהנגיש את שירותי הייעוץ וניהול התיקים לקהל רחב יותר. בנוסף לכך, ממליץ הצוות על מספר צעדים:

  • עידוד בעלי רישיון ייעוץ השקעות וניהול תיקים להטמיע טכנולוגיית בינה מלאכותית בפעילותם כדי להגדיל את מספר האנשים הנגישים לשירותים הפיננסיים.
  • הוספת פרק בהוראת שירותים מקוונים שיעסוק בטכנולוגיית בינה מלאכותית עכשווית, ובחינת פעילותם של צ'אט-בוטים בייעוץ השקעות וניהול תיקים.
  • קידום עריכת מחקר לבחינת התנהלות משתמשים במערכות בינה מלאכותית לשם הבנת ההשפעה של הטכנולוגיה על התנהגות משקיעים.

הדוח מדגיש כי האחריות על השימוש במערכת הבינה המלאכותית, ובפרט על תוצאות ההמלצות שניתנו על ידי כלי הבינה המלאכותית, נותרת של בית ההשקעות וההנחיות באות להוסיף עליה ולא לגרוע ממנה.

 

  1. אשראי במערכת הבנקאית

יישומים של בינה מלאכותית בתחום האשראי משמשים, בין היתר, לאיתור צורכי לקוחות, חיתום ודירוג אשראי. בחלק מהמקרים מדובר באבולוציה של המודלים שבהם נעשה שימוש היום, עם זאת, לאור פעולתה של הבינה המלאכותית קיים חשש מאפליה לצד פעילות שיווק אגרסיבי של אשראי ללקוחות. ביחס לשימוש כזה, ממליץ הצוות:

  • לשם מזעור סיכוני אפליה והדרה, להבהיר כי שימושי בינה מלאכותית אינם משנים מן הדין הקיים, ועל המוסדות הפיננסיים להבטיח, בטרם השימוש בכלי בינה מלאכותית, כי בידיהם הכלים להקפיד על האסדרה בתחום.
  • הדוח ממליץ לגופים הפיננסיים לכלול את סוגיות הבינה המלאכותית בתהליך הממשל התאגידי שלהן כדי לממש את אחריות ההנהלה והדירקטוריון ביחס לסיכונים הייחודיים.
  • יישום תהליכי בחינת נתונים המשמשים לקביעת סיכוני אשראי הכרחי בכדי להבטיח את פרטיות הנתונים ושימוש בנתונים רלוונטיים בלבד בתהליכי האימון.
  • על החברות המבקשות להשתמש בבינה מלאכותית בתחום זה להיות מסוגלות לספק הסבר ברור להחלטות שהתקבלו באמצעות מערכות אלה.

 

  1. חיתום ביטוח

בינה מלאכותית יכולה לייעל את תהליכי החיתום, תמחור הפרמיה וניהול הכיסוי הביטוחי, אך מעלה סיכונים של שקיפות, פרטיות והטיה בהחלטות אוטומטיות. ביחס לתחום הביטוח מומלץ:

  • הקפדה על העקרונות הכלליים של שימוש באסדרה קיימת ועדכונה ככל שיעלה צורך.
  • הדוח מדגיש את הצורך במתן הסבר לאופן קבלת ההחלטות על מתן כיסוי ביטוחי ותמחורו.

 

מה על הגופים הפיננסיים לעשות כעת?

להבטחת שילוב אחראי של בינה מלאכותית בשירותים פיננסיים ממליץ הדוח על מספר צעדים חשובים:

  • לחזק את ההסברתיות ביחס למודלים שבהם ישנה חובת הנמקה בדין, אשר יוצרים סיכון משמעותי לצרכנים או כאשר מידת המעורבות של הבינה המלאכותית בהחלטה ניכרת.
  • להקפיד על מעורבות אנושית בתהליך קבלת ההחלטות, במקומות המתאימים לפעילות.
  • להקפיד על יידוע וגילוי בדבר עצם השימוש בכלי בינה מלאכותית ובדבר השפעתה על השירות או המוצר לצרכני הקצה.
  • להגביר את ההגנה על המידע האישי גם בשימושי בינה מלאכותית.
  • למנוע אפליה במתן השירותים, האשראי והביטוח.
  • להרחיב את האחריות של הגופים הפיננסיים בפני לקוחותיהם כך שתכלול גם את הפעילות המתבצעת באמצעות בינה מלאכותית.
  • לפתח מנגנוני הערכת סיכון וממשל תאגידי שיאפשרו לקיים פעילות בינה מלאכותית הוגנת ושקופה, בין היתר באמצעות קביעת מנגנוני פיקוח, יצירת מסמכי מדיניות רלוונטיים ובחינת ספקים מתאימה.

אנו צופים כי המלצות הדוח יאומצו, לפחות בחלקן, בידי הרגולטורים הפיננסיים ויוטמעו בהוראות המחייבות את הגופים המפוקחים.

 

צעדים פרקטיים לשימוש אחראי בבינה מלאכותית

אנו ממליצים לנקוט כבר כעת בצעדים להבטחת שימוש אחראי ובטוח בבינה מלאכותית, ובכלל זאת:

  • למפות ולזהות את תהליכי הבינה המלאכותית בשימוש בארגון.
  • לערוך סקר סיכונים ביחס לשימושים אלה בכל התחומים הרלוונטיים (לרבות רגולציה של בינה מלאכותית, דיני פרטיות, דרישות רגולציה פיננסית, ודיני תחרות).
  • לנסח מדיניות פנימית לשימוש ופיתוח בינה מלאכותית הכוללת תהליכי הערכת סיכון והפחתתו, ולקבוע בעלי תפקידים ליישומה.
  • ליישם אמצעי הגנה להבטחת פעילות אחראית והוגנת של המערכות.
  • לוודא כי תוכניות הפרטיות ואבטחת המידע מתייחסות גם לסיכונים ולאתגרים הקשורים בבינה המלאכותית.

 

***

 

ד"ר אבישי קליין הוא ראש מחלקת פרטיות, בינה מלאכותית וסייבר.

גל רוזנט הוא ראש מחלקת הגבלים עסקיים ותחרות.

אנדרי ינאי הוא שותף במחלקת הרגולציה.

מאשה יודשקין היא עורכת דין במחלקת פרטיות, בינה מלאכותית וסייבר.

יסמין עומרי היא עורכת דין במחלקת הרגולציה.

 

ברנע ג'פה לנדה הינו משרד עורכי דין מוביל הפועל בתחום המשפט המסחרי בישראל. המשרד כולל בתוכו מחלקות מובילות בתחומי הפרטיותסייבר ובינה מלאכותית, רגולציה ותחרות והגבלים עסקיים. המחלקות השונות מספקות שירותים משפטיים מקיפים בתחומי ההתמחות שלהן, לרבות סיוע וליווי סיכונים של הטמעת כלי בינה מלאכותית, יצירת תוכנית ציות בתחום ומיפוי הסיכונים המשמעותיים הקשורים בפעילות. כמו כן, ייעוץ מקיף במגוון תחומי רגולציה המשיקים לפעילות העסקית של לקוחותינו. וכן, ייצוג הלקוחות בבתי המשפט הפליליים והאזרחיים, בבית הדין לתחרות ובפני הממונה על התחרות, מול מחוקקים ורגולטורים, וליווי וייעוץ שוטף בכלל המהלכים העסקיים של פעילותן.

 

תגיות: בינה מלאכותית | מגזר פיננסי | רגולציה
ברנע
Privacy Overview

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.