הסנאט עצר את ההקפאה, הרגולטורים מגבירים אכיפה: אחריות משפטית על בינה מלאכותית
בתחילת החודש דחה הסנאט האמריקאי כמעט פה אחד (99-1) סעיף מרכזי מתוך הצעת חוק רפובליקנית רחבה למדיניות פנים, אשר ביקש להקפיא למשך עשור את יכולת המדינות לאכוף רגולציה על מערכות בינה מלאכותית. לו היה מתקבל, הסעיף היה מונע ממדינות כמו קליפורניה, ניו יורק וטקסס לאכוף חוקים קיימים או לקדם חקיקה חדשה בתחומים כמו זיופים עמוקים(deepfakes) , אפליה אלגוריתמית, ופיקוח על מערכות רפואיות ואוטומטיות; זאת בתקופה שבה עדיין אין מסגרת פדרלית אחידה המסדירה את תחום הבינה המלאכותית.
היוזמה עוררה התנגדות חריפה מצד מחוקקים משתי המפלגות, רגולטורים מדינתיים, אקדמאים וארגוני חברה אזרחית, אשר הזהירו כי היא עלולה לשלול מהציבור הגנות חיוניות בדיוק כאשר הסיכונים הטכנולוגיים מתעצמים והחקיקה הפדרלית עודנה בחיתוליה. ההצבעה, כאמור ברוב כמעט מוחלט, שיקפה עמדה ברורה שלפיה יש לאפשר למדינות להמשיך ולמלא תפקיד אקטיבי בפיקוח על השימוש בבינה מלאכותית.
האכיפה כבר כאן, גם ללא חוק פדרלי
עמדת הסנאט, שלפיה אין להקפיא את סמכותן של המדינות לאכוף רגולציה בתחום הבינה המלאכותית, משקפת מגמה ברורה של אכיפה גוברת מצד רגולטורים פדרליים ומדינתיים, המפעילים את סמכויותיהם הקיימות על שימושים בלתי מבוקרים בטכנולוגיות בינה מלאכותית גם בהיעדר מסגרת חקיקה פדרלית ייעודית. להלן שלוש דוגמאות מובהקות לכך, מן החודשים האחרונים.
-
Rite Aid: צו פדרלי המגביל שימוש בבינה מלאכותית לזיהוי פנים
בדצמבר 2023, פרסמה רשות הסחר הפדרלית (FTC) צו חסר תקדים נגד רשת הפארם Rite Aid האוסר עליה להשתמש בטכנולוגיית זיהוי פנים מבוססת בינה מלאכותית למשך חמש שנים. כמו כן, הצו מחייב את החברה למחוק מאגרי תמונות ואלגוריתמים שפיתחה, לספק גילוי ברור לצרכנים, להטמיע נהלי פיקוח, דיווח, ואבטחת מידע מחמירים וליישם תוכנית ציות בפיקוח ההנהלה הבכירה.
על פי ממצאי ה- FTCהחברה התקינה את המערכות בעשרות סניפים מבלי לוודא את מהימנותן, רמת הדיוק או קיומם של מנגנוני פיקוח. כתוצאה מכך, לקוחות רבים זוהו בטעות כעבריינים או כחשודים בגניבה, אף שלא היה לכך כל בסיס. בעקבות זאת, נוצרו סיטואציות בהן עובדים עקבו אחר אותם לקוחות, עיכבו, חיפשו ואף דרשו שיעזבו את החנות או הזמינו משטרה עבורם. המערכת אף יצרה שיעור גבוה במיוחד של זיהויים שגויים (false positives) כלפי נשים ואנשים מקהילות שחורות ואסייתיות, באופן שיצר אפליה שיטתית ונזק רגשי ממשי.
הפרשה ממחישה את עמדת ה-FTC שלפיה אין צורך בהמתנה לחוק פדרלי ייעודי בתחום. רשות הסחר הפדרלית רואה בשימושים בלתי אחראיים בטכנולוגיות בינה מלאכותית – ובפרט בזיהוי ביומטרי – הפרה של דיני הגנת הצרכן, פרטיות ואבטחת מידע, ומפעילה את סמכויות האכיפה שלה גם כלפי טכנולוגיות חדשות.
-
:Workado ה-FTC קובעת כי טענות דיוק לא מבוססות מפרות את דיני הגנת הצרכן
באפריל 2025, פרסמה רשות הסחר הפדרלית (FTC) צו מנהלי נגד חברת Workado LLC (לשעבר Content at Scale) שפיתחה ושיווקה כלי לזיהוי טקסטים שנוצרו על ידי בינה מלאכותית. לפי ממצאי ה-FTC, החברה פרסמה כי הכלי מדויק בשיעור של 98.3% אך לא סיפקה תימוכין אמפיריים מהימנים, ולא הבהירה כי הנתון מבוסס רק על מאמרים אקדמיים. בבדיקות עצמאיות שביצעה ה-FTC, נמצא כי השיעור הנכון נע בפועל בין 53% ל-74% בלבד – רמת שגיאה שמעלה חשש להטעיה צרכנית חמורה. וזאת לאחר שהכלי שווק לשימושים מגוונים, לרבות בקרב מרצים, תלמידים ויוצרים, תוך יצירת מצג של מהימנות שאינה עומדת במבחן העובדות.
בהתאם לצו, החברה נדרשת להסיר את כלל ההצהרות הלא מבוססות על רמת הדיוק של המוצר, להימנע מהפצת טענות נוספות שאינן ניתנות לאימות מהימן ולהבטיח שכל טענה עתידית תתבסס על ראיות אמפיריות מוצקות.
הפרשה ממחישה שגם טענות פרסומיות לגבי דיוק של כלי בינה מלאכותית כפופות לדיני הגנת הצרכן. ה-FTC קבעה כי הצגת שיעור דיוק של 98.3% ללא ביסוס אמפירי מהימן מהווה הטעיה, והורתה להסיר או לאמת כל טענה מהותית. גם בהיעדר רגולציה ייעודית, נדרשת שקיפות, דיוק ואחריות בפרסום, והפרה גוררת אכיפה בפועל.
-
Pieces Technologies: הסדר רגולטורי ראשון מסוגו בתחום בינה מלאכותית יוצרת לשימוש רפואי
ביוני האחרון, הגיע התובע הכללי של טקסס להסדר ראשון מסוגו עם חברת Pieces Technologies שפיתחה מערכת בינה מלאכותית יוצרת (Generative AI) לשימוש רפואי בבתי חולים. המערכת סיכמה בזמן אמת את מצבם הקליני של מטופלים בהתבסס על מידע שהוזרם ישירות ממערכות בתי החולים. במסגרת החקירה, עלה כי החברה פרסמה טענות שיווקיות מופרזות בנוגע לרמת הדיוק של המערכת, כולל הצגת שיעור של ״הזיות (hallucination) חמורות״ של פחות מאחד למאה אלף, ללא ביסוס אמיתי או נתונים מהימנים. בכך, יכלה החברה להטעות צוותים וליצור סיכון ממשי להסתמכות שגויה על פלטים אוטומטיים כחלק מהליך הטיפול.
לפי ההסדר, החברה נדרשת לחשוף במדויק את מגבלות הכלים שלה ולוודא שהצוותים הרפואיים מבינים את מגבלות ההסתמכות. פרשה זו ממחישה כי גם ללא חקיקה פדרלית ייעודית לבינה מלאכותית, רשויות אכיפה מדינתיות רואות בהצהרות מטעות על דיוק ובטיחות של מערכות בינה מלאכותית, הפרה ברורה של דיני הגנת הצרכן והבריאות הקיימים ומדגישה כי שימוש במודלים מעין אלו מחייב שקיפות מלאה, אימות אמפירי של שיעורי שגיאה והדרכה מפורשת ללקוחות הקצה.
בפועל, הרשויות מפעילות את סמכויותיהן המסורתיות נגד מצגי שווא והטעיה במסחר, ומציבות לחברות רף ציות גבוה הכולל גילוי נאות, תיעוד בקרה והימנעות מסיכונים לחיי אדם, גם כשמדובר בכלים חדשניים המבוססים על בינה מלאכותית.
מסקנה: אכיפת דינים כלליים על שימושים בבינה מלאכותית בארה״ב
ארבעת הצירים המרכזיים שנבחנו: הסרת המורטוריום בחקיקה הפדרלית, צו האכיפה של ה-FTC נגד Rite Aid , הפעולה הרגולטורית שלה מול Workado וההסדר של מדינת טקסס מול Pieces Technologies משקפים מגמה רגולטורית עקבית וברורה.
המשפט הציבורי בארה״ב אינו ממתין לחקיקה פדרלית ייעודית כדי לאכוף סטנדרטים של אחריות, שקיפות וזהירות בשימוש בטכנולוגיות בינה מלאכותית. רשויות פדרליות ומדינתיות מפעילות את סמכויותיהן מתוקף דינים כלליים קיימים, דוגמת הגנת הצרכן, פרטיות, אפליה, אבטחת מידע ואתיקה מקצועית, ומבהירות כי גם חדשנות טכנולוגית מחויבת לעקרונות משפטיים בסיסיים.
עבור חברות ישראליות הפעילות בשוק האמריקאי, המסר הוא כי אין אזור אפור רגולטורי. יש להיערך לאכיפה בפועל באמצעות ניהול סיכונים משפטיים, תיעוד מגבלות המוצר, גילוי מדויק למשתמשים והטמעת מנגנוני בקרה, כבר עכשיו, ולא רק כשייחקק חוק בינה מלאכותית פדרלי.
על רקע מגמת האכיפה המתהווה בארה”ב – מה מומלץ לחברות ישראליות?
חברות ישראליות הפעילות בתחום הבינה המלאכותית בארה”ב נדרשות לבצע מיפוי מקיף של כלל השימושים בטכנולוגיה במסגרת פעילותן, לרבות שימושים פנימיים, מוצריים ושיווקיים. חשוב לוודא כי קיימים מנגנונים שיטתיים לבחינת ספקי בינה מלאכותית, הן מצד שלישי והן במסגרת פיתוח עצמי, תוך עמידה בדרישות רגולטוריות קיימות בארה״ב בתחומי הגנת הפרטיות, הצרכנות, ההוגנות והאבטחה. מומלץ לגבש מדיניות פנימית עדכנית הכוללת נהלי תיעוד, גילוי ושקיפות, ולשלב שיקולי אחריותיות, הטיית אלגוריתמים ואי-אפליה כבר בשלבי הפיתוח וההטמעה. בנוסף, יש לקיים הערכת סיכונים משפטית ורגולטורית ביחס לכל מוצר או שירות מבוסס בינה מלאכותית ולעדכן את הסכמי השימוש, מדיניות הפרטיות והצהרות השיווק בהתאם.
משרדנו עומד לרשותכם לייעוץ, ליווי והתאמה רגולטורית בתחום הבינה המלאכותית, בארה”ב ובשווקים נוספים.
***
ד”ר אבישי קליין הינו שותף וראש מחלקת פרטיות, סייבר ובינה מלאכותית במשרד.
ד”ר נדין ליב הינה עורכת דין במחלקת פרטיות, סייבר ובינה מלאכותית במשרד.
מחלקת פרטיות, סייבר ובינה מלאכותית במשרד היא מהבולטות והמובילות בישראל, ומעניקה ייעוץ משפטי מקיף וחדשני לחברות טכנולוגיה, גופים מוסדיים, חברות ותאגידים מסקטורים שונים בארץ ומעבר לים. המחלקה מלווה את לקוחות המשרד בהתמודדות עם אתגרי הרגולציה והמשפט בעידן הדיגיטלי על כל היבטיה, לרבות ציות גלובלי לדינים בינלאומיים, ביניהם ה- GDPR ו-CCPA , שירותי DPO חיצוניים, ליווי משפטי בפיתוח והטמעה של טכנולוגיות AI, ניסוח והטמעה של מדיניות פרטיות ואבטחת מידע בארגונים שונים, ייצוג מול רגולטורים שונים, פתרונות מניעה ותגובה לאירועי סייבר, פתרונות משפטיים מותאמים לשוק המקומי והבינלאומי בעסקאות ומיזמים טכנולוגיים תוך מזעור חשיפות וסיכונים, ועוד.