תביעות והליכי אכיפה: פגיעה בפרטיות באמצעות בינה מלאכותית (AI)
בשבוע האחרון אנו עדים לתביעות ולהליכים רגולטוריים הנוגעים להיבטי פרטיות ואבטחת מידע בשימוש בבינה מלאכותית, ובאופן ספציפי ביחס לתוכנת ה-ChatGPT של חברת OpenAI.
בבקשה לאישור תובענה ייצוגית שהוגשה השבוע בבית המשפט המחוזי בלוד נטען, בין היתר, כי התוכנה מבצעת שימוש במידע שהיא אוספת על משתמשים בניגוד להוראות בחוקי הגנת הפרטיות, לרבות ביחס לסוגיית השקיפות, הזמן בו המידע נשמר, המטרות שלשמן הוא מעובד וכן ביחס לזהות גורמים נוספים אליהם המידע מועבר.
עוד נטען כי אין מנגנון המפקח על גיל המשתמש כאשר מבוצע שימוש בתוכנה, והדבר מהווה סיכון ממשי, שכן קטינים יכולים להיכנס באופן חופשי וללא כל הגבלה ולהיחשף לתכנים לא הולמים במסגרת השימוש בתוכנה.
הבקשה לייצוגית בישראל הוגשה מספר ימים לאחר שפורסם כי נחסם השימוש בתוכנת ה-ChatGPT באיטליה, זאת לאחר שהרשות האיטלקית לדיני פרטיות פתחה בחקירה נגד החברה בעקבות חשד לאירוע שבו דלף מידע אשר פגע לכאורה בפרטיות המשתמשים וכן לאור הפרות לכאורה של רגולציית הפרטיות האירופית, ה-GDPR. לטענת הרשויות באיטליה, במסגרת האירוע בו דלף המידע, שהתרחש בחודש מרץ, משתמשים נחשפו לכותרות החיפוש של משתמשים אחרים ובכך פגעו בפרטיותם. במסגרת החקירה, דרשה הרשות מהחברה להפסיק לעבד מידע של משתמשי קצה מאיטליה ולתקן את הליקויים במסגרת זמן קצובה, כאשר לאחריה תישקל האפשרות להטיל קנסות משמעותיים בהתאם להוראות ה-GDPR.
התביעה שהוגשה נגד החברה בישראל וחסימת השימוש בתוכנת ה-ChatGPT באיטליה ממחישות את חשיבות היבטי הפרטיות ואבטחת המידע בכל שימוש ופיתוח בינה מלאכותית. חברות אשר מבקשות לפתח או ליישם טכנולוגיית בינה מלאכותית חייבות להתייחס לסיכוני הפרטיות ואבטחת המידע מראש ולבחון את החשיפות האפשריות, הן מבחינה משפטית והן מבחינה טכנולוגית.
***
מחלקת הפרטיות והסייבר במשרדנו זמינה לכל שאלה או הבהרה בנושא ובסוגיות אחרות של רגולציה של בינה מלאכותית או תחולת דיני הפרטיות ואבטחת המידע.
דר' אבישי קליין הוא ראש מחלקת הפרטיות והסייבר בברנע ג'פה לנדה.
בן נורמן הוא עו"ד במחלקה.