העלייה בשימוש בביג דאטה ו-machine learning מייצרת אתגרים משפטיים שלא היו קיימים בעבר. ייעוץ משפטי לחברות ביג דאטה, אשר אוספות מידע ומנתחות אותו לצרכיהן, יודעות כי בעולם של היום – מידע שווה כוח.
השילוב של איסוף מידע, אל מול אתגרים משפטיים מחייב חברות העוסקות בטכנולוגיות לאיסוף מידע, לפעול בזהירות סביב המוקשים המשפטיים השונים:
פרטיות
למרות הדעה הרווחת, הזכות לפרטיות, אשר הוכרה מזמן כזכות יסוד, (עדיין) חיה ונושמת.
בדרך כלל, חייבים לקבל הסכמה מאדם לפני שניתן לשמור, להשתמש או לשתף מידע המאפשר זיהוי אישי (Personally Identifiable Information – PII). עם זאת, המידע נאסף על ידי זחלני רשת אשר מטרתם לאגור נתונים מכל פינה ברשת האינטרנט. הבעיה היא שבכל תחום שיפוט החוקים, התקנות והפרשנויות שונים זה מזה. ההגדרה של מה נחשב ל"PII" או ל"הסכמה" עלול להיות שונה בכל מדינה ומדינה.
כמו כן, החוקים עצמם משתנים ומתעדכנים באופן תדיר. למשל, חוק הגנת הפרטיות בישראל עתיד לקבל חיזוק, הן על-ידי התקנות להגנת הפרטיות שתכנסנה לתוקף במרץ 2018. לצד זה נציין את החוק האירופי החדש להגנת מידע כללי ("GDPR"), שיכנס לתוקף במאי 2018. נוסף על אלה, החלו ענפים שונים, כמו ענף הבנקאות וענף שירותי הבריאות, לקבוע כללי הגנת הפרטיות משל עצמם.
כל עסק שאוסף מידע צריך לקחת בחשבון את תקנות אלה.
לא זו בלבד שיש לנו בדר"כ את הזכות להתנגד לאיסוף מידע פרטי לגבינו, אלא שיש לנו גם זכות, בנסיבות מסוימות, למחיקת המידע. "הזכות להישכח" מאפשרת לנו לדרוש בשלב מאוחר יותר שמידע הנאסף לגבינו, ימחק. משמעות הדבר היא שעל חברות אשר מחזיקות ב-PII להבטיח את האפשרות לאתר ולמחוק מידע בעתיד.
בתחומי שיפוט רבים, החוק מחייב כי כל גוף המחזיק במאגר מידע לרשום אותו אצל הרגולטור המקומי הממונה על אכיפת חוקי הפרטיות – הרשות למשפט, טכנולוגיה ומידע (רמו"ט) בישראל. בהינתן הערך של מידע, זה לא מפתיע שאנו עדים למקרי פריצה רבים למאגרי מידע, הן של חברות פרטיות והן של מוסדות המדינה.
בהתאם לתקנות, על כל בעל מאגר מידע להודיע באופן מיידי לרמו"ט על כל פריצה או ניסיון פריצה למאגר המידע שברשותו. על אף שחובה זו מגבירה שקיפות, בו זמנית, ההשלכות של התקנות מובילות לחשיפה מוגברת לתביעות ולתובענות ייצוגיות, ולבעיה מבחינת יחסי ציבור. על כן, אין להמעיט בחשיבות של אבטחת PII. נמליץ לשקול ייעוץ משפטי במקרים של פריצת סייבר בייחוד בחברות ביג דאטה, בהן היקף המידע ותוכנו עלולים לייצר נזק רב. ניתן להימנע מפגיעה על ידי מוקשי פרטיות בלהפוך את הנתונים לאנונימיים, לאחד ולסכם את כל הנתונים שנאספו, ולשמור את הכמות המזערית האפשרית.
בהתחשב בכניסתן לתוקף בקרוב של תקנות וה-GDPR, כל מי שעוסק בביג דאטה בישראל צריך לפעול כעת למזעור הסיכונים. ראוי לציין כי עבירה על תקנות ה-GDPR נתונה לקנסות כבדים (הקנס המרבי הוא הגבוה מבין 20 מיליון יורו או 4% ממחזור ההכנסות הגלובליות השנתי בגין שנת הכספים הקודמת) ומטילה אחריות פלילית ואזרחית.
בעלות
חברות מבינות שעל אף שמידע זה כוח, שמירת המידע באופן הדוק לא תמיד מהווה הדרך הטובה ביותר למנף ולממש את הפוטנציאל הכלכלי שבו. לעיתים קרובות חברות משתפות את המידע עם צד שלישי. למשל, בענף המכוניות האוטונומיות, יצרני מכוניות כמו חברת ב.מ.וו., משתפים נתונים הנאספים על ידם בקשר לביצועי המכוניות, לבטיחות ולהתנהגות הנהגים עם יצרני הציוד המקורי, המשתמשים בנתונים כדי לשפר את יכולות הנהיגה של המכונית. על מנת להשיג מטרה זו, יצרני הציוד המקורי משלבים את המידע שהם קיבלו מהיצרניות עם מקורות המידע הקיימים אצלם ו/או בונים מודל ללמידה עמוקה (Deep Learning) המבוסס על המידע שקיבלו.
אז מי מחזיק בבעלות על הנתונים המשולבים ומי מחזיק בבעלות על המסקנות שנבעו מהמודל הנ"ל? – בדרך כלל, נתונים מוגנים תחת חוק זכויות יוצרים. אבל, כאשר משתפים נתונים עם אחרים, חובה לערוך הסכם שימוש המפרט באופן ברור ומדויק את הזכויות והחובות של כל צד. בהסכם יש לכלול את נושא הבעלות, היקף הרישיון, שמירת סודיות, הגבלת אחריות והשלכות של סיום מערכת היחסים.
תחרות
כיום, מידע נחשב כנכס. חלק מעסקאות הרכישה האחרונות מצביעות באופן ברור על כך שאחד השיקולים המרכזיים העומדים מאחורי עסקת רכישה הינו נתוני החברה הנרכשת. רק בשנה שעברה LinkedIn נרכשה ע"י מיקרוסופט בשנה שעברה בסכום של 26 מיליארד דולר. כך, השיגה מיקרוסופט נתונים דוגמת תחומי העיסוק, המיומנויות ותחומי העניין של המשתמשים. אם אכן, נתונים מהווים כוח, וניתן לנצלם כדי לצמצם את התחרות, אז על המחוקקים לחשוב מחדש מהו כוח שוק ועל אופן מניעת פרקטיקות שעשויות להגביל תחרות. צעדים אשר ישפיעו בהכרח על אופן ההתנהלות של חברות העוסקות בביג דאטה וכן על מערכות היחסים הקיימות בשוק.
אפליה
אלגוריתמים מנתחים נתונים ומפיקים מסקנות. לכאורה, השימוש באלגוריתמים מגביר את היכולת שלנו לקבל החלטות המבוססות על ראיות, ללא השפעה של דעה קדומה. אולם, אלגוריתם יהיה אובייקטיבי אך ורק במידה שכותבו אובייקטיבי או ככל שהנתונים עצמם אובייקטיביים.
היו לא מעט מקרים של טכנולוגיה מפלה שיצרו הדים גדולים בתקשורת. שתי דוגמאות: במקרה הראשון, טכנולוגית זיהוי הפנים של Google Photos תייגה כמה אנשים אפרו-אמריקנים בתור גורילות. מומחים טענו כי זה קרה כנראה עקב מצגים בלתי מדויקים של אנשים אפרו-אמריקנים במסד הנתונים ששימש להכשיר את האלגוריתם לזיהוי תמונות. במקרה השני, "טאי", הרובוט של מיקרוסופט המבוסס על בינה מלאכותית, אשר נועד ללמוד מהתנהגויות של משתמשי טוויטר ולצייץ ציוצים בהתאם, איבד שליטה לחלוטין והחל לצייץ ביטויים גזעניים.
חוקים רבים אוסרים על אפליה, ובמקרה שהאלגוריתם לא החל לפעול על דעת עצמו בניגוד לחוק, ההסתמכות על נתונים גולמיים במקום על כוונה לא תשחרר מאחריות.
עם העלייה בשימוש בביג דאטה ולאור התפקיד שממלאים נתונים כתחליף לקבלת החלטות על-ידי בני אדם וככלי עיקרי במעבר לעולם המחובר, עדיין לא שמענו את המילה האחרונה מהמחוקקים ומהרגולטורים. על העוסקים בתחום ביג דאטה, אפילו בעולם המשפטי של היום, לתכנן היטב את הצעדים שלהם ולשקול ייעוץ משפטי.
***
משרדנו מעניק ייעוץ משפטי לחברות ויזמים הפועלים בתחום הטכנולוגיה לרבות מיזמי ביג דאטה שונים. נשמח לעמוד לרשותכם בכל שאלה. לפרטים נוספים, הקליקו כאן
Source: barlaw.co.il