תשובה 1
לדעתי, כפי שיפורט להלן, הדין הנוכחי של עוולת הרשלנות (ס' 35-36 לפקנ"ז) והאופן שבו היא מיושמת בפסיקת בתי המשפט, מאפשרים בנסיבות המתאימות להטיל אחריות נזיקית מכוחה גם על המפתחים. זאת במיוחד, נוכח העובדה שעוולת הרשלנות והאופן שבו היא מיושמת במשפט הישראלי מעניקים לביהמ"ש שק"ד שיפוטי רחב המאפשר להעניק גם פסיקות תקדימיות ויצירתיות. יתרה מכך, אף שהכתבה מציינת כי אין בישראל חקיקה נזיקית ייחודית המסדירה את אחריותם של מפתחי האלגוריתמים לזיהו פנים, בפס"ד היועמ"ש נ' ב"ש ופס"ד מ"י נ' בוחבוט ואנג'ל נקבע כי ביהמ"ש רשאים לקבוע כי לצורך עוולת הרשלנות היה על הנתבע לנקוט אמצעי זהירות נוספים מעבר לדרישות החוק). עם זאת, אין ספק שהדבר כרוך בקשיים רבים, בעיקר בכל הנוגע להוכחת הקש"ס העובדתי.
ראשית אניח כי בבחינת 3 יסודות עוולת הרשלנות (לפי הגישה המסורתית) מתקיימת חובת זהירות של המפתחים כלפי אנשים הנפגעים מתפקוד לקוי של הטכנולוגיה שפיתחו (הנחה זו נעשית הן לאור ההנחייה להתייחס אך ורק להתרשלות וקש"ס עובדתי, והן לאור העובדה שמדובר בח"ז של בעלי-מקצוע [פס"ד נחום נ' דורנבאום שם הוטלה ח"ז גם כלפי צדים שלישיים הקשורים ללקוח של עו"ד]). בהמשך לכך, בבחינה האם המפתחים התרשלו (קרי, הפרו את חובת הזהירות החלה עליהם מתוקף ס' 35 לפקנ"ז) יש לבחון ע"פ סטנדרט אובייקטיבי של ה"אדם הסביר" האם "מפתח סביר" של הטכנולוגיה היה עושה את אותה ה"טעות" שהובילה לזיהוי הפנים המוטעה שביצעה הטכנולוגיה שפותחה. במידה וניתן יהיה להוכיח אי-עמידה בסטנדרט ההתנהגות של "מפתח סביר" בהחלט ניתן יהיה לטעון שהמפתחים התרשלו. עם זאת, יצוין, כי רמת ההתנהגות הנדרשת במסגרת בדיקת ההתרשלות היא של "התנהגות סבירה" ע"פ נורמות התנהגות ראויות בחברה, ואין דרישה של נקיטת כל אמצעי הזהירות האפשריים ואף לא של נקיטת אמצעי זהירות אופטימליים. מבחינה זו, ניתן יהיה לקבוע כי המפתחים התרשלו רק במידה שהם פעלו בסטנדרט התנהגות הנמוך מהסטדנרט של "מפתח סביר" (אך יודגש כי הדרישה היא ל"התנהגות ראויה" ולא ל"התנהגות מצויה"). ודוק, התנהגות בלתי סבירה היא כזו אשר התועלת החברתית הגלומה בה פחותה מהמחיר החברתי שלה (גברי כבוד הש' ריבלין בעניין נחום נ' דורנבאום (והתעמקות בפס"ד חמד נ' מ"י). זו למעשה נוסחת לרנד-הנד אשר משווה בין עלות מניעת הנזק (המשך עבודה וטיוב האלגוריתם בענייננו) לבין תוחלת הנזק של אי-טיוב האלגוריתם. בענייננו, בהחלט אפשרי יהיה לטעון שהמפתחים לא נקטו באמצעי זהירות ביחס מתאים לסיכון שנוצר, וכי עבודה נוספת על טיוב האלגוריתם יכול היה למנוע נזק כבד לאותו תושב ניו-ג'רזי. בנוסף לכך, בתי המשפט מתחשבים גם באינטרס הציבורי הגלום בפעילות שמייצרת את הסיכון, כאשר בענייננו נראה שקיימת תועלת ציבורית לא מעטה בטכנולוגיות זיהוי-פנים (הגברת אכיפה וכו') ונקודה זו עומדת לזכותם של המפתחים. אציין, כי הקושי המרכזי שאני מוצא בקביעה כי מתקיימת התרשלות במקרה דנן, היא הקביעה מה הוא סטנדרט ההתנהגות של מפתח סביר. שהרי, לא נטיל את אותה דרישה של אמצעי זהירות על מפתחים של משחק רשת למשל (שפוטנציאל הנזק בהם נראה כנמוך בהרבה). נשאלת השאלה, האם המפתחים של האלגוריתמים אכן נדרשים לסטדנט זהירות גבוהה, או שמא ראוי להטיל את האחריות של בדיקת האלגוריתם והפעלת אמצעי הזהירות על גורמים אחרים כדוגמת רגולטור השומר על תו-תקן של אמינות האלגוריתם, או משתמשי הטכנולוגיה (במקרה שלנו משטרת ארה"ב).
עניין נוסף הוא המציאות החברתית שבה מתקיים האירוע העוולתי. כך למשל, בעניין פולר נ' ביה"ח "העמק נקבע כי אנשי הצוות הרפואי פעלו באופן סביר וע"פ הנהוג בתקופה הרלוונטית ולכן לא הוטלה עליהם אחריות נזיקית. גם בענייננו, בשעה שטרם הוטלה אחריות נזיקית מעין זו על מפתחי תוכנה, יתכן ויימצא כי המפתחים פעלו בסטדנרט הסביר שהחברה דורשת מהם כיום ולכן אין להטיל עליהם אחריות (ואולי בעתיד, ככל שייגרמו יותר נזקים ממשיים כאלו בשל כשלי תוכנה, כך הדרישה החברתית ממפתחים לנקיטת אמצעי זהירות תלך ותגבר). אל מול זאת, יש להעמיד את הקביעה הפסיקתית כי הסטדנט הנדרש הוא של התנהגות ראויה ולא מצויה, אך במקרה בו המצוי הוא כל כך נוכח והרעיון של אחריות נזיקית כפי שהנבחנת כאן על מפתחי תוכנה עוד כל כל לא הוטמע בחברה – יתכן שביהמ"ש ימצא לפסוק בדומה לשפסק בעניין פולר נ' ביה"ח העמק.
עוד אניח כי יסוד הנזק מתקיים (הן כי הנזק נתון בשאלה והן לאור הנחיות השאלה), ובבחינת הקש"ס העובדתי (אני מתעלם מהקש"ס המשפטי בהתאם להנחיות) יהיה צריך להוכיח כי ע"פ "מבחן האלמלא" – אלמלא המפתחים היו פועלים תוך הפרת חובת הזהירות שלהם – הנזק לא היה מתרחש. וביישום על עובדות המקרה המתואר בכתבה – אלמלא המפתחים היו כותבים אלגוריתמים החשופים לטעויות זיהוי של אוכ' אפרו-אמרקיאית, אותו תושב ניו-ג'רזי לא היה נעצר ל-10 ימים והנזק לא היה נגרם לו. הקש"ס העובדתי דורש שההתנהגות המעוולת תהיה גורם שבלעדיו אין (אך אין הוא נדרש להיות הגורם היחיד כמובן), קרי, שלולא ההתרשלות הנזק לא היה נגרם בלאו הכי (למשל בשל גזענות מצד המשטרה האמריקנית במקרה שבענייננו). שאז, הגזענות המשטרתית עשויה להיחשב ל"גורם זר מתערב" המנתק את הקש"ס העובדתי.
דרישת הקש"ס הוכרה בפסיקה כנובעת מס' 64 לפקנ"ז (לטענת פרופ' גלעד בספרו), כאשר בהקשר של קש"ס משפטי המפתחים עשוים לטעון כאמור כי קיים גורם אחר בעל אשם "מכריע" בדמות משטרת ארה"ב. כך למשל, המפתחים יכולים לטעון כי המוצר שלהם כולל אזהרה שעשויה להיות סטייה מסוימת בדיוק הזיהוי וכי על הזיהוי להיות מאומת באמצעים נוספים. במקרה כזה, ובשילוב עם הגזענות המשטרתית הקיימת בארה"ב, ניתן יהיה לטעון כי מחדליה של המשטרה שלא בדקה והצליבה את זיהוי הפנים עם אינדיקציות נוספות היא בעלת האשם המכריע לנזקו של תושב ניו-ג'רזי ולכן לא מתקיים קש"ס בין פיתוח המפתחים לבין הנזק של אותו תושב (ואכן אותו תושב תבע את המשטרה ולא את המפתחים).
בנוסף יצוין כי נטל הראיה להוכחת "מבחן האלמלא" מוטל על התובע (אם ע"פ ס' 38-41 לפקנ"ז ואם מכוח דוקטרינת "הנזק הראייתי" [פורת, עמ' 321]). מאחר שהאלגורתים כנראה לא נגיש לאותו תושב ניו-ג'רזי שנפגע, נשאלת השאלה האם בכלל יעלה בידו להוכיח את "מבחן האלמלא", דבר המעלה קושי הוכחתי ניכר.
כמו כן, לצד מבחן האלמלא (שהוא המבחן העיקרי והשלט להוכחת קש"ס עובדתי), קיים מבחן עזר נוסף אשר נקרא מבחן הדיות והוא מופעל במקרים של סיבתיות עמומה. ע"פ מבחן הדיות, מתקיים קש"ס עובדתי אם די היה בהתנהגות המזיקה כדי להביא לקרות הנזק. בענייננו, לא נראה שמבחן הדיות מסייע בהוכחת הקש"ס העובדתי מאחר שהאלגוריתם לוודא לא יכל כמובן לגרום נזק לאותו תושב ניו-ג'רזי. המשטרה היא זו שהלכה למעשה גרמה את הנזק בעת מעצרו, והאלגוריתם לבדו לא יכל לעשות דבר בהקשר זה ובוודאי שלא די בו לגרימת הנזק.
תשובה 2
חוק האחריות למוצרים פגומים מחיל משטר של אחריות חמורה על יצרנים אשר מטיל על יצרן אחריות לנזק הנובע ממוצר פגום גם ללא יסוד של אשם (התרשלות למשל), אך כולל גם מס' הגנות בס' 4 לחוק (ולכן הוא למחיל משטר של אחריות מוחלטת). על כן, אם הגדרת "יצרן" שבחוק דנן תפורש ככוללת גם את המפתחים של האלגוריתמים והחוק יחול על כל סוג של נזק – נראה שניתן יהיה להחיל את החוק גם על ענייננו. במקרה כזה, יהיה בכוחו של החוק לפתור את הסוגיה שהועלתה בשאלה 1 בדבר הקושי הראייתי שבעמידה בנטל הראייה של התובע בהוכחת ההתרשלות, מאחר שאין צורך בהוכחת האשם במשטר האחריות החמורה. הדבר יפתור את חוסר הסימטריה במידע שבין הניזוק לבין המפתחים (שברשותם כל המידע) ויתמרץ את המפתחים לנקוט במשנה זהירות (כאחת ממטרות החוק דנן ע"פ דבריו של כבוד הש' בך בעניין ישראליפט נ' הינדלי). עם זאת, נראה שהדבר לא יפתור את הקושי הראייתי בהוכחת הקש"ס העובדתי, מאחר שגם חוק זה דורש יסוד של "גרימה", קרי, קש"ס בין המעשה לבין הנזק. נראה שהטעות בזיהוי הפנים של האלגוריתם יכולה להיחשב ל"פגם במוצר" בהתאם לס' 2 לחוק אשר דורש ליקוי שבשל קיומו עלול המוצר לגרום נזק, כאשר נראה כי מדובר בפגם בתכנון או בדגם או לחלופין פגם בפיתוח. בנוסף, עשוי להתעורר קושי בהקשר של הגדרת "מוצר" בס' 1 לחוק, כאשר יש להבחין בין שירות לבין מוצר. דהיינו, במקרה בו משטרת ארה"ב שכרה את שיורתיהם של המפתחים להזמנה ייעודית עבורה הדבר עשוי להיתפס כשירות שהעניקו המפתחים ולא מוצר ואז החוק לא יחול על המקרה. לעומת זאת, אם המפתחים פיתחו את האלגוריתם ורק אז שיווקו אותו למשטרת ארה"ב אז נראה שמדובר במוצר עליו חל החוק. בהמשך לכך, נראה שהקושי שתואר בשאלה 1 לגבי המצב החברתי כעת והאחריות המועטה שהחברה המודרנית מטילה עד עתה על מפתחים, עשוי להתעורר גם בהחלת החוק דנן, באמצעות ההגנה המצויה בס' 4(א)(2) כאשר המפתחים יטענו כי לפי רמת ההתפתחות המדעית והטכנולוגית שהייתה בעת שהמוצר יצא משליטתם, הם לא יכלו לדעת דהמוצר לא עומד ברמת הבטיחות הסבירה. בנוסף, המפתחים יוכלו לטעון כי בהתאם לס' 4(א)(1) האלגוריתם עבר בדיקות בטיחות סבירות לפני שיצא משליטתם ולכן חלה חזקה שהנזק לאלגוריתם נגרם לאחר מכן (למשל בשרתי משטרת ארה"ב). בהקשר זה יצוין, כי נתון שהטכנולוגיה דנן מבוססת על בינה מלאכותית ומבחינה זו יתכן שמדובר באלגוריתם המשתנה באופן אוטונומי ע"ב התנסות אישית שלו (של האלגוריתם). עניין זה מעלה קשיים רבים בכל הקשור בשאלת האחריות ומידת הלשיטה של המפתחים באלגוריתם מרגע שהוא יצא משליטתם. מאידך, גם את צורת הלמידה של האלגוריתם המפתחים הם שיצרו ולכן לדעתי ראוי להטיל עליהם אחריות גם על שינויים בתוכנה שמתבצעים על ידה באופן אוטונומי ולאחר שהיא יצאה מידיהם של יוצריה.
תשובה 3
לדעתי בהחלט ראוי להטיל אחריות כזו בהיבט של שיקולי הרתעה והכוונת התנהגות. זאת, בעיקר מאחר שככל שהמרחב הדיגיטלי הולך ותופס משקל רב יותר בחיי החברה, כך החשיפה לנזקים הנובעים מאלגוריתמים גובר. נראה שקיים צורך ניכר ומוחשי ללמוד כיצד להכווין גם התנהגויות שהנוגעות למרחב הדיגיטלי ובראשן להכווין את התנהגותם של אלו מעצבים עבורנו את אותו מרחב – המפתחים.
הרעיון של שימוש בדיני הנזיקין למען הרתעה והכוונת התנהגות מצוי בעיקר בגישה הכלכלית למשפט השואפת ליעילות כלכלית באמצעות זיהוי "מונע הנזק הזול ביותר". דהיינו, ע"פ גישה זו, המטרה של הפיצוי הגין הנזק היא להכווין מזיקים פוטנציאליים להימנע מפעילות מזיקה ובכך להקטין את הנזק, כאשר הדבר מוביל בתורו להגדלת הרווחה המצרפית. יובהר כי המטרה של גישה זו היא להכווין את הפרטים להימנע מהתהנהגות שמחצינה נזק כל אימת שהנזק קטן מעלות מניעתו (שאחרת היעילות היא להניח לנזק להתרחש).
לראייתי, החברות מפתחות התוכנה הן גם מונעות הנזק הטוב והזול ביותר שעה שברשותן מירב הידע והמומחיות בנושא שאינו נגיש כלל ללא הבנה עמוקה בו. הטלת אחריות על נזקים המתרחשים עקב שימוש בטכנולוגיה לא מספקת, בהחלט יגן על הציבור מפני סכנות הטכנולוגיה ויטיל על ארגוני התוכנה מעט יותר חסמים ואחריות שממילא לא יזיקו להם (כי הם הופכים למונופוליסטיים ברמה גלובלית ממילא).