ראיון | על בינה בלי דעת: ריעיון עם ד"ר תהילה שוורץ אלטשולר
- נועה לאה מאיר ועומר רוזנטל
 - לפני יומיים
 - זמן קריאה 17 דקות
 
ד"ר תהילה שוורץ אלטשולר היא עמיתת מחקר בכירה במכון הישראלי לדמוקרטיה, שם היא משמשת כראשת התוכנית לדמוקרטיה בעידן המידע. היא משפטנית בהכשרתה, ומתמחה בשאלות של פרטיות, רגולציית אינטרנט, חופש הביטוי בעידן הדיגיטלי, ואתיקה של טכנולוגיה ציבורית ועיתונות. בשנים האחרונות הובילה ד"ר שוורץ אלטשולר יוזמות מרכזיות בעיצוב רגולציה ואתיקה בתחומי העיתונות, הפרטיות והטכנולוגיה בישראל, כולל ניסוח קודים אתיים לגופי תקשורת, הצעות חוק, וחוות דעת ציבוריות בנושאי איכוני שב"כ בזמן מגפת הקורונה, פיקוח על טכנולוגיות ביטחוניות ושימוש במאגרי מידע בריאותיים. בין פרסומיה הבולטים ניתן לציין את הספרים "אדם, מכונה, מדינה: לקראת אסדרה של בינה מלאכותית" (הוצאת המכון הישראלי לדמוקרטיה), אותו כתבה יחד עם עו"ד אמיר כהנא, ואת המחקר "ארגז כלים להתמודדות עם המשבר בשוק העיתונות" (הוצאת המכון הישראלי לדמוקרטיה) אותו כתבה יחד עם נדן פלדמן, וכן שורה של מאמרים, דוחות מדיניות וכתבות בעיתונות בעברית ובאנגלית העוסקים באיזון בין ביטחון אישי לזכויות אזרח בעידן הטכנולוגי.
נועה לאה מאיר / סטודנטית שנה ג' לפכ"מ באוניברסיטה העברית
עומר רוזנטל / סטודנט שנה ב' לפכ"מ באוניברסיטה העברית
בשנים האחרונות הפכה הבינה המלאכותית לכלי מרכזי ומשפיע בזירה הגלובלית, הודות להיותה ביטוי של יכולות טכנולוגיות מרשימות, שקשה לדמות להן מקבילה אנושית. ככלי בידי מוסדות שלטון, היא נושאת פוטנציאל ממשי להגברת היעילות, לשיפור השירות הציבורי ולהעמקת השקיפות – אך דווקא בשל עוצמתה, מהירות התפתחותה, ומעמדה ככלי המפותח ומשווק על ידי גופים פרטיים, ביכולותיה טמונה האפשרות להעמקת פערים חברתיים-כלכליים, פגיעה בזכויות אזרח ואף לערעור יסודות דמוקרטיים. בראיון שערכנו עם ד"ר תהילה שוורץ אלטשולר, ראשת התוכנית לדמוקרטיה בעידן המידע במכון הישראלי לדמוקרטיה, ואחת מהקולות החשובים בשיח על טכנולוגיה, שלטון וחברה בישראל, ביקשנו להבין כיצד מדינה יכולה, ואיך עליה להסדיר את פעילותן של מערכות בינה מלאכותית הפועלות כמעט ללא הגבלות של פיקוח רגולטורי מסורתי.
ד"ר שוורץ אלטשולר, נשמח אם תוכלי לשתף אותנו תחילה במסע האישי והמקצועי שעברת – מהשלב בו סיימת את לימודייך האקדמיים ועד לעשייה שלך כיום.
אני משפטנית בהשכלתי – בעלת תואר ראשון במשפטים, אחר כך המשכתי למסלול הישיר לדוקטורט באוניברסיטה העברית. עבודת הדוקטורט שלי עסקה במדיניות תקשורת, עם מיקוד בשוק העיתונות והגבלים עסקיים, עוד בתקופה בה האינטרנט החל את צעדיו הראשונים בישראל. לאחר מכן יצאתי לפוסט-דוקטורט בבית הספר לממשל של הרווארד, במרכז שורנסטיין למדיה, פוליטיקה ומדיניות ציבורית. אז עוד ראיתי את עתידי כאקדמאית לכל דבר. לאחר מכן חזרתי לארץ לתקופה וסייעתי בהקמת בית הספר למדיניות ציבורית באוניברסיטה העברית, והצטרפתי לשורות צוות ההוראה של התוכנית. אחר כך משפחתי ואני חזרנו לבוסטון לתקופה נוספת בהרווארד, שהות שמהר מאוד הפכה לשנים המעצבות בחיי ושבמסגרתה הבנתי שאני נמשכת יותר לעשייה ציבורית, מאשר לעיסוק האקדמי הקלאסי. נחשפתי לעולמות מכוני המחקר האפקטיביים, והבנתי שאני רוצה להשפיע – לא לכתוב מאמרים ולחכות שנתיים עד שיתפרסמו, אלא לכתוב בעברית, עבור מקבלי החלטות, כאן ועכשיו. בשובי לישראל בשנת 2009, הצטרפתי למכון הישראלי לדמוקרטיה, ומאז אני פועלת בו כחוקרת בכירה. לצד זאת, שימשתי כסמנכ"לית מחקר ברשות השנייה. בשנים האחרונות אני גם פרופסור אורחת ב-Jio Institute במומבאי, אחד המרכזים המובילים בהודו למדע הנתונים, תפקיד שמרחיב את זווית הראייה שלי מעבר לארה"ב ולאיחוד האירופי.
לאורך השנים, תחום העיסוק שלי התרחב מהתמקדות במדיניות תקשורת, אל עולם רחב יותר של טכנולוגיה ודיגיטל. הכנתי לעצמי מעין תוכנית אסטרטגית, ואמרתי לעצמי שאני הולכת לחרוש את כל שדות עולם התקשורת, ולשאול איך הדיגיטל הולך להשפיע בתחומו. במקביל, כתבתי את הספר הראשון על חוק חופש המידע ויישומו בישראל, וב-2013 פרסמתי את המסמך הראשון בישראל על מה שנקרא כיום "ממשל פתוח".[1] משם, הדרך הובילה לעיסוק מעמיק בפרטיות, ברשתות חברתיות, בסייבר, ולבסוף באופן די אינטואיטיבי גם בבינה מלאכותית. ב-2023 פרסמתי את הספר "אדם, מכונה, מדינה", הראשון בעברית העוסק בתחום מדיניות בינה מלאכותית בישראל. המעבר שלי מהאקדמיה למכוני המחקר נבע מהצורך הפנימי להשפיע באופן ממשי. במקביל אני כותבת בעברית טורי דעה מחקריים בנושאי עיסוק אלו, עוסקת בעיצוב מדיניות, מנסחת חוות דעת רגולטוריות, מרצה בפני שופטים, אנשי ביטחון ומקבלי החלטות, כל זאת מתוך מטרה לקדם את ההבנה של אתגרי הטכנולוגיה ולהבטיח שזכויות האדם, חופש המידע והדמוקרטיה לא יוותרו מאחור.
בספרך "אדם, מכונה, מדינה" את כותבת כי בהיעדר מנגנוני אכיפה, חברות בינה מלאכותית נוטות לאמץ עקרונות אתיים "רכים" שקל לעקוף. מהן ההנחות המשותפות הרווחות שמרכיבות את הקונצנזוס המוסרי הלא מחייב הזה כיום בתעשיית הבינה מלאכותית, מה נעדר ממנו, ומאיזו סיבה?
יש מושג חשוב שתשמעו מכל מי שבא מהעולם של התעשייה הזו – "responsible innovation". כל החברות יטענו שהן נוהגות בצורה מאוד אחראית, אבל יש משהו מעניין מאוד במהפכת הבינה המלאכותית, בגלל שהיא כל כך קרובה למהפכה הקודמת, למהפכת הקישוריות של האינטרנט,[2] ממנה יש לנו סוג של ניסיון מצטבר. הרי ראינו את התפקיד שעמק הסיליקון שיחק במהפכת הקישוריות. רוח היזמות אז הייתה: "we're going to break things and then apologize", וזה גם מה שקרה. המשמעות של הגישה הזו היא שהחברות האלה נכונות לבצע טעויות ושיבושים מכוונים. מה יהיו התוצאות של הטעויות האלו? אנחנו לא בדיוק יודעים, ולמען האמת גם החברות האלה לא. אלו עקרונות הגיוניים, אך לא ברורים ליישום, ולכן הם נשארים בגדר קווי עבודה מנחים.
הבעיה היא שה"הלבנה" הזו שעושים לעקרונות האלה, היא לא נחלתן של החברות הגדולות בלבד, היא גם נחלתם של ממשלים ושל התארגנויות רב-לאומיות. כשמסתכלים על כל ההתארגנויות האלה, כמו האו"ם, אונסק"ו וה-OECD, אנחנו רואים את אותם עקרונות חוזרים. אותם "ניתנות להסבר", "שקיפות", "אוטונומיה", "פרטיות", "גיוון" ו"שוויון". מה שמעניין בעקרונות האלה זה שבמקביל להיותם חלולים למדי, השאלה על היישום שלהם במסגרת עולם הבינה מלאכותית היא בכלל לא ברורה. למשל, הציבו המון מצלמות בעשור האחרון במרחב הציבורי, כדי לשמור על הסדר. מה אם המצלמה יודעת לזהות אם אני עייפה, כועסת, או אפילו אם אני בעלת נטייה מינית מסוימת? זה בדיוק התפר העדין שעליו כל השאלות נשאלות – מצד אחד זה במרחב הציבורי, אבל ההיסק שהמכונה עשתה לגביי הוא היסק מאוד פרטי. כך מתערער לנו הפער שהכרנו בין מרחב פרטי למרחב ציבורי.
בעיניי, חברות הטכנולוגיה צריכות לשאול את עצמן איך לייצר טכנולוגיה שבה שמירה על האדם והדמוקרטיה היא במרכז. היום הן מייצרות מוצרים שבהם הרווח הוא במרכז. מה יוביל לשינוי באינטרס של אותן חברות זאת שאלה טובה. למה בכלל שהם ישנו את ההתנהגות שלהם? אז יש מי שיגיד אי אפשר בכלל לתמרץ אותם. הן גדולות מדי, חזקות מדי, הרי היום לחברות האלו יש רווחים שעוקפים רווחים של מדינות, ולכן אף אחד כבר לא יכול לעשות להם כלום. אפשרות אחרת היא להגיד, יש פה בסוף משולש יחסים, והמשולש הזה הוא זה שיגביל אותם. בקודקוד אחד שלו יש רגולציה. קודקוד שני זה אוריינות. בשביל לעשות רגולציה, מקבלי ההחלטות צריכים לפחות להבין מה קורה, להבין את הסביבה שלהם באיזשהו אופן, להיות במגמת למידה של הטכנולוגיות האלו ולהבין את ההשלכות שלהן. הקודקוד השלישי זה טכנולוגיה. מה יעזור לגרום ל"ביג טק" (Big Tech) לנהוג אחרת? אם יופעלו עליהם אתגרים טכנולוגיים. לפעמים זה אפשרי, לפעמים זה לא אפשרי, אבל יש פה משהו שצריך לדבר עליו, כי על כל טכנולוגיה שנוצרת אפשר לייצר טכנולוגיה אחרת, טובה יותר ומותאמת בתחומים הנדרשים. היום מדברים על רשתות חברתיות ללא הטיות אלגוריתמיות, או על מודל שפה גדולים ציבוריים.[3] כלומר, הטכנולוגיה בעצמה תייצר פתרונות, שבאמצעותם יהיה ניתן להגביל את הבעיות הטכנולוגיות שהיא יצרה מלכתחילה.
האם הפתרון הזה ישים? לדוגמה, במובן האוריינות של מקבלי ההחלטות שאפיינת, הרי הפער בין הלמידה האנושית לבין התחדשות הטכנולוגיה הוא פער שכמעט ולא ניתן להדביק, הרי הטכנולוגיה מתקדמת בקצב מסחרר, כך שכמעט כל יום אלמנטים אחרים בה משתנים.
אני חייבת להגיד שאני כופרת בטענה הזו, והסיבה לכך היא שאני לא יודעת מה יהיה ב-2050. אין לי מושג וגם אם אלמד כדי להתכונן לקראת התקופה הזו, זה לא ישנה. הדברים משתנים מאוד מהר, אבל אני כן יכולה פחות או יותר לדעת מה יהיה ב-2028 וב-2030. כיום נרטיב ההתמודדות מתקיים על ידי שימוש בעיצוב ספקולטיבי. שואלים שאלות על אינטראקציות, על הבחירות העיצוביות שנעשות, כדי להבין מה הולך להיות. אז אני שואלת את עצמי בהתאם למוקד הטכנולוגי, איך יראו מערכות יחסים בין אדם לאדם ברחוב? איך תראה הָאַגוֹרָה הדמוקרטית, איך יראה המרחב הציבורי? משם תתחיל להתבסס המוכנות. ברור שתמיד יש פער בין רגולציה לבין טכנולוגיה, אבל הפער הוא לא פער משתק. במקביל, לא תמיד צריך לעשות רגולציה, לפעמים מתוך העיצוב הספקולטיבי מגיעים למסקנה כי צריך לחכות להבשלת הנזק שנגרם.
אבל אם אנחנו רק משערים או יורדים לרזולוציות ספציפיות בכדי לנסות לכסות את ההסתברויות האפשריות של התרחישים, אנחנו שוהים המון זמן בממד התהייה, ואולי אפילו מבזבזים זמן שיביא למחיר יקר בזמן היישום.
זו תהייה מעולה. אני חושבת שאנחנו צריכים לחשוב על רגולציה באופן אחר ממה שאנחנו חושבים היום. במדינת ישראל רגולציה משמעה חקיקה, בשביל חוק צריך ללכת לכנסת. לפני שהולכים לכנסת צריך כמובן לכתוב את החוק. זה לוקח לצוותי הייעוץ והחקיקה כחמש שנים. ליוויתי עכשיו מקרוב בחורף האחרון את תהליך חקיקת תיקון 13 לחוק הגנת הפרטיות, עשר שנים לקח להם להביא את זה לכנסת. ההנחה הרווחת היא שלוקח נניח חמש שנים לכתוב חוק, להביא אותו לכנסת, לטפל בו, והוא יחזיק כבר ל-15 שנים. זאת הנחה מופרכת, במיוחד כשאנחנו מדברים על טכנולוגיה שלא מפסיקה להשתנות.
השאלה היא מה אנחנו צריכים לעשות במקום. דוגמה טובה היא אחד הדברים שהצענו במהלך המלחמה, שפתאום הבינו שיש בעיה קשה עם הגנה על שרשראות אספקה בסייבר. שרתים שיושבים בצרפת ועליהם יושבים האתרים של איקאה ושל ארכיון המדינה במקביל. כשתוקפים את השרתים האלה, נופל ארכיון המדינה ונופל האתר של איקאה. איך אתה מונע זאת? אפשרות אחת היא לחוקק חוק סייבר שיעבור בתהליך הארוך הזה שציינתי. אפשרות אחרת זה לקבוע את ההנחיה הבאה: אנחנו מבקשים מכל חברה גדולה במשק בעלת שרשרת אספקה שיושבת על שרתים במדינות אחרות, לוודא שהשרת שלה עומד בתקן מסוים. אם היא עושה את זה ותהיה להם התקפת סייבר, אז המדינה אומרת, מבחינתי עמדת בדרוש ממך. אם לא היה לך את התקן הזה, אני נותנת לך קנסות. יכול להיות שאנחנו צריכים היום לחשוב על רגולציה שהיא יותר מהירה, יותר קצרת טווח בתפיסה שלה, אבל שבמקביל אנחנו יכולים לעדכן אותה יותר בקלות.
חוק הבינה המלאכותית האירופי הוא דוגמה טובה לכך,[4] הם הראשונים ליצור קשר גורדי חזק בין התקינה לבין החקיקה. החקיקה שהם מקדמים היא על טהרת הגנת הצרכן. הם טוענים כי כל מוצר מבוסס בינה מלאכותית צריך להיות בעל תו תקן. מי ייתן לו את תו התקן? חברות התקינה. אם אין לו תו תקן, הוא יספוג קנסות. אז כן, ברור שיש תמיד פער בין רגולציה לבין טכנולוגיה, אבל זהו לא פער משתק, זה פער שאפשר לתת לו פתרונות. זה יכול להיות דרך מכון התקנים או דרך רעיונות אחרים.
בהמשך למה שתיארת בנוגע לחוק הבינה המלאכותית של האיחוד האירופי, החוק ברובו מציב דגש על הגנה מפני חדירה לפרטיות האזרחים מצד ממשלות ושם הגבלות על שימושים מסוימים בבינה המלאכותית. האם את חושבת שהדרך בה החוק בנוי תהיה אפקטיבית מול האתגרים בתחום הבינה המלאכותית בעתיד?
החקיקה שהעביר הפרלמנט האירופי היא ללא ספק ראשונה מסוגה, ולפיה חקיקת הרגולציה על בינה מלאכותית תהיה בראש ובראשונה ברמת המדינה, כלומר, כל מדינה תבחן את השימוש בבינה המלאכותית במסגרתה, וכל מדינה תבחר האם להחיל את זה גם על המגזר הפרטי אצלה. יש להם אינטרס כי מוצרים שהמגזר הפרטי מייצר, בסוף המגזר הציבורי קונה.
הסיבה ששמו את הדגש על רגולציה ברמה המדינתית היא כי הנזק שעלול להיגרם משימוש בבינה מלאכותית על ידי רשויות המדינה הוא פעמים רבות גדול יותר מהנזק שעלול להיגרם על ידי חברות פרטיות. קחו למשל את העולם של זיהוי פנים באמצעות מערכות כמו "עין הנץ".[5] ישנו חשש שהמערכת תוכל לשמש את המדינה בפגיעה במתנגדי שלטון שמשתתפים בהפגנות, למשל. אנחנו כבר רואים דברים דומים מאוד בשימוש בסין, שם הממשלה עוקבת אחרי מתנגדים פוליטיים ומיעוטים תרבותיים ובכך מדכאת מחאות והתנגדות לשלטון. הדברים שהמדינה יכולה לעשות, כגוף היחיד שיכול להפעיל אלימות באופן חוקי, עם מערכות בינה מלאכותית פולשניות, הם הרבה יותר מסוכנים מכל דבר שחברה פרטית יכולה לעשות. לכל מערכת טכנולוגית חדשה שנכנסת לחיינו יש השפעות חיוביות ושליליות על החברה שלנו. הרשתות החברתיות קירבו אותנו לכל העולם, אבל גרמו לנזקים לשיח הציבורי, למבנה החברה שלנו, לבריאות הנפשית והקוגניטיבית שלנו. באותה האופן יהיו השפעות חיוביות ושליליות לכניסת הבינה המלאכותית, אבל הן יהיו מאוד שונות ממה שהכרנו ממערכות טכנולוגיה אחרות, ואנחנו מתחילים להרגיש את זה כבר היום.
יש גם המון דילמות מוסריות שיעלו בשנים הקרובות בעקבות השימוש בבינה מלאכותית, שלא בהכרח יכולות לבוא לידי פתרון יעיל על ידי רגולציה. האם רובוט שאומר לנו בדיוק את מה שאנחנו רוצים לשמוע יעזור לנו בחיכוכים בחיים שלנו? לדבר אתו ייצר את התחושה שאנחנו לא לבד, וזה יגרום לנו לספר לו דברים – או שמצד שני, דווקא שלא לספר לו דברים. אלו שאלות שאני חושבת שעכשיו מתעוררות באופן מאוד מאוד אינטנסיבי ואנחנו עוד לא מבינים את העוצמה שלהם.
ואף על פי כל ההשפעות שיהיו לבינה המלאכותית על החיים שלנו ועל הבריאות שלנו, התשובה הקבועה של החברות האחראיות על המכשירים האלה היא ש"המכשיר אינו כלי רפואי, ועל כן איננו זקוק לאישור מנהל המזון והתרופות האמריקאי (FDA)". אז תחשבו על זה – הם מחוץ לרגולציה. הם מציבים את עצמם מההתחלה מחוץ לרגולציה. לא צריך רישוי, לא צריך אישור, לא צריך פנקס פסיכולוגים או תואר שני עם התמחות קלינית. לא צריך את כל הדברים האלה, כי הבינה המלאכותית היא לא כל הדברים האלה. אבל לאט-לאט התפקיד שלה בחיינו הופך להיות מאוד דומה לתפקיד של רופא, פסיכולוג, מאמן, דיאטן שאנחנו מאמינים לו בלי עוררין, ויכולות להיות לזה השלכות מסוכנות, שלא ברור מה הפתרון שלהן ברמת המדיניות. האם אנחנו צריכים לצפות להידרדרות קוגניטיבית של האוכלוסייה? האם זה דבר טוב או רע? אלו שאלות שעל חלקן אני יודעת לענות, לא בהכרח באופן מלא, אבל הן שאלות מעניינות. ועליהן יש שאלות יותר פילוסופיות, כמו מה המשמעות של זה שאנחנו נהיה היצור השני הכי תבוני בעולם? זו שאלה ששואלים כל מהנדסי הבינה המלאכותית היום.
השאלה הגדולה היא בעצם מה עומד מאחורי הפיתוח ועד כמה הפיתוח נעשה באופן אחראי. יש לנו את ההיבט של המהירות, כשברור שהמחוקק ומתכנן המדיניות לא יכולים לעמוד בקצב של המהירות הזו. הסוגייה המסובכת הנוספת היא ההשלכות החברתיות של הציבור שלא מאורגן ולא מוכן לכך.
קושי נוסף של רגולציה היא הסוגייה של צפי וכיוון הפיתוח. חשבו למשל על ChatGPT כמודל שפה גדול. המפתחים שלו ביצעו הכרעה מאוד מעניינת, הכרעה בין זמן לבין דיוק. הם החליטו שצריך לשאול אותו כעשר שאלות שונות עד שהוא ייתן תשובה מדויקת באמת. לחלופין, אפשר לבחור לשאול אותו רק פעם אחת, ואז התשובה תהיה לעתים מדויקת ולעתים לא מדויקת. זה לא שהמכונה כשלעצמה הוזה, זה הדרך שבה הם החליטו להוציא אותה לשוק, בצורה כזאת שיהיו פחות פעולות, אבל גם פחות דיוק. למה הם עשו את זה? אם הם היו חייבים לקבל רישיון, אז ייתכן שהייתה מגבלה שבהינתן כמות כזו של טעויות הם לא מפיצים את המודל לשוק. אבל מכיוון שלא צריך להעביר את המודלים האלו תהליכי רישוי, ומי שמשתמש בהם הוא ציבור לא מאורגן, אז אף אחד לא אחראי למנוע את הנזקים שייווצרו. חשבו על מקרה שבו אנשים נעזרים במודל הזה בבתי משפט, והוא פשוט ממציא להם תשובות שגויות. אלו נזקים שמתפזרים על פני כלל החברה. בנוסף, לוקח להם הרבה זמן בעצם "להבשיל", הרבה זמן עד ששמים לב לנזק ובהתאם אין מי שימנע אותו.
היבט של מדיניות וקבלת החלטות שעדיין לא דנו בו הוא קבלת החלטות על ידי מנהיגים. יש הטוענים שבעתיד הלא רחוק בינה מלאכותית תשפיע על החלטות של מנהיגים ואפילו תקבל בשבילם החלטות.[6] איך את רואה את התפקיד של מקבלי ההחלטות במצב כזה?
אני מציעה שתחילה לא נחשוב על התרחישים האלו בכל הנוגע לפוליטיקאים. במקום זאת, בואו נחשוב על שופטים. חשבו ממש על שופט רובוט. מה היתרונות של כך? הוא מכיר את כל התקדימים הרלוונטיים, בכך הוא בעצם בעל הרבה ידע משופט אנושי, למשל שופט אנושי בבית משפט שלום. הוא יכול לנתח מקרה בצורה הרבה יותר ניואנסית. הוא לא עייף, הוא לא כועס, הוא לא רעב לפני ארוחת צהרים, הוא לא רב עם אשתו אתמול בערב, הוא פטור מכל ההשפעות האלו ובהתאם הוא יכול להיות הרבה יותר אובייקטיבי מאשר שופט בשר ודם. אבל בכל זאת תרחיש כזה מרגיש לנו קצת כמו מפרק של "מראה שחורה", מרגיש לנו שהתרחיש הזה מאוד לא נכון. אז איך נכון לנהוג? איך נוודא מול מי אנחנו עומדים בבית משפט? עד לאחרונה חשבתי שכל מה שדרוש הוא לטפל ביכולת של מכונה להחליט בשבילנו החלטות, למשל לוודא שאין בהחלטות שלה היבטים שרירותיים. היום אני הרבה יותר מוטרדת מכך, אבל בגלל סיבה אחרת.
לשופט הזה תהיה יכולת מופלאה להסביר לי, בעלת הדין, למה הוא החליט כמו שהוא החליט, ולשכנע אותי שהוא החליט נכון. ואז בעצם אני בכלל לא אכעס עליו. כלומר, הבעיה לא תהיה שאני ארצה למחות על החלטת הרובוט ולא יהיה מי שישמע אותי. הבעיה תהיה שאני כל כך אשתכנע במה שהוא החליט וכמה זה מועיל לי, שאני לא ארצה לערער בכלל, גם אם הערעור שלי מוצדק והוא הדבר הנכון לעשות. זה עידן של היפר-שכנוע. היכולת של מכונה לשכנע או לשכנע באופן על אנושי כבר היום הרבה יותר גבוהה מהיכולת שלה בבינה כללית.
עכשיו בואו נחשוב על פוליטיקאים. במקרה הזה יש סיכון להטיית ההסתמכות. כלומר, כאשר פוליטיקאים יתחילו להיעזר בבינה מלאכותית הם ירגיעו את הציבור ויגידו שעדיין יש גורם אנושי שהוא חלק מתהליך קבלת ההחלטות. הפוליטיקאים יבטיחו לנו שהם בעלי המילה האחרונה, שהם מקבלים את ההחלטה בסוף.
אבל ההסתמכות על מכונה היא עדיין הסתמכות על גורם אחר, היא יוצרת הטיה חזקה לטובת מה שהמכונה אומרת. יותר מזה, זה מאפשר לפוליטיקאים להגיד: "אני לא מסיר מעצמי אחריות, אבל המכונה ואני חשבנו ביחד שזה הדבר הנכון לעשות". ומשם הדרך להטיל את כל האחריות על המכונה היא קצרה.
אם נסתכל לאורך היסטוריה על מנהיגים גדולים, נגלה שאחד הכישורים הכי חשובים שלהם היא הרטוריקה שלהם. לא בהכרח היכולת שלהם לקבל החלטות, אלא להיות האנשים שיודעים להרשים ולשכנע אחרים שההחלטות שלהם נכונות. אבל אם יש מכונה שיודעים לשכנע בהחלטות שלהם, ואפילו מכונה שתדע לעשות זאת יותר טוב מכל מנהיג אנושי, אז כל העולם הפוליטי שאנחנו מכירים ישתנה לגמרי.
צריך עם זאת לזכור שבכל הנוגע לשימוש בבינה מלאכותית על ידי פוליטיקאים, לפחות ממה שידוע לי מהספרות המחקרית, הבינה המלאכותית עדיין צריכה פקודה, היא צריכה שיגידו לה מה לעשות. אפשר לבקש ממנה בקשה מסוימת או בקשה הפוכה, וכל אחת תוביל לפלט שונה לחלוטין. נראה שזה מוביל לאובדן הממד המוסרי בקבלת החלטות, של האופן בו אנחנו מבינים החלטות ראויות. יש הטוענים שעצם העובדה שבן אדם היה מעורב בקבלת ההחלטה, אז הדבר נותן לה תוקף מוסרי. אבל לעומת זאת יש מנגד המצביעים על כך, למשל חוקרי התנהגות, שהשיפוט של בני אדם פגיע לכל כך הרבה החלטות, שמכונה יכולה להיות עם הטיות אחרות לגמרי ובעקבות כך להחליט החלטות הרבה יותר מדויקות.
ניקח למשל מקרים של בעיית הקרונית.[7] כשאנחנו נוסעים בכביש, מאזינים לפודקאסט, תוך כדי שאנחנו מדברים בטלפון ואוכלים כריך, באמת נצליח לקבל בשבריר שנייה החלטה נכונה במצב של בעיית קרונית? כ-350 אנשים מתים בתאונות דרכים בישראל כל שנה. נניח שאפשר לעשות את העסקה הבאה: אנחנו נבצע האצלת סמכויות במקרים של בעיית הקרונית למכונה, ובתמורה לזה ימותו בישראל רק כעשרה אנשים בשנה בתאונות דרכים. האם אנחנו מוכנים לעשות את זה? מה ההחלטה הנכונה מבחינה מוסרית? שימו לב שבכוונה האצלתי באופן מלא את הסמכויות למכונה, היא תחליט מה שהיא רוצה בכל הנוגע במי לפגוע עם הרכב, אבל כן נדע שבישראל לא ימותו כ-340 אנשים בכל שנה. מה שבעצם הדוגמה הזו מראה הוא שבמדיניות סביב תאונות דרכים קל לחשוב על זה במונחים של תועלת, במונחים של איך מצמצמים את מספר המתים, איך מפחיתים את הסיכון לתאונות דרכים, אבל, וכפי שהדגשתי זאת במהלך הריאיון הזה, צריך גם לחשוב על איך המרקם החברתי ישתנה ואיך הדבר יעצב את הרצונות שלנו.
אני לא חושבת שלמודלים האלו יש תפיסה מסוימת, יכולת שיפוט, אלא הם מפיקים תשובות מהניסיון המצטבר שלהם. במקרה הזה, אין זה ממקומם להחליט מה ראוי לעשות. הם צריכים לעשות אופטימיזציה למה שמבקשים מהם. אסור לעשות לבצע את ההאנשה המובלעת הזו בכך שמבקשים מהם להחליט מה ראוי ומה לא ראוי. אל תצפו לזה.
עד כה דיברתי על מה לא נכון להשאיר למכונות, אבל מה כן נכון? דוגמה טובה לדיון המורכב הזה היא המקרה של ביקורת שיפוטית על החלטות של רשויות השלטון. מה בעצם עושה בג"ץ כשהוא בא להחליט האם רשות מנהלית כלשהי פעלה כראוי? הוא נעזר בין השאר בעילת הסבירות. במקרה הזה בג"ץ מבקש לדעת מה היו השיקולים שהרשות שקלה והאם היא אזנה ביניהם כראוי. אולי דווקא מכונה תעשה את השקלול הזה הרבה יותר טוב מאנשים. אז יש לנו כאן קושי להיפרד מהחלטות שאנחנו תופסים כהחלטות מאוד אנושיות, כהחלטות מאוד מורכבות. אבל יכול להיות שיהיו החלטות שהמכונה תעשה הרבה יותר טוב מאיתנו. וזה יכול להיות החלטות מורכבות, דווקא את ההחלטות המורכבות.
לפעמים יש לנו נטייה לקשר בין החלטה מורכבת להחלטה מוסרית, אבל זה תמיד המצב. לפעמים החלטות מורכבות דורשות בעצם את היכולת לשקול נכונה בין כל העובדות הרלוונטיות או לאזן בין כל השיקולים הרלוונטיים. לכן אנחנו על סיפו של שינוי משמעותי בכל סדרי החיים, החברה והממשל. מי שתקבל החלטות מורכבות תהיה מערכת סטטיסטית. זה ישפיע על שוק העבודה, על הדמוקרטיה ועל איזה אנשים אנחנו נהיה. אי אפשר להתמודד עם כל ההשפעות האלו באמצעות רגולציה. עבור חלק מהן נצטרך לחכות ולראות איך יבשילו הנזקים בשביל להתמודד איתם, ולפעמים זה יהיה מאוחר מדי, בדומה למה שאנחנו חווים עכשיו עם הרשתות החברתיות.
אבל כפי שדיברנו בתחילת הריאיון, יש גם כוחות חזקים להתמודדות עם האתגרים האלו בתוך האיחוד האירופי, וכפי שאמרתי יש גם פוטנציאל גדול בהודו. יש גם בתוך ארצות הברית. הקושי הוא שמוסדות הסדר העולמי הקיימים מאוד מעורערים בימינו – למשל, המעמד של האו"ם והמעמד של ארגון הבריאות העולמי. ואז עולה השאלה: במקרה שבינה מלאכותית תצא משליטה, מי יהיה אחראי להתמודד עם זה?
אני לא עתידנית, אין לי מושג מה יהיה ב-2050. אבל אני חושבת שאחד הדברים שכולנו צריכים ללמוד לעשות זה לנסח תרחישים בצורה יותר טובה. שבוע לפני שפרצה המלחמה, פרסמתי במגזין TheMarker סיפור בשלושה עשר פרקים קטנים, בו כל פרק הוא יום, שכולל תרחיש של משבר בסדר העולמי שנובע מבינה מלאכותית שיצאה משליטה. כתבתי את זה יחד עם איתי ברון, ראש חטיבת המחקר באמ"ן לשעבר (שוורץ אלטשולר וברון, 2023). היכולת הזאת לכתוב סיפור שהוא מספיק אמיתי אבל בו בזמן גם מספיק בדיוני מאוד עוזרת. אנחנו מכנים את זה "סדנאות עיצוב ספקולטיבי". למשל, להושיב בעלי מניות בחברה סביב שולחנות ולשאול אותם איך ייראה העולם עם משקפיים חכמים? איך ייראה העולם כשאנשים עובדים לצד מכונות? לנסות לדמיין קצת יותר וקצת פחות תוך כדי שאנחנו נטועים ב"כאן ועכשיו", כי ה"כאן ועכשיו" משתנה כל הזמן.
את לא רק חוקרת ההשפעות הטכנולוגיה על השלטון והחברה, אלא את גם אמא שחווה את ההשלכות של כך. מה עמדתך לגבי שימוש של ילדים ונוער באינטרנט ובבינה מלאכותית? האם תרצי להזהיר מפני השלכה מסוימת או להציע הכוונה בנושא?
במקרה הזה יש לי שני סיפורים שיכול לעזור לענות על זה. כשחזרנו מארצות הברית, הבת שלנו הייתה בת עשר. בארצות הברית לימדו אותנו בבית ספר היוקרתי בבוסטון שצריך "נט-נאני". כלומר לבצע סינון של האינטרנט כי יש בו תכנים מסוכנים לילדים. כשחזרנו לארץ נהגנו באופן דומה והתקנו אינטרנט רימון, שירות לסינון של תכנים באינטרנט. לאחר יומיים הבת שלי אמרה לי שיש לה משהו לספר לי, היא הראתה לה שהיא מצאה אתר שמאפשר לעקוף שירותי סינון של תכנים באינטרנט.
אני חושבת שבשיח מול ילדים על השימוש באינטרנט ובבינה מלאכותית צריך להתרכז בהעצמת היכולות שלהם ולא בהגבלות. אבל אני עדיין אני מאוד מוטרדת מההשלכות הבעייתיות של כך, למשל על בנות צעירות שפיתחו הפרעות אכילה כשהן ישבו שנתיים בשיעורי זום בתקופת מגפת הקורונה. הזכרנו כבר גם עוד דוגמה עם השלכות בעייתיות אפשריות – צ'אטבוטים של תמיכה רגשית וליווי רגשי לנערים ונערות בגיל ההתגברות.
הסיפור השני מדגים את המורכבות הזו של שימוש בצ'אטבוטים. כשעוד אף אחד לא ידע מה זה ChatGPT בארץ, ולבת שלי הקטנה היה פרויקט להגשה באנגלית, אמרתי לה שאני אראה לה משהו מגניב. הדגמתי לה איך ChatGPT יכול לחשוב על פרויקט, לתת לו שם ולתאר בדיוק מה הוא יכלול. זה סוג של רגע "אה-הא!", אבל התגובה שלה הייתה דווקא "אמא, זה ממש זה מפחיד". זו תגובה מעניינת מאוד. יש רגע של ההפתעה בלחזות במכונה שלא חשבנו שיכולה לעשות משהו עושה אותו, אבל זה גם רגע של רתיעה. לסיכום, אני חושבת שתוכניות ההתערבות ותוכניות המוגנות לילדים ונוער צריכות להבין לאן אנחנו הולכים. דיברנו על תלות רגשית ודיברנו על הידרדרות קוגניטיבית, אלו השלכות שלא היו בעולם של האינטרנט לפני הבינה המלאכותית וצריך לבחון אותן כבר עכשיו.
שאלה אחרונה – רבים מקוראינו הם סטודנטיות וסטודנטים העתידים להשתלב בקרוב בשוק העבודה. בראייתך, מהם השינויים ששוק העבודה צפוי לעבור בזמן הקרוב?
אני לא מקנאה בכם. יש הרבה מאוד מקצועות שבעבר חשבנו שלא יוחלפו על ידי מכונה וכיום אנחנו כבר לא בטוחים בכך. לדוגמה: ראיית חשבון, משפטים, כלכלה, ואפילו כתיבת תוכנה, יהפכו למקצועות הרבה פחות נדרשים, וסף הכניסה על מנת למצוא משרה במקצועות אלו יהפוך להרבה יותר גבוה. במקומות בהם איגודי העובדים חזקים, כמו שירות המדינה, תתבצע "הנשמה מלאכותית" של סדר העבודה הישן, וייקח יותר זמן לבינה המלאכותית להחליף את העובדים באופן משמעותי. אבל בשוק הפרטי הלא מאוגד, ההצלחה של עובדים ושל חברות תהיה תלויה ביכולת שלנו להמציא את עצמנו מחדש בצורה המתאימה ביותר לעולם התעסוקה העתידי.
עוד שאלה מעניינת שעולה היא כיצד תתקיים ההכשרה המקצועית של עובדים זוטרים במקצועות שהבינה המלאכותית תחליף. לדוגמה, במשרדי עריכת דין הבינה המלאכותית תהיה חלופה זולה ואפקטיבית יותר לצוות הזוטר שעכשיו הגיע מהאקדמיה. את המומחים שנמצאים שנים בתחום וצברו המון ניסיון מעשי שהמכונה לא יודעת לחקות. אלו האנשים שיודעים להתמודד עם השאלות המשפטיות המסובכות מקצה לקצה ולהסתכל על תיקים ונושאים ציבוריים בראייה רחבה. אם לא יהיה צורך בעורכי דין זוטרים, לא יהיה מי שיוכל לצבור ניסיון מקצועי פרקטי ולייצר חילופי דורות במערכת. זו שאלה קשה שצריך לראות איך ארגונים וחברות יהיו חייבים להתמודד איתה. מי שיהיה מודע לאתגר הזה מראש וייערך אליו יהיה בעל סיכויים גבוהים יותר להצלחה.
המקצועות שלדעתי פחות ייפגעו יהיו אלו דורשים קשר אנושי. אם להיות מדויקת יותר – אלו שדורשים מגע אנושי. מקצועות הסיעוד, פיזיותרפיה, ריפוי בעיסוק, כל המקצועות שאדם זקוק להם כאשר הוא בשעתו הקשה וצריך תמיכה אנושית כדי לקום מחדש על הרגליים, אלו יהיו המקצועות שהערעור עליהם יהיה הכי פחות משמעותי. כמובן שגם הם ישתנו, וייראו אחרת ממה שהם נראים כיום. אבל, אם הייתי צריכה להמליץ לילדיי שלא יפגע מהשפעות הבינה המלאכותית, הייתי אומרת להם ללכת למקצועות שבהם החיבור האנושי הוא המרכיב הקריטי ביותר להצלחה.
[1] "ממשל פתוח" (Open Government) היא גישה שלפיה לאזרחים יש זכות לגישה למסמכים ולהליכי מוסדות וגופים ציבוריים, וכן יכולת להשתתף ולהשפיע באופן פעיל על תהליכי קבלת ההחלטות של גופים אלו. מחקרה של ד"ר שוורץ אלטשולר התפרסם תחת השם "מדיניות ממשל פתוח בישראל בעידן הדיגיטלי" בהוצאת המכון הישראלי לדמוקרטיה.
[2] "מהפכת הקישוריות" הוא מונח המתייחס לתהליך שראשיתו בתחילת שנות ה-90 של המאה ה-20 ושיאו בשנות ה-2000, במהלכו כמעט כל מכשיר ומערכת מידע החלו להיות מחוברים לרשת האינטרנט בזמן אמת, באופן המאפשר העברת מידע בקלות רבה לכמעט כל מקום על פני כדור הארץ.
[3] מודל שפה גדול (באנגלית: Large Language Model; ראשי תיבות: LLM) הוא מונח המתייחס למערכות בינה מלאכותית שאומנו על ידי מסד נתונים נרחב, שמורכב לרוב ממיליארדי מילים שנלקחו מרשת האינטרנט וממקורות נוספים, מתוך מטרה ליצור תגובות דמוי-אנושיות במענה לשאלות מצד גורם אנושי.
[4] חוק הבינה המלאכותית (Artificial Intelligence Act) היא מסגרת רגולטורית שחלה על מדינות האיחוד האירופי, אשר נכנסה לתוקף באוגוסט 2024. החוק הוא המסגרת המשפטית הראשונה מסוגה שנועדה להסדיר את תחום הבינה המלאכותית. הוא מתמודד עם הסיכונים הכרוכים בבינה מלאכותית וממצב את מדינות אירופה כמובילות עולמיות בתחום זה (European Parliament, 2025).
[5] "עין הנץ" הוא כינוי למערכת מצלמות הפרוסה ברחבי ישראל ומשמשת את משטרת ישראל ושירותי ביטחון נוספים לניטור ומעקב אחרי תנועת כלי רכב.
[6] מאז קיום הריאיון, אלבניה נהייתה למדינה הראשונה שמינתה צ'אטבוט לתפקיד שרה (Pillay, 2025).
[7] בעיית הקרונית היא ניסוי מחשבה מפורסם בפילוסופיה של המוסר שהוצג לראשונה בשנת 1967 על ידי הפילוסופית פיליפה פוט (Foot). במסגרת ניסוי המחשבה קרונית שועטת לעבר קבוצה של חמישה אנשים, כאשר ניתן להסיט אותה כך שתפגע רק באדם אחד, וישנה הדילמה האם ראוי להסיט את הקרונית. ניסוי המחשבה שימש בתחילה פילוסופים לבחון דילמות מוסריות ולהדגים את ההבדלים בין תיאוריות מוסריות שונות, אך עם הופעת הבינה המלאכותית ומכונות אוטונומיות, הוא הפך רלוונטי במיוחד למענה על מקרים בהם נדרש להכריע בתרחישים של בחירה בפגיעה בין בני אדם בעת נסיעה בכלי תחבורה.
רשימת מקורות
שוורץ אלטשולר, ת' וברון, א' (14 באוקטובר, 2023). מכונה נגד אדם – סיפור לא מספיק בדיוני על בינה מלאכותית שהשתגעה. TheMarker. https://www.themarker.com/magazine/2023-10-14/ty-article-magazine/.premium/0000018b-13c5-dcc2-a99b-17d5a3450000
European Parliament. (2025, February 19). EU AI Act: first regulation on artificial intelligence. Retrieved October 19, 2025, from https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence
Pillay, T. (2025, October 10). The World’s First AI-Powered Minister Tests the Future of Government. TIME. https://time.com/7324934/albania-ai-minister-diella/
_edited.png)