קצת מפתיע שמאסק, יחד עם הפיזיקאי סטיבן הוקינג ומייסד מיקרוסופט ביל גייטס מזהירים מפני טכנולוגיה חדשה שתופסת תאוצה. האם גם אתם רואים את הסכנות שטמונות בה?
אילון מאסק הוא יזם מעורר השראה. כיזם שבנה עצמו במו ידיו מאפס הוא נחשב כיום לאחד מבכירי היזמים בעולם. הוא עומד בראש טסלה, ששינתה את עולם הרכבים החשמליים, ומתיימרת להיות הראשונה שתפעיל רכבים אוטונומיים בצורה מסחרית, ומוביל את מיזם Spacex, ששם לעצמו מטרה להוביל אדם למאדים עד 2030. כל אמירה שלו זוכה כיום להרבה אזניים קשובות ועדת מעריצים הולכת וגדלה.
כחסיד של טכנולוגיות פורצות דרך ניתן היה לצפות, כי הוא ייתן גיבוי להתקדמות המשמעותית בתחום של בינה מלאכותית – שרבים טוענים שתשנה את עולמנו – אך גם כאן אילון מאסק מפתיע. בשנים האחרונות הוא טוען בעקביות כי הסכנה הגדולה ביותר המרחפת על האנושות היא ההתקדמות האדירה בפיתוחים הטכנולוגיים של בינה מלאכותית. לא זאת בלבד, לאחרונה הוא נשא נאום בפני מושלי מדינות בארצות הברית, וקרא להם באופן אקטיבי לקדם רגולציה שתסדיר, תבקר ותגביל את הפיתוחים הטכנולוגיים בתחום זה לפני שיהיה מאוחר מדי.
אילון מאסק הוא לא היחיד. גם פרופ' סטיבן הוקינג, ביל גייטס, ומובילי דעה אחרים, החלו להתריע באחרונה מפני הסכנות בבינה מלאכותית. בתרחישים האקופליפטיים אפשר לדמיין רובוטים בעלי בינה מלאכותית מסתערים ללא שליטה על בני אדם ברחובות וזורעים הרס וחורבן, ממש כמו בסרטי הוליווד. אך הסכנות הצפויות מבינה מלאכותית הן מורכבות הרבה יותר, ומחייבות מחשבה ותכנון רבים מצד מקבלי החלטות. בוודאי, הרבה יותר מהנעשה כיום.
היופי הגדול של הבינה המלאכותית מצוי בדיוק במקום שמפחיד את מאסק ואחרים: היכולת לייצר תוצרים לא צפויים. תוצרים שלבן אנוש אין בהכרח את היכולות (או המשאבים) לבצעם בעצמו, ונגזר מכך, שלא תמיד יש לבני אנוש את היכולת לבדוק את התוצרים מבעוד מועד. על כן ההחלטות שמתקבלות מבוססות על בינה מלאכותית, אך יש לנו קושי להסבירן. בשפה המשפטית נאמר, כי יהיה לנו קושי להראות את הקשר הסיבתי בין המעשה שגרם לנזק לבין האחראי למעשה, וזה עשוי לערער את יסודות התפיסה המשפטית שעל בסיסה מתקיימת החברה המודרנית.
קחו לדוגמה, רופא המטפל בחולה. הרופא מתייעץ עם מחשב המבוסס על בינה מלאכותית, כדוגמת ווטסון של IBM. המחשב קובע כי בהסתברות גבוהה התסמינים של החולה מלמדים על מחלה X. הרופא, שמכיר את אחוזי ההצלחה של ווטסון, אינו משוכנע, אך בוחר להסתמך על התוכנה, ומעניק טיפול, שבדיעבר מסתבר כטיפול שגוי. בעולם הרגיל נאמר שבתביעה של רשלנות רפואית, יהיה על התובע להוכיח כי הרופא חרג מפרקטיקות מקובלות, ואם כך יקבע הוא יזכה בפיצויים. אך בעולם של בינה מלאכותית, די מהר הפרקטיקה המקובלת תהיה להסתמך על ווטסון, ולכן יהיה צורך לבדוק האם ווטסון התרשל בגיבוש חוות דעתו. זה כבר לא קל לעשות. ראשית, משום שווטסון זה מתכנתים, חוקרים, מפעילים ומנהלים. וכל אחד בשרשרת יכול היה להתרשל. שנית, משום שקשה מאד לבדוק מערכות קבלת החלטות שבוחנות כמויות אדירות של ידע שבני אדם לא יכולים לעשות כן. המסקנה, אם כן, שהשיטה המשפטית הקיימת, תתקשה עד מאד להתמודד עם מקרים כאלו בעתיד. וככל שהחדירה של המערכות לתוך מקצוע הרפואה תגדל, כך יעלו מספר המקרים.
וזו רק סכנה אחת. בעידן בו הכל מחובר למחשב, וכל מחשב מחובר לרשת, והרשת מחוברת לכל מקום, ניתן לראות איך בינה מלאכותית הופכת לגורם דומיננטי שמסתובב ברשת ומנצל את משאביה, כמעט בלי שליטה. כך למשל, דווח לאחרונה כי שתי מערכות AI שתיקשרו אחת עם השניה החלו לפתח שפה משלהן שלא מוכרת לבני אנוש. במקרה אחר, נעשה שימוש בתוכנות חודרניות מבוססות בינה ששינו את הצורה שלהן באופן אוטונומי וחדרו למחשבים. בשוויץ רובוט אוטונומי רכש באמצעות פלטפורמת Agora סמים באופן עצמאי. הוא השתמש כמובן במטבעות ביטקוין. וישנן עוד דוגמאות רבות.
מאסק צודק שבינה מלאכותית מציבה אתגרים אתיים, משפטיים ופרקטים שלא ידענו כמותם. כך גם התופעה הנרחבת של Human Enhancement ועריכת גנים, ננו-טכנולוגיה, בלוקצ'יין, רובוטים, רכבים אוטונומיים ועוד. כל אלו מחייבים התייחסות של מקבלי החלטות ורגולטורים. הבעיה היא שטכנולוגיה מתפתחת בקצב מהיר, לעתים קרובות מהיר מדי בשביל הרגולטור. והסכנה טמונה בפער ההולך וגדל בין השניים. זו הסיבה שאמירה חד משמעית של חלוץ טכנולוגי כמו מאסק בפני מחוקקים, היא בעלת משמעות. מה יעשו עם זה הרגולטורים? נצטרך להמתין ולראות.
__________________________________________________________________
נכתב עלי ידי עו"ד רואי קידר, יועץ מיוחד בתחום למשרד יגאל ארנון ושות' ומרצה בקורס היבטים משפטיים ואתיים של טכנולוגיות העתיד בלשכת המהנדסים.
לפרטים על הקורס לחצו כאן