האליל החדש, הבינה המלאכותית – כבדהו וחשדהו / מאת ארנון אפרתי

בינה מלאכותית לא תוכל לומר לנו כיצד השוק עומד לקבל מוצר מהפכני כמו בשר מתורבת או סוג חדש של צמח תבלין שמעולם לא נוסה וטעמו שונה מכל מוצר אחר הנמצא בשוק. כמו הבינה האנושית, זו המלאכותית מבוססת על ההנחה ש"מה שהיה הוא מה שיהיה" וכשהמצב איננו כזה אנחנו עוברים לשדה של ניסוי וטעייה

ארנון אפרתי

מאת ארנון אפרתי

נכון לעכשיו, הבינה המלאכותית נהנית בישראל ובעולם מיחסי ציבור מעולים. העדר הידע והמודעות ליכולות הכלי החדשני, ליתרונותיו אך בעיקר למגבלותיו הופכים אותו לאליל החדש בתחומים רבים, החל בכלכלה תרבות, משפט, אומנות ואף ביחסים בינו לבינה.

הדבר מזכיר לא מעט את שהתרחש בעת שהשימוש במחשב הפך לנגיש ופופולארי. חברות, עסקים וארגונים החלו להוציא הודעות לתקשורת שהן החלו תהליכי מחשוב כאשר כל מה שעשו, במקרה הטוב, היה לבקש הצעת מחיר לקניית מחשב או תוכנה… מעטים מודעים לכך , נכון לעכשיו, שהבינה המלאכותית, בדומה לבינה האנושית, אינה חסינה מטעויות והטעיות וכמובן אינה מהווה פתרון קסם לכל הבעיות.

העדר הידע וההבנה לדרך בה פועלת הבינה המלאכותית מביא לכך שנמתחת כנגדה ביקורת, חלקה במאמרים אקדמיים מלומדים, על כך שהיא תומכת ומייצרת אפליה מגדרית וגזעית ואפילו מנציחה את קיומה. במידה מסוימת אפשר לראות בביקורת הנמתחת הוכחה להצלחת הטכנולוגיה. אנחנו מתייחסים לבינה המלאכותית כמו לבינה האנושית ובתור שכזו אנחנו מבקרים אותה ומתאכזבים ממגבלותיה.

כדי להבטיח התייחסות נכונה לבינה המלאכותית על יתרונותיה ומגבלותיה, אנחנו חייבים להבין שהמודלים שהיא מייצרת, ושנועדו ללמוד ולהבין את העולם סביבנו, נשענים על כמויות אדירות של נתונים אמפיריים וזהו גם מקור כוחה. בה במידה אנחנו צריכים לזכור שהנתונים הללו משקפים את המציאות הקיימת, על כל הטיותיה, העוולות והעיוותים שלה. כתוצאה מכך, המודלים הלומדים על בסיס נתונים אלה נוטים לשחזר את אותם דפוסים, ולפעמים אף להחריף אותם.

חשוב גם להבין שמודלים של בינה מלאכותית הם בדרך כלל, מה שנקרא “קופסה שחורה” – המודלים המיוצרים הם בלתי ניתנים להבנה כך שאין לנו אפשרות לנסות ולהתחקות אחרי אופן פעולתם. ניסיון כזה להסבר הוא אחד המנגנונים המשמשים אותנו להבין תופעות שונות והעדרו במודלים של בינה מלאכותית גורם לנו לא פעם לקשיים ולחוסר נוחות.

הטיה אלגוריתמית: מראה של המציאות

הטיה אלגוריתמית היא תופעה שבה מערכת בינה מלאכותית מייצרת תוצאות המפלות קבוצות מסוימות, כמו נשים, מיעוטים או קבוצות חברתיות אחרות. הסיבה לכך היא שהמודל למד על נתונים היסטוריים שבהם קבוצות אלה היו מיוצגות באופן לא הוגן, או שהיו קיימות בהן הטיות מובנות.

דוגמה בולטת לכך היא מערכות בינה מלאכותית המשמשות לגיוס עובדים. מערכות אלה, הלומדות על בסיס קורות חיים של מועמדים שכבר הועסקו בעבר, נוטות לחפש מועמדים בעלי מאפיינים דומים לאלה שכבר עובדים בחברה. אם החברה מורכבת נניח בעיקר מגברים לבנים, שהצליחו בתפקידם בעבר, המערכת תטה להעדיף מועמדים מאותם רקעים, גם אם קיימים מועמדים מוכשרים יותר מקבוצות אחרות. ברור גם שאם בעבר בחברה כיהנו בהצלחה אנשים בעלי ניסיון או השכלה מסוימים, המודל ייתן ייצוג יתר לבעלי רקע שכזה.

אין לה, לבינה המלאכותית, יותר ממה שמונח לפניה וכך למשל, הבינה המלאכותית לא תדע לגלות שלחרדים או לאלה שהיו חרדים ולמדו גמרא יש יתרונות בולטים בפיתוח תוכנות – פשוט מכיוון שנכון לרגע זה אין מספיק בני נוער חרדים שעשו את המסלול מהישיבה לחברות הייטק ומאפשרים להוכיח את הטענה. כך גם ספק אם הבינה המלאכותית תדע לזהות שלמשפטנים, שחלקם הגדול בעלי יכולת מרשימות בתחום הכתיבה המשפטית, יש גם יכולות עיתונאיות נהדרות.

מאותם שיקולים  בעולם הביטוח, בינה מלאכותית יכולה להיות כלי מצוין לחיזוי סיכונים בתחומים כמו גניבות רכב או שריפה, אבל צפוי שהיא תיכשל בתחומים הקשורים למשבר האקלים (מדובר באירוע יחיד מסוגו אין לנו די נתוני עבר לעשות בהם שימוש) או סיכוני מלחמה.

בינה מלאכותית גם לא תוכל לומר לנו כיצד השוק עומד לקבל מוצר מהפכני כמו בשר מתורבת או סוג חדש של צמח תבלין שמעולם לא נוסה וטעמו שונה מכל מוצר אחר הנמצא בשוק. בינה מלאכותית, כמו הבינה האנושית, מבוססת על ההנחה ש”מה שהיה הוא מה שיהיה” וכשהמצב איננו כזה אנחנו עוברים לשדה של ניסוי וטעייה.

האתגר של שינוי

השאלה המתבקשת היא כיצד ניתן לתקן את ההטיות הללו? התשובה אינה פשוטה. שינוי של המודל, כך שיתייחס באופן שווה יותר לכל הקבוצות, דורש שינוי גם בנתונים שעליהם הוא מתבסס. אך שינוי הנתונים מעלה שאלות קשות:

* איזה מצב אמיתי אנחנו רוצים לשקף? האם ננסה ליצור מצב אידיאלי, שבו כל הקבוצות מיוצגות באופן שווה? או שננסה לשקף את המציאות, תוך ניסיון לצמצם את ההטיות הקיימות?

*כיצד נבטיח שהשינויים שאנו מבצעים בנתונים אינם יוצרים הטיות חדשות? כל שינוי בנתונים, גם אם הוא נעשה בתום לב, עלול להוביל לתוצאות בלתי צפויות ולהחריף את הבעיה במקום לפתור אותה. שינוי הנתונים מהווה בעצמו הטיה, אם ננסה לדוגמה לתת העדפה לנשים או למבוגרים מתוך מטרה להילחם בגילנות או באפליה מגדרית הרי שבהעדר נתונים אמפיריים עולה השאלה האם העדפות אלה אכן משרתות את טובת החברה. ברור הרי שמטרתה הראשונה של חברה מסחרית היא הצלחה כלכלית ולא השגת יעדים חברתיים או חתירה אל יעדים של צדק ומוסר.

* מהי הדרך הנכונה לבחון את ההשפעה של השינויים? כיצד נוכל לדעת אם המודל החדש פחות מוטה מהמודל הקודם? צריך לזכור שכל שינוי שנעשה, לדוגמה בתחום כוח האדם, יבוא לידי ביטוי בעוד מספר שנים ומובן שחברה מסחרית תהסס לקחת על עצמה סיכונים מיותרים.

הצורך בגישה רב-תחומית

פתרון הבעיה של הטיות בבינה מלאכותית דורש גישה רב-תחומית, המשלבת ידע מתחומי המחשבים, הסטטיסטיקה, הפילוסופיה והחברה. על המפתחים לשתף פעולה עם חוקרים מתחומים אלה, כדי לפתח כלים ושיטות יעילות לזיהוי והפחתה של הטיות. כמו כן, יש צורך במודעות ציבורית גבוהה לבעיה, כדי להבטיח שפיתוח המודלים ייעשה באופן אחראי ואתי.

במקביל לשימוש במודלים של בינה מלאכותית, שיש להם יתרון עצום במהירות המיון ובקביעת סטנדרטים אחידים, חשוב להקפיד על שילוב טכניקות מסורתיות כמו ראיון והערכה אישית, בייחוד בשלבים המתקדמים יותר, על מנת להבטיח שלא החמצנו מועמדים מבטיחים אבל לא “סטנדרטיים” ושלא התעלמנו מסימני אזהרה אצל מועמדים שההתאמה שלהם היא רק “על הנייר” ועל בסיס הנתונים הפורמליים נראית מושלמת.


הכותב הוא מהנדס ויזם הייטק

  • הכתבה פורסמה לראשונה בפוליסה, עיתון הביטוח, הפנסיה והפיננסים

 

Be the first to comment

Leave a Reply

כתובת האימייל שלך לא תפורסם


*