מה זה LIME?
העלייה בשימוש במודלים של למידת מכונה ובינה מלאכותית ובעיקר מודלים “שחורים” כמו עצי החלטה עמוקים,
רשתות נוירונים ו-XGBoost יצרה צורך קריטי בהסברת התחזיות שלהם. כאן נכנס לתמונה אלגוריתם LIME
ראשי תיבות של Local Interpretable Model-agnostic Explanations.
LIME הוא כלי להסבר תחזיות של מודלים מורכבים על ידי בניית מודל פשוט (ליניארי לרוב) שמדמה את
התנהגות המודל המקורי באזור מקומי סביב תצפית מסוימת.
האלגוריתם מאפשר למשתמשים להבין למה מודל נתן תחזית מסוימת, גם אם המודל עצמו אינו ניתן לפירוש בקלות.
עקרונות פעולה של LIME
Local Fidelity – נאמנות מקומית
LIME אינו מנסה להסביר את המודל כולו, אלא רק את ההתנהגות באזור קרוב לדוגמה מסוימת.
לדוגמה, אם מודל חזה כי אדם מסוים חולה, LIME ינסה להסביר למה התחזית התקבלה עבור האדם הזה,
ולא מה גורם למחלה באופן כללי.
מודל פשוט להסבר
LIME בונה מודל פשוט כמו רגרסיה ליניארית או עץ החלטה קטן שמדמה את התנהגות המודל
הסבוך באזור המקומי בלבד.
Perturbation – שיבוש התצפית
כדי לאמן את המודל הפשוט, LIME יוצר נתוני דמה (perturbed samples) על ידי שיבוש תכונות הדוגמה המקורית.
לכל תצפית שיבוש כזו הוא מחשב תחזית מהמודל המקורי.
שקלול מרחקים
לכל אחת מהתצפיות ניתן משקל לפי הקרבה לתצפית המקורית כך שהמודל הפשוט יתאים בעיקר
לדאטה הדומה לדוגמה הנבדקת.
בחירת תכונות
LIME בוחר מספר מצומצם של תכונות משמעותיות, כדי להבטיח שההסבר יהיה קריא ולא עמוס בפרטים.
תהליך LIME
קלט: מודל ML, תצפית xxx שרוצים להסביר.
יצירת דגימות “שיבוש” על בסיס xxx.
חישוב תחזיות עבור כל שיבוש באמצעות המודל המקורי.
חישוב מרחקים של כל דגימה מ-xxx ושקלול בהתאם.
אימון מודל פרשנות פשוט (ליניארי).
הצגת משקל/תרומה של כל תכונה להסבר התחזית.
דוגמה מעשית של LIME
נניח שמודל סיווג רפואי קבע שחולה נמצא בסיכון גבוה לשבץ מוחי.
LIME יכול להראות כי ההחלטה התקבלה עקב שילוב של:
גיל מבוגר: +0.4
לחץ דם גבוה: +0.3
כולסטרול תקין: -0.2
BMI גבוה: +0.1
כך מקבל הרופא או המשתמש תובנה על הגורמים המרכזיים שהובילו להחלטה
גם אם המודל המקורי הוא “קופסה שחורה”.
יתרונות של LIME
| יתרון | הסבר |
| מודל־אגנוסטי | ניתן ליישום על כל מודל רשת נוירונים, SVM, Random Forest ועוד. |
| קריאות | הפלט ניתן לקריאה בקלות, גם על ידי לא-מומחים. |
| גמישות | ניתן ליישום על טקסט, תמונות, דאטה טבלאי. |
| מיקוד מקומי | מייצר הסבר רלוונטי לדוגמה אחת, לא למודל כולו. |
מגבלות של LIME
אי-יציבות: LIME מסתמך על יצירת דגימות אקראיות, כך שייתכן וההסבר ישתנה בין ריצות.
נאמנות חלקית: המודל הפשוט לא תמיד מדמה היטב את המודל המקורי גם באיזור מקומי.
תלות בהגדרות: בחירה של מרחק, סוג המודל הפשוט, ומספר תכונות משפיעים מאוד על ההסבר.
בעיית סקיילינג: ביצועים ירודים בדאטה עם מספר תכונות גבוה מאוד (curse of dimensionality).
יישומים נפוצים של LIME
רפואה: הסברת תחזיות של מודלים לאבחון מחלות.
פיננסים: ניתוח סיבת הדחייה או האישור של בקשות אשראי.
בקרת איכות: הבנת תקלות או תחזיות כשל.
מערכות המלצה: הסבר מדוע משתמש קיבל המלצה מסוימת.
השוואת LIME לכלים דומים
| כלי | שיטה | הסברים מקומיים | הסברים גלובליים | מודל־אגנוסטי |
| LIME | שיבוש ואמידה מקומית | ✅ | ❌ | ✅ |
| SHAP | תיאוריה קואופרטיבית (ערכי שפלי) | ✅ | ✅ | ✅ |
| Anchors | כללים אם-אז | ✅ | ❌ | ✅ |
| Feature Importance | מבוסס על המודל עצמו | ❌ | ✅ | ❌ |
שאלות ותשובות בנושא LIME
ש: האם ניתן להשתמש ב־LIME למודלים של NLP או תמונה?
ת: כן. עבור טקסטים, השיבוש נעשה על ידי הסרת מילים; עבור תמונות על ידי “האפלה” של אזורים.
ש: האם LIME מספק הסבר גלובלי על כל הדאטה?
ת: לא. מדובר באלגוריתם להסברים מקומיים בלבד. לקבלת תמונה כוללת עדיף להשתמש ב־SHAP או אנליזות אחרות.
ש: כיצד ניתן לוודא שההסבר של LIME אמין?
ת: רצוי להריץ מספר פעמים ולבחון עקביות. ניתן גם לבדוק את איכות ההתאמה של המודל המקומי (R², נאמנות מקומית).
ש: האם LIME מתאים לדאטה עם תכונות קטגוריאליות?
ת: כן. כל עוד המודל המקורי יודע להתמודד עם תכונות כאלה, LIME יתאים את שיבושי הנתונים בהתאם.

