Admitámoslo, a todos nos gustaría saber si a nuestro modelo se le ha ido la bola. O al menos poder poner dar una explicación cuando se le va. Una de las herramientas más útiles para hacer esto es la explicabilidad local. Aunque no le pongas nombre seguramente hayas usado la explicabilidad global del modelo anteriormente, como el método "feature importance" de los árboles. La explicabilidad local sin embargo, nos da herramientas para entender una predicción, para saber qué características han influído más y sacar conclusiones respecto al resultado.
Para empezar, ¿de qué hablamos cuando hablamos de explicabilidad?
Además veremos que hay modelos que son explicables y otros que no. Esto quiere decir que hay modelos cuyas predicciones se pueden decomponer y otros que no.
Para estos últimos veremos herramientas, y como es la Pycon veremos librerías en Python, para aplicar algoritmos que nos den esta descomposición de las predicciones como SHAP o LIME.
Como bonus track hablaré de un paper escrito por Ángel Delgado y por mí que hace del Gradient Boosting un modelo explicable.
Al final de la charla espero que tengas las suficientes herramientas para aplicar explicabilidad local en tus modelos.