En los últimos años las redes neuronales artificiales (ANN) se han posicionado como el modelo favorito en muchos campos de aplicación de la inteligencia artificial, debido a su capacidad para desempeñarse muy bien en diferentes tareas complejas, como el reconocimiento de imágenes o el procesamiento de lenguaje natural.
Sin embargo, las ANN se consideran un modelo bastante oscuro, lo que significa que comprender las características específicas que el modelo tomó en cuenta para decidir no es una tarea trivial.
La comprensión humana del modelo es crucial en campos como la medicina, la evaluación de riesgos o la detección de intrusos en los que no es aceptable tratarlo como una caja negra.
Desde el punto de vista de la explicación de la razón de un resultado, un tema importante de las ANN, es que carecen de una caracterización explícita y constructiva de su estrategia de toma de decisiones.
Esta limitación de las capacidades explicativas de las ANN motiva la investigación científica en el área de la inteligencia artificial explicable, con el objetivo de extraer automáticamente representaciones que expliquen, de manera accesible para los humanos, las decisiones de las ANN.
-
Integrantes
El equipo está integrado por académicos con dedicación específica a la investigación y estudiantes de grado y postgrado que participan en proyectos de investigación.
-
Líneas de investigación
El interés del grupo se centra en el estudio de las redes neuronales artificiales entrenadas para resolver problemas de clasificación.
-
Publicaciones
Artículos publicados por los integrantes del grupo en conferencias y en publicaciones arbitradas.
-
Proyectos
El grupo realiza proyectos de investigación de importancia para el sector y con apoyo de diferentes instituciones.