Franco de la Peña, Manuel
Departamento de Ingeniería y Tecnología de Computadores, Facultad de Informática, Universidad de Murciamanuel.francop@um.es
https://webs.um.es/manuel.francop/miwiki/
Nace en Murcia en el año 2000. En 2023 obtiene los grados en Ingeniería Informática y Matemáticas por la Universidad de Murcia. A continuación cursa el Máster Universitario en Tecnologías de Análisis de Datos Masivos: Big Data en la Universidad de Murcia, obteniendo el título de máster en 2024. Ha sido beneficiario de una beca de colaboración del Ministerio en el año 2022. Desde 2023, disfruta de una beca asociada a proyectos europeos en el Cyberdatalab de la Universidad de Murcia. En el año 2025 obtiene una ayuda de la Fundación Séneca para la realización de la tesis doctoral en la Universidad de Murcia. Posee comunicaciones en congresos nacionales, como las X Jornadas Nacionales de Investigación en Ciberseguridad, así como publicaciones científicas en revistas de carácter internacional, entre ellas Future Generation Computer Systems. Domina el inglés y tiene conocimientos de alemán.
La presente tesis aborda el desarrollo de métodos de explicabilidad (xAI) y mitigación aplicados a modelos de detección de anomalías (AD) en entornos industriales, en el marco de la transición hacia la Industria 5.0. En estos escenarios, la proliferación de sensores y sistemas interconectados genera grandes volúmenes de datos que posibilitan la detección temprana de fallos y ataques, pero también plantean retos asociados a la transparencia, la interpretabilidad y la confianza operativa. A pesar del progreso de las técnicas de aprendizaje automático y profundo, su adopción en planta se ve limitada por la falta de conjuntos de datos industriales realistas, la opacidad de los modelos y la ausencia de entornos seguros para su validación y entrenamiento humano.
El trabajo propone un enfoque integral que combina un Cyber Range industrial de alta fidelidad con el diseño de nuevos métodos de xAI específicamente adaptados a sistemas ciberfísicos. Este entorno permite generar trazas realistas con etiquetado exhaustivo, reproducir condiciones normales y anómalas, e integrar modelos de AD junto con métodos de explicabilidad basados en atribución, relevancia temporal y ejemplos contrafactuales físicamente plausibles. La experimentación controlada en este contexto facilita la evaluación rigurosa de la coherencia física, la fidelidad explicativa y la utilidad operativa de las explicaciones, asegurando que las recomendaciones derivadas sean seguras y accionables bajo las restricciones del proceso industrial.
Como resultado, la tesis contribuye a cerrar el ciclo completo "alerta; explicación; decisión; acción", garantizando que cada predicción del modelo se traduzca en una respuesta verificable y segura. Además de los avances científicos en el campo de la xAI aplicada al dominio industrial, el trabajo ofrece a la industria una herramienta práctica para generar datos realistas, evaluar modelos y capacitar operarios sin comprometer la producción. Este enfoque impulsa la confianza en los sistemas inteligentes, reduce el riesgo operativo y favorece la transferencia efectiva de la inteligencia artificial explicable a entornos industriales reales.
Tecnologías de la información y de las comunicaciones
Cyberdatalab
Director: Ángel Luis Perales Gómez
Codirector: Lorenzo Fernández Maimó
Informática
En desarrollo