Los retos jurídicos y organizativos de la inteligencia artificial en ciberseguridad, a debate en la Universidad de Cádiz 17 abril 2026
La jornada, celebrada en el INDESS en el marco del proyecto PR2024-040, ha reunido a especialistas para analizar los riesgos y oportunidades del uso de estas tecnologías en el ámbito de la seguridad
La Universidad de Cádiz ha celebrado esta semana en el Salón de Actos del Instituto Universitario de Investigación para el Desarrollo Social Sostenible (INDESS) la jornada Inteligencia artificial y ciberseguridad: retos jurídicos y organizativos, una actividad organizada en el marco del proyecto de investigación PR2024-040. Esta iniciativa se centra en el desarrollo de normativas y herramientas basadas en inteligencia artificial para la detección y prevención de cibercrímenes en Andalucía.
La jornada ha contado con la participación de investigadores del Instituto Andaluz Interuniversitario de Criminología, bajo la dirección de la investigadora principal del proyecto, Mariana Solari Merlo. Junto a ella han intervenido Luis Ruiz Rodríguez, Antonio Díaz Fernández y Manuel Ruiz Morales, quienes han aportado distintas perspectivas sobre el uso de la inteligencia artificial en contextos vinculados a la seguridad y la ciberseguridad.
A lo largo de las diferentes intervenciones, se han abordado tanto experiencias prácticas como cuestiones relacionadas con la investigación prospectiva en este ámbito. En este sentido, los ponentes han analizado los principales retos que plantea la incorporación de sistemas de inteligencia artificial en los procesos de detección y prevención del cibercrimen, prestando especial atención a sus implicaciones jurídicas y organizativas.
Entre los aspectos destacados, el proyecto PR2024-040 ha permitido identificar diversos riesgos asociados al uso de estas tecnologías, especialmente en lo relativo a la vigilancia algorítmica, la opacidad de los sistemas y la posible reproducción de sesgos. Asimismo, se ha subrayado el impacto que estos factores pueden tener sobre las garantías del debido proceso penal, lo que plantea la necesidad de establecer marcos normativos adecuados que regulen su utilización.
Como resultado de este trabajo, los investigadores han desarrollado un marco conceptual orientado a delimitar las condiciones de legitimidad jurídica del uso de la inteligencia artificial en el ámbito de la ciberseguridad. Este enfoque pone el acento en la integración, desde la fase de diseño de los sistemas, de principios fundamentales como la legalidad, la proporcionalidad, la supervisión humana y la rendición de cuentas.
La jornada ha servido además como espacio de reflexión y debate sobre el futuro desarrollo normativo y organizativo de la inteligencia artificial aplicada a la seguridad. En este sentido, se ha puesto de relieve la importancia de avanzar hacia modelos que permitan compatibilizar la innovación tecnológica con el respeto a los principios del Estado de Derecho, garantizando así un uso responsable y ético de estas herramientas.
