¡Oferta!

Compliance y ciberseguridad: Guía para la empresa (prevención y resiliencia)

El precio original era: 63,44 €.El precio actual es: 60,27 €. IVA incluido

Obligaciones legales, gestión del riesgo y ciberresiliencia para proteger datos, sistemas y continuidad de negocio / Liderando la próxima generación de ciberseguridad

La obra «Compliance y ciberseguridad: Guía para la empresa» analiza la profunda transformación de la ciberseguridad en el horizonte 2026, consolidándola como un desafío estratégico, jurídico y de diseño organizativo ineludible. Bajo la exigente presión regulatoria de la Directiva NIS2, el Reglamento de Inteligencia Artificial (AI Act), DORA y el Esquema Nacional de Seguridad (ENS), el riesgo digital pasa a ser un vector de imputación directa a la alta dirección. A través de paradigmas avanzados como la Identidad Operativa, arquitecturas Zero Trust y modelos de supervisión algorítmica, este manual ofrece un marco estructural riguroso para gobernar identidades artificiales y garantizar la resiliencia corporativa.

SKU: 9788410858527 Categoría: Etiquetas: ,

Descripción

En la actual era de la hiperautomatización y la inteligencia artificial, la ciberseguridad ha superado definitivamente el clásico enfoque técnico-perimetral para convertirse en un pilar esencial del gobierno corporativo. El colapso de la confianza implícita y la disolución de las fronteras físicas en los sistemas de información obligan a las empresas y administraciones públicas a replantear sus arquitecturas de defensa y control bajo un escrutinio normativo sin precedentes, impulsado por regulaciones europeas críticas como la Directiva NIS2 o el Reglamento de Inteligencia Artificial.

Este tratado examina de manera sistemática y exhaustiva cómo articular jurídicamente la responsabilidad en entornos digitalizados donde interactúan agentes humanos y sistemas de inteligencia artificial autónomos. Estructurado en seis partes, desglosa desde los fundamentos normativos y la evolución del rol del responsable de seguridad (CISO), hasta las arquitecturas operativas de blindaje jurídico, pasando por la gestión de cibercrisis, el aprendizaje organizativo posfallo y la soberanía de los datos.

Como principal aportación original, la obra introduce el marco de gobernanza indispensable para controlar la autonomía algorítmica y las identidades artificiales mediante mecanismos reales como la supervisión humana significativa y los protocolos de desconexión inmediata (kill-switches). Asimismo, propone el innovador sistema de «Iconografía HMC» para radicalizar la transparencia en las decisiones automatizadas, estableciendo un puente operativo entre el cumplimiento documental clásico y la verificación técnica continua apoyada en arquitecturas Zero Trust.

Se consolida así como una herramienta de primer nivel e imprescindible para directivos, responsables de cumplimiento (compliance officers), delegados de protección de datos, directores de seguridad de la información (CISO) y asesores jurídicos. Proporciona una hoja de ruta práctica, técnica e incontestable para diseñar sistemas resilientes, proteger los activos críticos y demostrar una diligencia debida inquebrantable frente a auditorías, inspecciones y eventuales responsabilidades legales o administrativas.

Información adicional

Subtítulo

Obligaciones legales, gestión del riesgo y ciberresiliencia para proteger datos, sistemas y continuidad de negocio / Liderando la próxima generación de ciberseguridad

Autor

Gorka Arroyuelos Gorostiza

Editorial

Edición

2026

Páginas

500

  1. EL AUTOR. UN ARQUITECTO DE RESILIENCIA EN LA ERA DE LA IA
  2. TRANSPARENCIA METODOLÓGICA Y AUTORÍA. SISTEMA DE ICONOGRAFÍA HMC (HUMAN-MACHINE COLLABORATION)
  3. PRÓLOGO
  4. PREFACIO DEL AUTOR. GOBERNAR LA TECNOLOGÍA CUANDO LA RESPONSABILIDAD NO ES DELEGABLE
  5. PARTE I: FUNDAMENTOS NORMATIVOS DEL NUEVO PARADIGMA
    1. CAPÍTULO 1: INTRODUCCIÓN Y GOBERNANZA ESTRATÉGICA DE LA CIBERSEGURIDAD
      1. 1.1. Políticas generales de seguridad y procedimientos
        1. 1.1.1. La Directiva NIS2 como obligación estructural de gobernanza del riesgo digital
        2. 1.1.2. El Reglamento de Inteligencia Artificial (AI Act) y la tensión regulatoria de los sistemas autónomos
        3. 1.1.3. El Data Act. Soberanía, interoperabilidad y acceso de terceros
      2. 1.2. Zero Trust como respuesta arquitectónica a la insuficiencia regulatoria y técnica
      3. 1.3. El marco estratégico del CISO moderno. Más allá de los controles técnicos
      4. 1.4. El CISO como directivo. Responsabilidad, imputación y límites en la gobernanza del riesgo digital
      5. 1.5. La síntesis del escudo. Hacia una arquitectura de gobernanza integrada
      6. 1.6. Contexto operativo
        1. 1.6.1. La genealogía del consenso y los principios de confiabilidad. Hacia una ontología de la IA pública
        2. 1.6.2. Traducción operativa. La transmutación de la norma en arquitectura de control
        3. 1.6.3. El CISO como traductor institucional y garante de la soberanía
        4. 1.6.4. La transición hacia el rigor metodológico. El diseño como respuesta a la incertidumbre
      7. 1.7. Marco metodológico
        1. 1.7.1. Enfoque epistemológico. realismo jurídico-tecnológico
        2. 1.7.2. Frameworks de gobernanza y arquitecturas IAM
        3. 1.7.3. Estrategia de investigación. El ciclo de validación de la soberanía
      8. Key takeaways de la Parte I
      9. Glosario síntesis interseccional
      10. Transición a Parte II
  6. PARTE II: LA EVOLUCIÓN DEL ROL DEL CISO Y LA EMERGENCIA DE LAS IDENTIDADES ARTIFICIALES
    1. CAPÍTULO 2: LA EVOLUCIÓN DEL ROL DEL CISO
      1. 2.1. Ciclo de vida técnico
      2. 2.2. El nexo de la responsabilidad
      3. 2.3. Emergencia de las identidades artificiales
      4. 2.4. Gobernanza de identidades artificiales. Imputación jurídica y responsabilidad del CISO
      5. 2.5. Imputación jurídica y responsabilidad administrativa en entornos con identidades artificiales
      6. 2.6. Identidad consciente de la privacidad (Privacy-Aware Identity)
      7. 2.7. Riesgos democráticos y organizativos de las identidades artificiales
      8. 2.8. De la identidad como acceso a la identidad como poder
    2. CAPÍTULO 3: IDENTIDAD DIGITAL, AGENTES DE IA Y NUEVOS MODELOS DE RESPONSABILIDAD
      1. 3.1. De la identidad digital clásica a la identidad operativa
        1. 3.1.1. Identidad, acción y poder en entornos digitales
        2. 3.1.2. El desbordamiento del modelo IAM tradicional
        3. 3.1.3. Identidades técnicas y responsabilidad difusa
        4. 3.1.4. Hacia una concepción ampliada de la identidad
      2. 3.2. El nacimiento de los agentes de IA como sujetos operativos
        1. 3.2.1. De la automatización clásica a la agencia algorítmica
        2. 3.2.2. Opacidad decisional e indefensión ante el cumplimiento
        3. 3.2.3. Comportamientos emergentes y el radio de explosión
        4. 3.2.4. La ilusión de control y la abdicación de la supervisión
        5. 3.2.5. De la herramienta al actor regulado
      3. 3.3. Identidades artificiales. Definición, tipología y riesgos
        1. 3.3.1. La identidad como vector de escalada de privilegios autónoma
        2. 3.3.2. El secuestro de la identidad artificial y la manipulación del propósito
        3. 3.3.3. Volatilidad y pérdida de la trazabilidad de responsabilidad
        4. 3.3.4. Riesgos y trazabilidad. El colapso de la confianza implícita
      4. 3.4. El vacío de cumplimiento. NIS2, AI Act y la crisis de la evidencia
        1. 3.4.1. La insuficiencia del log tradicional ante la NIS2
        2. 3.4.2. El mito de la supervisión humana en el AI Act
        3. 3.4.3. La crisis de la evidencia y la carga de la prueba
      5. 3.5. Gobernanza de identidades en el sector público europeo
        1. 3.5.1. El ENS y la identidad como arquitectura de legalidad
        2. 3.5.2. NIS2 y eIDAS2. La soberanía frente al riesgo sistémico
        3. 3.5.3. Zero Trust como modelo de integridad institucional
        4. 3.5.4. Gobernar identidades es gobernar legitimidad
      6. 3.6. Identidad consciente de la privacidad (Privacy-Aware Identity)
        1. 3.6.1. El poder informacional y la protección desde el diseño
        2. 3.6.2. Minimización, transparencia y separación de contextos
        3. 3.6.3. Trazabilidad proporcionada y calidad institucional
        4. 3.6.4. La transparencia y la trazabilidad como activos estratégicos
      7. 3.7. Identidad, poder y legitimidad en la administración digital
        1. 3.7.1. La delegación de autoridad y el control del riesgo
        2. 3.7.2. Contra la despersonalización. Rendición de cuentas y soberanía corporativa
        3. 3.7.3. Identidad, confianza y rendición de cuentas
        4. 3.7.4. La responsabilidad como eje de la soberanía
      8. 3.8. Identidad consciente de la privacidad
        1. 3.8.1. Fundamento conceptual y ruptura paradigmática
        2. 3.8.2. Arquitectura técnico-normativa de componentes
        3. 3.8.3. Validación mediante caso de uso técnico
        4. 3.8.4. Proyección de impacto y transferibilidad
        5. 3.8.5. Conclusiones y agenda futura
      9. Key takeaways de la Parte II
      10. Glosario síntesis interseccional
      11. Transición a Parte III
  7. PARTE III: ARQUITECTURAS OPERATIVAS, BLINDAJE JURÍDICO-INSTITUCIONAL Y SOBERANÍA DIGITAL
    1. CAPÍTULO 4: CÓMO BLINDAR AL CONSEJO (Y A TI MISMO) ANTE NIS2 Y DORA
      1. 4.1. Filosofía Zero Trust como doctrina jurídico-técnica
        1. 4.1.1. La integración de la firma electrónica cualificada en el flujo Zero Trust
        2. 4.1.2. El conflicto entre interoperabilidad y desconfianza
        3. 4.1.3. Análisis forense en entornos de confianza cero
        4. 4.1.4. Zero Trust como doctrina
      2. 4.2. Obligaciones NIS2 para administraciones públicas
        1. 4.2.1. Análisis de riesgos y seguridad de sistemas de información
        2. 4.2.2. Gestión de incidentes de ciberseguridad
        3. 4.2.3. Continuidad operativa y gestión de crisis
        4. 4.2.4. Seguridad de la cadena de suministro de tecnologías de la información y comunicación
        5. 4.2.5. Controles técnicos fundamentales de ciberseguridad
        6. 4.2.6. Gobernanza, supervisión directiva y formación en ciberseguridad
      3. 4.3. DORA. Resiliencia operativa digital en sector financiero y extensibilidad a administraciones públicas
        1. 4.3.1. DORA como laboratorio regulatorio de supervisión intensiva
        2. 4.3.2. Los cinco pilares arquitectónicos de resiliencia operativa bajo DORA
        3. 4.3.3. Extensibilidad de principios DORA a administraciones públicas
        4. 4.3.4. Aplicabilidad específica a entidades financieras públicas
      4. 4.4. Síntesis arquitectónica de blindaje institucional
        1. 4.4.1. Del cumplimiento fragmentado a la arquitectura integrada
        2. 4.4.2. Mapeo de convergencias normativas
        3. 4.4.3. Arquitectura técnica de referencia para blindaje institucional
        4. 4.4.4. Roadmap de implementación gradual
      5. 4.5. Arquitectura de blindaje institucional bajo NIS2/DORA/ENS
    2. CAPÍTULO 5: LA GRADUACIÓN DE LA AUTONOMÍA
      1. 5.1. La automatización como desafío a la imputabilidad clásica
      2. 5.2. Taxonomía operativa de niveles de autonomía algorítmica
        1. 5.2.1. Nivel 0. Sin automatización
        2. 5.2.2. Nivel 1. Asistencia informacional
        3. 5.2.3. Nivel 2. Recomendación automatizada
        4. 5.2.4. Nivel 3. Automatización supervisada
        5. 5.2.5. Nivel 4. Automatización autónoma con aprendizaje continuo
        6. 5.2.6. Nivel 5. Autonomía general (AGI): prohibido
        7. 5.2.7. Tabla comparativa de los cinco niveles
        8. 5.2.8. Árbol de decisión para clasificación de sistemas
        9. 5.2.9. Casos frontera y resolución
        10. 5.2.10. Conclusión de Sección 5.2.
      3. 5.3. Régimen de responsabilidad administrativa por nivel de autonomía
        1. 5.3.1. Responsabilidad en Nivel 1. Asistencia informacional
        2. 5.3.2. Responsabilidad en Nivel 2. Recomendación automatizada
        3. 5.3.3. Responsabilidad en Nivel 3. Automatización supervisada
        4. 5.3.4. Responsabilidad en Nivel 4. Automatización autónoma con aprendizaje
        5. 5.3.5. Tabla de responsabilidad por nivel
        6. 5.3.6. Principios transversales de responsabilidad
        7. 5.3.7. Conclusión de Sección 5.3.
      4. 5.4. Validación de la taxonomía mediante casos ilustrativos
        1. 5.4.1. Caso 1: Sistema VioGén – Nivel 2 (Recomendación automatizada)
        2. 5.4.2. Caso 2: Sistema de asignación de plazas escolares – Nivel 3 (Automatización supervisada)
        3. 5.4.3. Conclusión de Sección 5.4.
      5. 5.5. Automatización algorítmica y principios constitucionales de buena administración
        1. 5.5.1. Tensión 1: Eficacia administrativa versus supervisión humana exhaustiva
        2. 5.5.2. Tensión 2: Imparcialidad y objetividad versus sesgos algorítmicos
        3. 5.5.3. Tensión 3: Seguridad jurídica versus aprendizaje continuo
        4. 5.5.4. Tensión 4: Tutela judicial efectiva versus opacidad algorítmica
        5. 5.5.5. Conclusión de sección 5.5.
      6. 5.6. Hacia una ley de transparencia algorítmica. La iconografía HMC como estándar de evidencia en el sector público español
        1. 5.6.1. Insuficiencia del marco actual. El vacío de comunicación al ciudadano
        2. 5.6.2. El sistema de iconografía HMC. Del estándar Dubai al derecho español
        3. 5.6.3. Propuesta de reforma legislativa. Nuevo artículo 41bis de la Ley 39/2015
        4. 5.6.4. Techos de automatización por tipo de trámite
        5. 5.6.5. Implementación y verificación. El rol de AESIA
        6. 5.6.6. Sinergia iconografía HMC y arquitectura X-FAIT
    3. CAPÍTULO 6: SOBERANÍA DIGITAL Y GOBERNANZA DE DATOS. EL PATRIMONIO DE LA ADMINISTRACIÓN EN LA ERA DE LA IA
      1. 6.1. La Reconceptualización de la Soberanía en el Espacio de Datos Europeo
      2. 6.2. Arquitecturas de Datos Soberanas. Del Cloud Centralizado al Edge Administrativo
        1. 6.2.1. Tipología de entornos de datos en la Administración
        2. 6.2.2. La nube pública global: eficiencia a costa de soberanía condicional
        3. 6.2.3. El cloud soberano europeo como compromiso estructural
        4. 6.2.4. El edge administrativo como garantía última de proximidad y control
        5. 6.2.5. Matriz comparativa: on-prem, nube global, cloud soberano y edge administrativo
      3. 6.3. Gobernanza de datos explotables por IA. Calidad, integridad y propiedad intelectual
        1. 6.3.1. Calidad de los datos: métricas operativas para IA pública
        2. 6.3.2. Integridad de datos: linaje y controles de transformación
        3. 6.3.3. Propiedad intelectual: el conocimiento institucional como activo crítico
      4. 6.4. El anclaje de supervivencia. Resiliencia de datos ante ataques de envenenamiento (Adversarial AI)
        1. 6.4.1. Taxonomía operativa de ataques adversariales a datos
        2. 6.4.2. Arquitectura del anclaje de supervivencia
      5. 6.5. Ética de los datos y el derecho a la explicabilidad
        1. 6.5.1. Explicabilidad técnica vs. explicabilidad jurídica
        2. 6.5.2. Protocolos de explicabilidad por diseño
      6. Key takeaways de la Parte III
      7. Glosario síntesis interseccional
      8. Transición a Parte IV
  8. PARTE IV: GESTIÓN DE CIBERCRISIS, RESILIENCIA INSTITUCIONAL Y APRENDIZAJE POSFALLO
    1. CAPÍTULO 7: GESTIÓN DE CIBERCRISIS Y GOBERNANZA EN ESCENARIOS DE ALTA PRESIÓN
      1. PARTE A: ARQUITECTURA DE LA RESPUESTA INSTITUCIONAL
        1. 7.1. Crisis y Cibercrisis. Delimitación conceptual y consecuencias jurídicas
        2. 7.2. Modelos de Gestión Escalonada. Bronze, Silver y Gold
          1. 7.2.1. Nivel Bronze. Táctica de integridad y verdad forense
          2. 7.2.2. Nivel Silver. Coordinación de Riesgos de Compliance
          3. 7.2.3. Nivel Gold. Soberanía decisional y responsabilidad política
        3. 7.3. La dimensión humana. sesgos cognitivos y el control efectivo
        4. 7.4. Velocidad, automatización y el límite humano
      2. PARTE B: GOBERNANZA EN EL MOMENTO DE LA VERDAD
        1. 7.5. Cuando la seguridad falla. La auditoría de la soberanía
        2. 7.6. Supervisores, autoridades y el nuevo ecosistema de control
        3. 7.7. Comunicación en crisis. Entre la transparencia y el pánico
        4. 7.8. Errores fatales y crisis de legitimidad
        5. 7.9. Aprendizaje Institucional y Memoria del Error. La Inmunidad del Sistema
      3. Key takeaways de la Parte IV
      4. Glosario síntesis interseccional
      5. Transición a Parte V
  9. PARTE V: GOBERNANZA EN INCERTIDUMBRE PERMANENTE Y SOBERANÍA DEL MANDO ALGORÍTMICO
    1. CAPÍTULO 8: GOBERNAR LA CIBERSEGURIDAD EN 2026. LIDERAZGO, RIESGO Y ACCIÓN RESPONSABLE
      1. 8.1. Del control perimetral a la arquitectura del privilegio
        1. 8.1.1. Del gestor técnico al garante institucional
        2. 8.1.2. La traducción del riesgo técnico en valor estratégico
        3. 8.1.3. El CISO como facilitador de la responsabilidad directiva
        4. 8.1.4. La legitimidad como frontera final
      2. 8.2. Gestión del riesgo en entornos automatizados y algorítmicos
        1. 8.2.1. El desplazamiento hacia el riesgo algorítmico y de identidad
        2. 8.2.2. El riesgo de imputación y el marco regulatorio europeo
        3. 8.2.3. Del análisis estático al control continuo y gobernable
      3. 8.3. Gobernanza operativa de agentes de inteligencia artificial
        1. 8.3.1. La Identidad Artificial como anclaje de control y supervisión
        2. 8.3.2. Sincronía con el AI Act y el ENS. Evitar las islas de automatización
        3. 8.3.3. Contra la ilusión de control. Responsabilidad y resiliencia
      4. 8.4. Arquitecturas de identidad resilientes y el modelo Zero Trust
        1. 8.4.1. La identidad como frontera dinámica y especializada
        2. 8.4.2. Zero Trust. Verificación continua y control de contexto
        3. 8.4.3. Zero Trust como principio de desconfianza estructural
        4. 8.4.4. Identidad, contexto y control continuo
        5. 8.4.5. Resiliencia como capacidad de contención y cumplimiento
      5. 8.5. Resiliencia organizativa y toma de decisiones bajo presión
        1. 8.5.1. La resiliencia como capacidad de decisión, no solo de recuperación
        2. 8.5.2. El piloto automático institucional y la revocación del mandato
        3. 8.5.3. El CISO como intérprete de la agencia algorítmica
        4. 8.5.4. Coherencia, legitimidad y la arquitectura de la evidencia
      6. 8.6. Hoja de ruta para organizaciones públicas europeas
        1. 8.6.1. De la conformidad normativa a la capacidad institucional
        2. 8.6.2. Integración de la gobernanza de IA en el núcleo de la ciberseguridad
        3. 8.6.3. La identidad como infraestructura de fe pública
        4. 8.6.4. Liderazgo público y gestión del cambio
        5. 8.6.5. Una hoja de ruta evolutiva hacia la Arquitectura de la Evidencia
      7. 8.7. Gobernar la complejidad. Ciberseguridad, inteligencia artificial y legitimidad democrática
      8. 8.8. Epílogo. ¿Quién gobierna cuando gobiernan los sistemas?
    2. CAPÍTULO 9: EL FUTURO DE LA CIBERSEGURIDAD. GOBERNAR SISTEMAS QUE YA NO CONTROLAMOS DEL TODO
      1. 9.1. De la seguridad como función a la seguridad como sistema de gobierno
      2. 9.2. Europa ante el dilema de la automatización soberana
      3. 9.3. El nuevo contrato institucional. Ciudadanos, algoritmos y responsabilidad
      4. 9.4. El CISO y la alta dirección como arquitectos de confianza
      5. 9.5. Gobernar en incertidumbre permanente. El realismo estratégico de la ciberseguridad
      6. 9.6. Anclajes de supervivencia para una ciberseguridad legítima
        1. 9.6.1. Responsabilidad indelegable en la toma de decisiones digitales
        2. 9.6.2. La trazabilidad como presupuesto de explicabilidad y rendición de cuentas
        3. 9.6.3. El control humano significativo en los puntos de no retorno
        4. 9.6.4. La identidad gobernada como base de imputación jurídica
        5. 9.6.5. Transparencia operativa compatible con la seguridad
        6. 9.6.6. Capacidad institucional de aprendizaje tras el fallo
      7. Key takeaways de la Parte V
      8. Glosario síntesis interseccional
  10. PARTE VI: ANEXOS
    1. 1. Doctrina
      1. 1.1. Glosario completo
      2. 1.2. Referencias bibliográficas
    2. TABLA DE ABREVIATURAS
  • Ilustración 1. Flujo de responsabilidad NIS2.
  • Ilustración 2. Para operar bajo el Reglamento, es vital entender que no todos los sistemas exigen la misma diligencia.
  • Ilustración 3. Diagrama de Síntesis Interseccional.
  • Ilustración 4. Comparativa confianza implícita Vs Verificación continua.
  • Ilustración 5. La ciberseguridad ya no es un silo técnico. El Radar de Convergencia ilustra cómo la responsabilidad directiva nace de la intersección inevitable de estas tres corrientes normativas.
  • Ilustración 6. Modelo de Gobernanza de la IA en la Administración Pública.
  • Tabla 1. Convergencia normativa NIS2, AI Act y ENS en la gobernanza de identidades artificiales.
  • Tabla 2. Diagrama de flujo de imputación jurídico-técnica (X-FAIT).
  • Tabla 3. Aceptación ciudadana de IA por tipo de decisión y nivel de autonomía.
  • Tabla 4. Pipeline de procesamiento en las cinco fases.
  • Tabla 5. Componente arquitectónico sin ZKP.
  • Tabla 6. Componente arquitectónico con ZKP.
  • Tabla 7. Sistema de inteligencia sin DP.
  • Tabla 8. Sistema de inteligencia con DP.
  • Tabla 9. Arquitectura Pai.
  • Tabla 10. Flujo integrado end-to-end.
  • Tabla 11. Flujo de datos en arquitectura tradicional.
  • Tabla 12. Solicitud Inicial sin datos sensibles.
  • Tabla 13. Orquestación con ZKP.
  • Tabla 14. Sellado en blockchain.
  • Tabla 15. Notificación y estadísticas con DP.
  • Tabla 16. Arquitectura de interpretabilidad estratificada.
  • Tabla 17. Normativa. Distribución de responsabilidades.
  • Tabla 18. Gestión de incidentes de ciberseguridad. Distribución de responsabilidades.
  • Tabla 19. Continuidad operativa y gestión de crisis. Distribución de responsabilidades.
  • Tabla 20. Seguridad de la cadena de suministro de tecnologías de la información y comunicación. Distribución de responsabilidades.
  • Tabla 21. Controles técnicos fundamentales de ciberseguridad. Distribución de responsabilidades.
  • Tabla 22. Gobernanza, supervisión directiva y formación en ciberseguridad. Distribución de responsabilidades.
  • Tabla 23. Evidencia de cumplimiento. Distribución de responsabilidades.
  • Tabla 24. Dimensión. Controles técnicos fundamentales.
  • Tabla 25. Dimensión 2. Procesos organizativos críticos.
  • Tabla 26. Dimensión 3. Gobernanza y supervisión directiva.
  • Tabla 27. Dimensión 4. Arquitectura ZTA como doctrina.
  • Tabla 28. Dimensión 5. Plazos y umbrales críticos.
  • Tabla 29. Dimensión 6. Convergencias y divergencias normativas.
  • Tabla 30. Tabla de los cinco niveles.
  • Tabla 31. Árbol de decisión para clasificación de sistemas.
  • Tabla 32. Responsabilidad por nivel.
  • Tabla 33. Diferencias operativas por niveles de autonomía.
  • Tabla 34. Tabla de tensiones y principios de resolución.
  • Tabla 35. Niveles HMC.
  • Tabla 36. Arquitectura de techos de automatización por tipo de trámite.
  • Tabla 37. Actuaciones administrativas automatizadas (Ley 39/2015) con el modelo propuesto de iconografía HMC.
  • Tabla 38. Matriz comparativa on-prem, nube global, cloud soberano y edge administrativo.
  • Tabla 39. Taxonomía operativa de ataques a datos.
  • Tabla 40. Ética de los datos y el derecho a la explicabilidad.
  • Tabla 41. Matriz de niveles de respuesta y atribución de responsabilidad dual.
  • Tabla 42. Europa ante el dilema de la automatización soberana.
  • Tabla 43. Intersección: Derecho Administrativo + Ciberseguridad + Gobernanza Algorítmica (I).
  • Tabla 44. Tabla 43. Intersección: Derecho Administrativo + Ciberseguridad + Gobernanza Algorítmica (II).
  • Tabla 45. Tabla 43. Intersección: Derecho Administrativo + Ciberseguridad + Gobernanza Algorítmica (III).
  • Tabla 46. Tabla 43. Intersección: Derecho Administrativo + Ciberseguridad + Gobernanza Algorítmica (IV).
  • Tabla 47. Tabla 43. Intersección: Derecho Administrativo + Ciberseguridad + Gobernanza Algorítmica (V).
  • Tabla 48. Tabla 43. Intersección: Derecho Administrativo + Ciberseguridad + Gobernanza Algorítmica (VI).
  • Tabla 49. Tabla 43. Intersección: Derecho Administrativo + Ciberseguridad + Gobernanza Algorítmica (VII).
  • Tabla 50. Tabla 43. Intersección: Derecho Administrativo + Ciberseguridad + Gobernanza Algorítmica (VIII).
  • Tabla 51. Tabla 43. Intersección: Derecho Administrativo + Ciberseguridad + Gobernanza Algorítmica (IX).
  • Tabla 52. Tabla 43. Intersección: Derecho Administrativo + Ciberseguridad + Gobernanza Algorítmica (X).
  • Tabla 53. Tabla 43. Intersección: Derecho Administrativo + Ciberseguridad + Gobernanza Algorítmica (XI).
  • Tabla 54. Tabla 43. Intersección: Derecho Administrativo + Ciberseguridad + Gobernanza Algorítmica (XII).
  • Tabla 55. Tabla 43. Intersección: Derecho Administrativo + Ciberseguridad + Gobernanza Algorítmica (XIII).
  • Tabla 56. Tabla 43. Intersección: Derecho Administrativo + Ciberseguridad + Gobernanza Algorítmica (XIV).
  • Tabla 57. Tabla 43. Intersección: Derecho Administrativo + Ciberseguridad + Gobernanza Algorítmica (XV).
  • Tabla 58. Tabla 43. Intersección: Derecho Administrativo + Ciberseguridad + Gobernanza Algorítmica (XVI).
  • Tabla 59. Tabla 43. Intersección: Derecho Administrativo + Ciberseguridad + Gobernanza Algorítmica (XVII).
  • Tabla 60. Tabla 43. Intersección: Derecho Administrativo + Ciberseguridad + Gobernanza Algorítmica (XVIII).
  • Tabla 61. Tabla 43. Intersección: Derecho Administrativo + Ciberseguridad + Gobernanza Algorítmica (XIX).
  • Tabla 62. Tabla 43. Intersección: Derecho Administrativo + Ciberseguridad + Gobernanza Algorítmica (XX).
  • Tabla 63. Tabla 43. Intersección: Derecho Administrativo + Ciberseguridad + Gobernanza Algorítmica (XXI).
  • Tabla 64. Tabla 43. Intersección: Derecho Administrativo + Ciberseguridad + Gobernanza Algorítmica (XXII).
  • Tabla 65. Administraciones y autoridades.
  • Tabla 66. Marcos normativos europeos.
  • Tabla 67. Marcos normativos nacionales.
  • Tabla 68. Roles y funciones organizativos.
  • Tabla 69. Arquitecturas y frameworks técnicos.
  • Tabla 70. Componentes de identidad y criptografía.
  • Tabla 71. Amenazas y respuesta a incidentes.
  • Tabla 72. Evaluaciones y compliance.
  • Tabla 73. Conceptos originales de esta investigación.
  • Tabla 74. Inteligencia artificial y Machine Learning.
  • Tabla 75. Resiliencia y continuidad operativa.
  • Tabla 76. Estándares y metodologías internacionales.
  • Tabla 77. Tecnologías emergentes.

FASE 2

0