Skip to content

Inteligencia Artificial y Protección de Datos

Los profesionales de la privacidad afrontan grandes desafíos con la imparable proliferación de herramientas de inteligencia artificial (IA).

Las tecnologías de inteligencia artificial y aprendizaje automático están creciendo rápida y exponencialmente, y aunque no siempre tratan datos personales, cuando lo hacen, suele ser a una escala y nivel de complejidad enormes. Esto introduce nuevos riesgos para los titulares de los datos, así como nuevos retos para los Delegados de Protección de Datos que, pueden no tener necesariamente una formación en Informática, pero de los que, no obstante, se espera que analicen y comprendan el funcionamiento interno y las implicaciones de estas tecnologías. Por ello, los responsables de la protección de datos se enfrentan a un doble reto: una curva de aprendizaje muy pronunciada y un ámbito tecnológico dinámico que evoluciona a diario ante sus ojos.

Una actualización esencial es imprescindible para poder entender cómo operan estas tecnologías, qué implicaciones tienen desde la óptica de la protección de datos y cómo poner en valor el papel de los especialistas en este tipo de datos de cara a los nuevos modelos de datos abiertos.

El objetivo principal de este programa es comprender cómo funciona la inteligencia artificial en sus dos facetas: por un lado, como herramienta de apoyo en nuestro trabajo y sus implicaciones como usuarios; por otro lado, como objeto de análisis en nuestro desempeño como especialistas en privacidad o delegado de protección de datos.

Destinatarios

Profesionales de perfil jurídico que desean comprender de un modo práctico y tangible el funcionamiento de estas herramientas y sus implicaciones más directas en su desempeño habitual.

Profesionales de otras disciplinas (tales como CISOs, jefes de proyecto, analistas de negocio, consultores, etc) que quieran completar su conocimiento en materia de inteligencia artificial y privacidad.

*Los contenidos impartidos por el Dr. Alexander Zlotnik están orientados a la preparación para el acceso a la función pública en el Cuerpo de Gestión de Sistemas e Informática de la Administración del Estado, concretamente a los temas relacionados con protección de datos de carácter personal y fundamentos de inteligencia artificial.

Metodología

El curso se desarrollará de manera no presencial en las fechas comprendidas del 17 de febrero y el 13 de abril 2025 con un periodo posterior para la publicación de calificaciones y emisión de diplomas.

Sin perjuicio de que su formato sea asíncrono y no requiera de una presencialidad con horario establecido, sí que se recomienda al alumno el acceso frecuente a la plataforma de formación, como mínimo cada dos o tres días, para poder estar al tanto de los avisos y notificaciones correspondientes y la participación activa en las sesiones webinar, en los foros de debate y en los foros de dudas que se habiliten.

Ritmo semanal – sesiones webinars.

El curso discurrirá, como se ve en la planificación adjunta, de una manera ágil, a lo largo de una secuencia semanal dinámica para lo cual recomendamos encarecidamente la consulta frecuente del CRONOGRAMA del curso.

Webinars explicativos:

En ellos se explicarán dudas que surjan de la documentación aportada, se expandirán conceptos clave y se abrirá la oportunidad a la participación y el debate.

Las fechas y horarios de todos los webinars del curso se detallan en la Guía Docente disponible al comienzo del curso en la plataforma de formación. Os animamos encarecidamente a planificarlos en vuestra agenda y a atenderlos en directo en la medida de los posible para poder participar y preguntar a los docentes. Los Webinars serán grabados y las grabaciones se subirán a la plataforma al día siguiente para poder ser consultados por los alumnos que no hayan podido asistir y para todos los que quieran revisar la explicación.

Fechas clave

Webinars de 19:00 a 20:30 Los días 18, 25 de febrero, 4, 6, 11, 18, 25 de marzo y 1 de abril. Cuestionario final de conocimientos del 11 al 13 de abril.

Objetivos

Al finalizar el programa, el alumno desarrollará las competencias necesarias para comprender, en una aproximación inicial a este tipo de tecnologías, los fundamentos y principales conceptos relacionados con la IA, así como sus implicaciones más directas en la gestión de datos personales:

  • Capacitar a los alumnos para poder entender qué es una IA, sus diversas tipologías, aplicaciones y limitaciones de uso.
  • Capacitar a los alumnos para realizar un análisis de viabilidad de proyectos de IA en sus respectivas organizaciones.
  • Conocer y entender los grandes modelos de lenguaje natural IA existentes en el mercado (tales como ChatGPT o Microsoft Copilot), comprendiendo sus limitaciones y riesgos de uso.
  • Anticipar las novedades que presenta el nuevo Reglamento UE de Inteligencia Artificial (AI Act) y otras normas relacionadas.
  • Conocer modelos de gestión de datos, información, conocimiento e IA, y su enfoque de implantación en las organizaciones.
  • Identificar cuándo acudir a otros especialistas y cuando trabajar en equipo.

Fechas del curso

Del 17/02 al 13/04 2025

Duración

8 semanas / 60 horas

Formato

100% Online

Precio

550€ (asociados) 1.100€ (no asociados) IVA incluido

Fundae

Bonificable

Programa

UNIDAD 1: ¿Qué es la inteligencia artificial?

  • Definición intuitiva de inteligencia artificial. Áreas aplicación.
  • Inteligencia artificial especializada / específica, inteligencia artificial general.
  • Algoritmos y modelos de inteligencia artificial.
  • Programación clásica versus inteligencia artificial.
  • Taxonomía de las tecnologías de aprendizaje automático (machine learning): el aprendizaje supervisado, no supervisado y el aprendizaje por refuerzo.
  • Las limitaciones de las tecnologías de inteligencia artificial actual.
  • ¿Hasta dónde puede llegar la inteligencia artificial? Evolución histórica de la respuesta a esta pregunta.
  • Práctica de uso de IA.
  • Ejercicio de definición y perspectivas de IA.

UNIDAD 2: ¿Cómo usar la inteligencia artificial de manera correcta?

  • Big data, estadística e inteligencia artificial.
  • Metodología de análisis de viabilidad de proyectos de inteligencia artificial.
  • Criterios de éxito en los proyectos de IA: datos representativos y suficientes, criterios de medición del error, validación del modelo de IA, documentación del modelo de IA, actualización del algoritmo en caso de necesidad.
  • Ejercicio de análisis de viabilidad de proyectos de inteligencia artificial.

UNIDAD 3: La nueva inteligencia artificial: los grandes modelos de lenguaje / large language models (LLM) Microsoft Copilot, ChatGPT, GPT-4.

  • Estrategia básica para la gestión de riesgos de protección de datos personales y confidenciales en sistemas de IA provistos por terceros (tales como Microsoft Copilot, ChatGPT, OpenAI API, etc).
  • Definición y funcionamiento básico de grandes modelos de lenguaje natural.
  • Áreas de aplicación más comunes. Ejemplos de casos de uso.
  • Limitaciones en su funcionamiento: opacidad sobre sus fuentes de datos, sesgos de razonamiento, lagunas de información, ausencia de consciencia de error, vulnerabilidad a ataques antagónicos, limitaciones computacionales, etc.
  • Análisis de riesgos de uso desde los enfoques de negocio, propiedad intelectual, ciberseguridad y protección de datos de carácter personal.
  • Caso de estudio: prohibición temporal de ChatGPT por la autoridad italiana de protección de datos.
  • Caso de estudio: la demanda de los autores Paul Tremblay y Mona Awad en el juzgado federal de San Francisco (EEUU) contra OpenAI por posible violación de derechos de propiedad intelectual.
  • Práctica de uso de LLMs para tareas jurídicas.
  • Ejercicio de análisis de riesgos de LLMs.

UNIDAD 4: Aproximación al Reglamento (UE) de IA.

  • Motivación y objetivos del Reglamento (UE) de IA.
  • Ámbito de aplicación (detallar qué sistemas de IA están cubiertos por el reglamento y cuáles están excluidos, explicar cómo aplica el Reglamento a los sistemas IA de propósito general, etc).
  • Clasificación de sistemas de IA en función del riesgo (Detallar cómo se clasifican los sistemas de IA: sistemas de IA de riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo).
  • Requisitos específicos para sistemas de IA de alto riesgo (“HRAIS”):
    • Clasificación y requisitos de sistemas de IA de alto riesgo.
    • Obligaciones para los proveedores de IA y usuarios y otras terceras partes (responsabilidades de los fabricantes, importadores y distribuidores de sistemas de IA, incluyendo la evaluación de riesgos y la documentación).
    • Estándares, evaluaciones de conformidad, certificados y registro
    • Estrategias de cumplimiento normativo para sistemas de IA de alto riesgo (¿qué hay que hacer para poder emplear sistemas de alto riesgo en la práctica?).
  • Obligaciones de transparencia de ciertos sistemas de IA.
  • Documentación técnica del sistema de IA y la conservación de sus registros.
  • Gobernanza y régimen sancionador (presentar las funciones de las autoridades de supervisión y cómo se aplicarán las sanciones en caso de incumplimiento).
  • Otros temas: medidas de apoyo a la innovación. sandboxes, etc
  • Ejemplos de casos de uso (ejemplos concretos de aplicaciones de la IA y cómo se ajustan o no al Reglamento).

UNIDAD 5: Interacción RGPD – Reglamento de IA.

  • Breve repaso de conceptos básicos del Reglamento de IA y del RGPD.
  • ¿Cuándo aplican el RGPD y el Reglamento de IA a la vez? ¿Cuál es el rol del Delegado de Protección de Datos (DPD) en estos supuestos?
  • Licitud de los tratamientos de datos personales al emplear sistemas de IA. Base jurídica del tratamiento del RGPD al emplear sistemas de IA (consentimiento, contrato, interés legítimo) y problemáticas. Aspectos relevantes a la hora de recabar el consentimiento (p.ej. formularios de consentimiento que expliquen el uso de IA de manera clara y accesible).
  • Obligaciones en materia de información y transparencia del RGPD y la interacción con la obligación de transparencia e información impuesta por el Reglamento de IA.
  • Gestión de derechos de las personas físicas en el contexto de la IA. Derecho a no ser objeto de decisiones individuales automatizadas del RGPD (artículo 22) y el caso particular de los sistemas de IA. Recomendaciones sobre mejora de la transparencia al emplear sistemas de IA.
  • Medidas técnicas y organizativas necesarias para garantizar la seguridad de los datos personales en sistemas de IA.
  • Ejercicio práctico (individual o en grupo).

UNIDAD 6: Hacia la gestión integral de datos, información, conocimiento e IA en las organizaciones

  • Gobernanza y estrategia de cumplimiento normativo. Recomendaciones prácticas sobre procedimientos, procesos y tecnologías para asegurar el cumplimiento ético y normativo.
  • Análisis de casos de uso sectoriales.
    • Sistemas IA en chatbots de atención al cliente.
    • Sistemas de IA para aplicaciones de mercadotecnia / márketing (p.ej. microsegmentación, generación de anuncios personalizados, SEO, etc).
    • Sistemas de IA para la Gestión de recursos humanos.
    • Sistemas de IA para detección de fraude con IA en el ámbito de las empresas de seguros/banca, detección de fraude con sistemas de IA basados en análisis de la voz humana (“polígrafo basado en IA”).
    • Sistemas de IA para el diagnóstico médico basado en IA.
    • Ejercicio práctico (individual o en grupo).

Docentes

Dr. Alexander Zlotnik

Alexander Zlotnik es ingeniero superior de telecomunicación por la Universidad Politécnica de Madrid y doctor en inteligencia artificial (cum laude) por la misma universidad. Es autor de numerosas publicaciones en revistas científicas y ponencias en congresos nacionales e internacionales. Es autor de los paquetes de software libre nomolog y nomocox, que permiten la visualización sencilla de algoritmos estadísticos complejos, en uso en más de 300 universidades de todo el mundo. Posee el título de Máster Universitario en Dirección y Liderazgo Públicos (especialidad en alta gerencia pública) de la Universidad Internacional Menéndez Pelayo, el de Experto en Metodología de Investigación Cuantitativa y Técnicas Estadísticas CSIC-UPM, y ha cursado el Programa de desarrollo de competencias en sistemas y tecnologías de la información y las comunicaciones sanitarias del Servicio Madrileño de Salud, además de numerosos cursos de posgrado en protección de datos de carácter personal, ciberseguridad, bioestadística y contratación pública.

Es funcionario de carrera del Cuerpo Superior de Sistemas y Tecnologías de la Información de la Administración del Estado,  subdirector general adjunto de proyectos internacionales del Ministerio de Sanidad, y posee una experiencia laboral de más de 22 años en el sector sanitario público y privado. Como parte de su trabajo en el Ministerio de Sanidad, ha sido experto técnico de España en la negociación del Reglamento de Espacio de Datos de Salud en el Consejo de la Unión Europea durante la presidencia española de dicha institución. Asimismo, es el representante de este país en materia de salud digital en diversos foros internacionales, tales como la eHealth Network. Durante la pandemia de COVID-19, ha participado en la definición del estándar internacional UE Certificado COVID Digital (UE CCD) -conocido como “pasaporte COVID”-, y ha sido el representante de España en negociaciones internacionales para la implantación de dicho estándar en los países de Iberoamérica. También es coordinador de proyectos europeos EU Patient Summary (historia clínica electrónica europea) y ePrescription/eDispensation (receta electrónica europea) en España.

Miguel Valle del Olmo

 

Miguel Valle del Olmo es Agregado de Transformación Digital en la Representación Permanente de España. Ha estado a cargo de la negociación de la Ley de Inteligencia Artificial y ha participado en la negociación del Reglamento.

Miguel ha trabajado en la administración pública española durante más de 10 años, en el desarrollo de políticas públicas en materia de digitalización, incluyendo diversos roles como: subdirector de Inteligencia Artificial (Secretaría de Estado de Digitalización e Inteligencia Artificial), implementación de la Estrategia Española de IA (desde 2020), desarrollo normativo nacional e internacional, apoyo al despliegue de redes de comunicaciones electrónicas, participación en foros internacionales (UE, OCDE WP-AIGO vicechair, OCDE WP-CISP, ITU).

Es Ingeniero de Telecomunicación (Universidad Politécnica de Madrid, 2006).

LinkedIn

Alejandro Negro

Especialista en propiedad industrial e intelectual, protección de datos y nuevas tecnologías, desde un punto de vista contractual y litigioso en Cuatrecasas. Alejandro Negro está especializado en la negociación de contratos tecnológicos, incluyendo outsourcing informático y licencias de software, y contratos de colaboración para proyectos de I+D, habiendo participado en operaciones relevantes en diversos sectores con elementos tecnológicos.

Ha asesorado a numerosas empresas en materia de protección de datos personales, así como a diversas plataformas de internet de los sectores bancario, inmobiliario, del juego, del comercio electrónico y de portales de internet en su creación y desarrollo. También es experto en los sectores farmacéutico, biotecnológico y de la salud (life sciences), asesorando a clientes desde una perspectiva transaccional y contractual.

Es ponente habitual en conferencias y foros, y profesor de nuevas tecnologías, protección de datos y propiedad industrial e intelectual en distintas escuelas, incluyendo IE Business School, la Universidad Pontificia Comillas-ICADE, ESADE Business & Law School , ISDE Law & Business School y APEP.

También ha redactado numerosos artículos de opinión sobre propiedad industrial e intelectual, y nuevas tecnologías.

LinkedIn

Pablo Tena

 

Experto en Privacidad y Tecnologías de la Información.

Pablo Tena asesora a empresas nacionales e internacionales en todo lo relacionado con la normativa de protección de datos y derecho tecnológico. Entre sus funciones destacan el asesoramiento a empresas en temas complejos en materia de privacidad, transferencias internacionales de datos, evaluaciones de interés legítimo, diseño de políticas y procedimientos de protección de datos, realización de evaluaciones de impacto, y la negociación de contratos incluidos los contratos de encargo del tratamiento de datos.

También es especialista en materia de propiedad intelectual e industrial, derecho de consumidores y usuarios y juego on-line. En este sentido, su práctica incluye el asesoramiento en cualquiera de las materias señaladas, así como la negociación de acuerdos comerciales, tecnológicos y de comercio electrónico y de licencias y cesiones de propiedad intelectual. Ha participado como co-autor en diversos artículos en materia de privacidad, juego y consumidores.

LinkedIn

Naia Becerril

Responsable de Marketing APEP

Volver arriba
Your Cart

Your cart is empty.