¿Cómo adoptar e innovar con Inteligencia Artificial (IA) sin comprometer la seguridad, la ética y la legalidad?
La inteligencia artificial le ha brindado grandes beneficios a las industrias, como: el aumento de la eficiencia y la productividad, la optimización de recursos y una mejor toma de decisiones basada en datos. Sin embargo, el avance acelerado, la adopción inmediata y la falta de regulaciones, han generado riesgos críticos que son de vital importancia para las empresas de todos los tamaños y sectores a nivel mundial. En el webinar «Blindando el futuro: Gestión de riesgos en la era de la IA», Jorge Luna, especialista de Cynthus en seguridad, gestión de riesgos e inteligencia artificial, explica cuáles son dichos riesgos y la importancia de implementar una gestión de riesgos enfocada en el uso de esta tecnología, para identificar, tratar, monitorear, comunicar y contar con una capacidad de respuesta eficaz ante cualquier eventualidad.
También explora y explica el Marco de Gestión de Riesgos de IA del NIST (AI RMF 1.0), considerado el estándar de oro global para gestionar la incertidumbre de la Inteligencia Artificial.
Te compartimos la grabación completa de la sesión.
Revive el webinar «Blindando el futuro: Gestión de riesgos en la era de la IA»
Si no puedes visualizar el webinar da clic aquí

Consulta las respuestas de Jorge Luna a las preguntas realizadas por la audiencia:
Cerano Mary
¿Cómo me puedo apoyar con la IA para realizar reportes y medir la calidad de un proyecto?
R: Mary, puedes realizar reportes utilizando la IA tomado en consideración los siguientes pasos:
- Identifica tus datos: La IA necesita información fidedigna para ser efectiva. En este caso identifica cuales son los criterios de calidad establecidos en el proyecto con los cuales debe cumplir el producto, servicio o entregable.
- Conoce lo que requieres obtener de la IA: Determina si necesitas un resumen ejecutivo, un diagrama causa y efecto, un histograma o gráficos de control, por ejemplo.
- Selecciona la herramienta de IA con la que mejor te adaptes: por ejemplo: ChatGPT, Copilot o Geminy alimentándola con los datos del primer paso y comienza a solicitarle los reportes y la medición de la calidad, pídele que juegue su papel de supervisión de la calidad. Ojo, el uso de la IA debe ser autorizado por la organización que te encuentres y los riesgos en su uso gestionados como lo vimos en el webinar.
Cruz Berenice
¿Toda empresa que use IA debería a pegarse a la ISO 42001?
R: No necesariamente, la ISO 42001 es un estándar de uso voluntario, se recomienda utilizarlo ya que es una norma internacional aceptada y adaptable a cualquier organización independientemente de su operación y/o tamaño.
Mendez Fernanda
1) ¿Qué opinas del caso en el que una Big4 en auditoría hizo el trabajo paralelo cliente totalmente con IA y cobró lo mismo como si lo hubiera realizado humanos?
R: Desde una perspectiva de consultoría en estándares de IA como la ISO/IEC 42001 y el NIST AI RMF, este escenario es muy interesante porque toca elementos de la ética, la transparencia y la entrega de valor a través del uso de la IA. Sin tener información más allá y bajo la perspectiva de que el cliente conoce que se utiliza la IA para la entrega de su servicio, mi opinión seria la siguiente:
Si el trabajo entregado al cliente tiene la misma o mayor calidad y precisión, el cliente está pagando por el resultado y el conocimiento acumulado que permitió crear esa IA.
Pero como lo mencionas, si se facturan los servicios bajo un modelo de «esfuerzo humano» el cual fuera inexistente, no informar sobre el uso extensivo de IA podría interpretarse como una falta de transparencia comercial.
Por esa razón es fundamental gestionar los riesgos alrededor del uso de la IA y evitar situaciones negativas que puedan afectar a las organizaciones.
2) ¿Una vez ingresados los datos a la IA ya no se pueden borrar?
R: Es posible borrar datos en la IA y la forma de hacerlo varía dependiendo del proveedor de inteligencia artificial que utilices y el contrato al que estés sujeto(a). Sin embargo, en ocasiones la información no se borra de manera inmediata de los sistemas de entrenamiento interno de la IA. Es por eso que se recomienda no subir datos confidenciales, secretos industriales o datos personales a la IA (principalmente a la pública).
Reynoso Keller Emilio Yail
¿Existe alguna certificación para riesgos de inteligencia artificial?
R: Si, en Cynthus existe la “CERTIFICACIÓN PROFESIONAL EN GESTIÓN DE RIESGOS DE IA” de Certiprof.
Rodriguez Rosy
¡Buen día y gracias Jorge! Una pregunta, ¿los riesgos de IA se deben de gestionar desde Ciberseguridad o desde el gobierno de la IA o en ambas?
R: Un gusto Rosy, se recomienda que los riesgos de IA se gestionen desde el gobierno de la IA o sea parte de las actividades de ERM de la organización (en caso de existir), por ejemplo: algunos riesgos de la IA podrían ser aquellos relacionados con que el modelo no sea fiable, tenga algún tipo de sesgo o no se pueda entender por que la IA tomo alguna acción en especifico (Explicabilidad). Todos aquellos riesgos que tengan que ver con la pérdida de la confidencialidad, integridad y disponibilidad de la información durante el ciclo de vida de la IA son parte de la gestión realizada por ciberseguridad.
Suarez Sastoque Yeny Natalia
¿Cómo se puede llevar acabo una gestión de riesgos de seguridad de la información con el uso de la IA?
R: Actualmente ya existen aplicaciones que utilizan la IA para la gestión de riesgos incluso los que tienen que ver con la seguridad de la información. Sin embargo, nunca es tarde para innovar, podrías crear tu propio modelo para esa gestión, existen cursos técnicos específicos que te pueden ayudar en ese desarrollo, cuando eso suceda no te olvides de gestionar los riesgos alrededor de esa IA para que sea todo un éxito.
Salas Emmanuel
¿El curso completo, ¿se basa específicamente a un framework?, me interesan los controles sobre la ciberseguridad
R: Hola Emmanuel, el curso se basa en el marco de gestión de riesgos NIST AI RMF 1.0. Si requieres conocer a detalle los controles sobre la ciberseguridad te recomendaría tomar el relacionado con el NIST CSF V 2.0.
Conclusión
No hay duda de que la inteligencia artificial es una herramienta que ha brindado beneficios notables a la industria global. Sin embargo, es importante no perder de vista que su rápido desarrollo y adopción, también implica entendimiento y preparación profesional con respecto a los riesgos potenciales que pueden afectar a las organizaciones. Es decir, contar con una estrategia de gestión de riesgos sistemática y apegada a estándares internacionales garantiza la obtención de valor real, seguro, escalable y responsable al implementar IA en los procesos empresariales.
Conoce nuestra Certificación Profesional en Gestión de riesgos de IA.
Por otra parte, la lección más importante del NIST AI RMF es que el riesgo no está en la IA misma, sino en dónde se usa. No es lo mismo una IA que recomienda canciones (riesgo bajo), que una IA que decide quién recibe un trasplante de órganos (riesgo crítico). El marco ayuda a escalar los esfuerzos de gestión de riesgos según esa importancia.
Si estás interesado(a) en certificarte, con gusto podemos asesorarte. ¡Contáctanos!
Conoce al ponente de este webinar

Jorge Luna
Instructor Certificado Cynthus
Especialista en Gestión de Riesgos, Seguridad e IA.
Cuenta con más de 25 años de experiencia en Consultoría de Tecnologías de la Información, enfocado en proyectos de continuidad de negocio, seguridad de la información, ciberseguridad, gestión de riesgos y auditorías de TI.
Certificaciones
- CRISC • CISM • CISA • CDPSE • ISO 27001 AL
- ISO 27001 IL • ISO 22301 AL • ISO 22301 IL
- ISO 31000 LRM • ISO 27005 RM • COBIT 5 • ISO 27002 LM
- ISO 27032 LCM • ISO 22317 • ISO 27017
- Certified NIST CSF 2.0 LI • Cybersecurity Awareness
- ISO 42001 IL • Scrum for OPS and DevOps