El Gobierno establece reglas claras para el uso de inteligencia artificial: regula riesgos, sesgos y protección de datos

septiembre 11, 2025

La inteligencia artificial ha generado mucha expectativa en los últimos meses. Diversos sectores destacan su papel para mejorar u optimizar procesos sociales, económicos y jurídicos y han implementado herramientas digitales basadas en esta tecnología. Pero también se advierte del peligro del mal uso de ella. En este contexto, el Poder Ejecutivo publicó el Decreto Supremo N.° 115-2025-PCM Reglamento de la Ley 31814, Ley que promueve el uso de la inteligencia artificial (IA) en favor del desarrollo económico y social del país. De esta manera, el Perú se convierte en pionero en América Latina en cuanto a legislación de la inteligencia artificial se refiere.

El marco normativo especializado da reglas de juego claras para el impulso de la industria al establecer un ente rector y regulando aquellos sistemas de IA que pueden desarrollarse en el país y cuáles no. Vale decir, consolida el ecosistema digital responsable, garantizando su uso seguro, en línea con los principios de respeto a los derechos humanos y como una herramienta para el desarrollo económico y social. Veamos sus principales aspectos:

  • El desarrollo de todo sistema de IA debe basarse en los siguientes principios rectores: protección de la dignidad humana, no discriminación, privacidad de los datos personales, transparencia y explicabilidad, seguridad, responsabilidad humana, supervisión humana, inclusión, equidad, sostenibilidad y rendición de cuentas. Se exige que quienes desarrollan o implementan IA consideren y mitiguen sesgos, riesgos previsibles, impacto social, o efectos discriminatorios.
  • La Presidencia del Consejo de Ministros (PCM), por medio de la Secretaría de Gobierno y Transformación Digital (SGTD), es la autoridad técnico-normativa. Este organismo deberá aprobar lineamientos, estándares, guías, supervisar riesgos, coordinar a los distintos actores y promover espacios de innovación, así como velar que se cumpla lo dispuesto. No habrá duplicidad sancionadora ya que las multas se aplican por los regímenes vigentes: Anpdp, Indecopi, Minedu, Minsa, Sunedu, Osiptel, entre otros. 
  • Fomenta la participación de actores clave, como las organizaciones del sector privado, sociedad civil y la academia.
  • Se crea el Centro Nacional de Innovación Digital e Inteligencia Artificial (CNIDIA) que permitirá a las entidades públicas, academia y empresas, diseñar y entrenar sistemas de IA de forma segura.
  • Alfabetización y formación de competencias en IA desde la educación básica regular hasta la superior. Adicionalmente, se incluye la formación de docentes y la creación de laboratorios de investigación y desarrollo en universidades y centros de innovación, preparando al país para competir en la economía digital global.
  • El Estado promoverá el desarrollo de IA a través de entornos de prueba controlados (sandboxes). Se podrá solicitar probar las innovaciones en un entorno con regulación flexible, bajo la supervisión de la SGTD. Impulso a MIPYMEs y Emprendimientos: Se fomentarán ferias, eventos y mecanismos de financiamiento para soluciones de IA desarrolladas por pequeñas empresas. Uso de cómputo en la nube: la SGTD podrá facilitar el acceso a recursos de nube pública para proyectos de IA.
  • El Reglamento aplica a desarrolladores de plataformas/sistemas de IA; proveedores y distribuidores de tecnologías basadas en IA; usuarios empresariales e institucionales de tales plataformas y, entidades públicas que adopten IA en servicios digitales. Para ellos la implementación de la NTP-ISO/IEC 42001:2025 será obligatoria. 
  • La norma establece mecanismos de transparencia algorítmica, supervisión humana en sistemas de alto riesgo en sectores como salud, educación, justicia, finanzas y acceso a programas y servicios básicos; auditorías de seguridad y un enfoque de protección de datos personales desde el diseño de los sistemas basados en IA, evitando el uso indebido en prácticas como manipulación de decisiones, vigilancia masiva sin base legal o discriminación algorítmica.
  • A fin de determinar obligaciones, la norma clasifica los sistemas de IA según su nivel de riesgo: Uso indebido (sistemas que está prohibido desarrollar); Riesgo alto (sistemas de IA que deben ser regulados) y Riesgo aceptable (cumplimiento general).
  • Se considera sistemas de IA de uso indebido a aquellos sistemas de manipulación subliminal o engañosa que afecte las decisiones de las personas; puntuación social (social scoring) que genere resultados discriminatorios; identificación biométrica remota en tiempo real en espacios públicos (salvo excepciones muy específicas para delitos graves); Predecir la comisión de delitos basándose únicamente en el perfil de una persona y; sistemas de letalidad autónoma en el ámbito civil.
  • Son sistemas de IA de riesgo alto (requiere regulación) aquellos usados en: vigilancia masiva o videovigilancia inteligente; justicia predictiva; servicios esenciales: gestión de energía, agua, transporte, salud, etc.;  el acceso o evaluación de estudiantes; procesos de selección, evaluación o despido de trabajadores; servicios públicos (acceso a programas sociales o focalización de hogares); servicios financieros destinados a determinar la evaluación crediticia de personas (scoring crediticio o asegurador); salud (triaje, diagnóstico o pronóstico que impacte significativamente al paciente). Estos sistemas de IA deben someterse a evaluaciones de impacto algorítmico. 
  • Si el IA es de riesgo alto están obligados a: mantener un registro actualizado sobre su funcionamiento, fuentes de datos y lógica del algoritmo; establecer políticas y procedimientos claros para garantizar la seguridad, privacidad y transparencia; implementar mecanismos de supervisión humana efectiva: una persona capacitada debe poder detener, corregir o invalidar las decisiones de la IA; informar al usuario de forma clara sobre la finalidad del sistema y que está interactuando con una IA.
  • Las entidades de la administración pública, que desarrollen, implementen y usen un sistema basado en IA, deben adoptar las siguientes medidas: a) Gestión de riesgos: cifrado de datos, detección de anomalías, robustez de los modelos, entre otros. b) Privacidad desde el diseño: minimizar la cantidad de datos personales recopilados y utilizando técnicas de anonimización. c) Auditorías de seguridad: Realizar auditorías de seguridad digital periódicas para identificar y corregir vulnerabilidades y sesgos en el sistema basado en IA; d) Gestión de incidentes.
  • Las entidades públicas deben publicar el código fuente de los sistemas basados en IA, financiados con fondos públicos, con licencia libre o abierta en la Plataforma Nacional de Software Público Peruano (PNSSP), conforme a la normativa vigente en software público, y de transparencia y acceso a la información pública.
  • Todos los servicios digitales soportados en sistemas basados en IA deben considerar plenamente las necesidades diferenciadas de mujeres, niñas, niños y adolescentes, adultos mayores, personas con discapacidad y grupos en situación de especial vulnerabilidad, garantizando que estos sean seguros, sostenibles, estables e inclusivos digitalmente.
  • En el desarrollo, implementación y uso de los sistemas basados en IA se debe cumplir con la normativa vigente sobre privacidad y protección de datos personales, de acuerdo con lo que establezca la Autoridad Nacional de Protección de Datos Personales (ANPDP) del Ministerio de Justicia y Derechos Humanos (MINJUSDH).
  • Se debe garantizar el pleno respeto de los derechos humanos, y evitar que se generen resultados injustos o discriminatorios. Considerar el impacto social y ambiental en el desarrollo de los sistemas basados en IA. Implementar las mejores prácticas, estándares o Normas Técnicas Nacionales o Internacionales para identificar y minimizar los sesgos de los algoritmos o bases de datos utilizados por los sistemas basados en IA.
  • Toda persona, incluyendo niñas, niños y adolescentes a través de quienes ejercen la patria potestad o tutela, puede alertar sobre el uso indebido de los sistemas basados en IA o el incumplimiento de las obligaciones del desarrollador o implementador establecidas en el reglamento y normas complementarias, a través del canal digital sobre Inteligencia Artificial, en la sede digital de la PCM de la Plataforma Digital Única del Estado Peruano para Orientación al Ciudadano (www. gob.pe/iaperu). La SGTD, establece el protocolo de alertas, y cuando se advierta una afectación a derechos fundamentales, traslada la información a las autoridades competentes para las acciones correspondientes.
Foto: MTC