Chile se ha posicionado como un líder regional en la gobernanza y desarrollo de la Inteligencia Artificial (IA), transitando desde una política nacional voluntaria hacia un ecosistema regulatorio robusto y vinculante. Este proceso busca equilibrar el fomento a la innovación con la protección de los derechos fundamentales, en un contexto donde el país es calificado como “pionero” en el Índice Latinoamericano de Inteligencia Artificial (ILIA) 2025.
A continuación, se detalla la estructura normativa, las iniciativas estratégicas y el análisis de las brechas existentes.
El Pilar Legislativo: Proyecto de Ley de Inteligencia Artificial
El corazón de la nueva regulación es el proyecto de ley que “Regula los sistemas de Inteligencia Artificial” (Boletín 16821-19), ingresado en mayo de 2024 y actualmente en discusión legislativa. Este proyecto sigue un enfoque basado en riesgos, similar a la legislación europea (AI Act), clasificando los sistemas en cuatro categorías:
• Riesgo Inaceptable: Sistemas prohibidos por vulnerar derechos fundamentales. Incluye la manipulación subliminal, la calificación social (social scoring) por parte del Estado, la identificación biométrica remota en tiempo real en espacios públicos (con excepciones de seguridad) y el reconocimiento de emociones en contextos laborales o educativos.
• Alto Riesgo: Permitidos pero bajo estrictas obligaciones. Incluye sistemas usados en salud, educación, empleo, justicia y servicios esenciales. Requieren gestión de riesgos, gobernanza de datos, documentación técnica, supervisión humana y ciberseguridad robusta.
• Riesgo Limitado: Sujetos a obligaciones de transparencia. Los usuarios deben saber que interactúan con una IA (ej. chatbots, deepfakes).
• Sin Riesgo Evidente: No tienen restricciones específicas más allá de la normativa general.
Institucionalidad y Gobernanza Propuesta
El proyecto no crea una agencia exclusiva para IA, sino que entrega las facultades de fiscalización y sanción a la Agencia de Protección de Datos Personales (creada por la Ley 21.719). Además, establece un Consejo Asesor Técnico de IA, de carácter consultivo, para asesorar al Ministerio de Ciencia en la actualización de categorías de riesgo y estándares.
Sanciones: Se establecen multas severas que pueden llegar hasta las 20.000 UTM para infracciones gravísimas (como usar sistemas prohibidos) o el 4% de los ingresos anuales de la empresa.
. Convergencia Regulatoria: El Ecosistema Digital
La regulación de IA en Chile no opera en el vacío, sino que se articula con otras leyes estructurales recientemente aprobadas o en trámite:
Ley de Protección de Datos Personales (Ley 21.719): Promulgada en agosto de 2024, eleva los estándares a nivel europeo (GDPR). Introduce derechos ARCO+P (Acceso, Rectificación, Cancelación, Oposición y Portabilidad) y principios como la privacidad por diseño. Es fundamental para la IA, ya que regula el “insumo” principal de los algoritmos.
Ley Marco de Ciberseguridad (Ley 21.663): Publicada en abril de 2024, crea la Agencia Nacional de Ciberseguridad (ANCI). Obliga a reportar incidentes en plazos estrictos (3 horas para alertas tempranas en operadores vitales) y establece requisitos de seguridad para infraestructuras críticas, esenciales para la resiliencia de los sistemas de IA.
Sistema Nacional de Gestión de Datos (Boletín 17590-05): Proyecto ingresado en junio de 2025. Busca eliminar la burocracia de los convenios para el intercambio de datos entre organismos del Estado, facilitando la interoperabilidad y la creación de “espacios de datos” sectoriales, vitales para entrenar modelos de IA pública.
Infraestructura y Soberanía Tecnológica: El Caso LatamGPT
Chile busca evitar ser un mero consumidor de tecnología extranjera. La iniciativa más emblemática es LatamGPT, un modelo de lenguaje grande (LLM) desarrollado desde Chile junto a más de 30 instituciones de la región.
• Objetivo: Crear un modelo entrenado con datos locales para reflejar la cultura, historia e idiosincrasia latinoamericana, reduciendo los sesgos de los modelos del Norte Global.
• Soberanía: Busca autonomía tecnológica, permitiendo que los datos se procesen bajo normativas locales y éticas.
• Infraestructura: Se apoya en la capacidad de cómputo nacional (como el Plan Nacional de Data Centers) y alianzas regionales. Brasil concentra el 90% de la capacidad de cómputo de alto rendimiento (HPC) de la región, pero Chile destaca en infraestructura de datos per cápita.
Ética y Uso en el Sector Público
El Estado ha emitido directrices claras para su propio actuar antes de la plena vigencia de la ley:
• Circular de Lineamientos (Dic 2023): Instruye a los funcionarios públicos a no ingresar datos sensibles o personales en plataformas de IA generativa abiertas (como ChatGPT) no contratadas oficialmente. Exige transparencia algorítmica y evaluación de impacto antes de implementar soluciones.
• Protección al Consumidor (SERNAC): El Servicio Nacional del Consumidor dictó una circular interpretativa (Resolución N° 33) que advierte sobre los “patrones oscuros”, la discriminación algorítmica en precios y la obligación de informar al consumidor si interactúa con una máquina. El mismo SERNAC utiliza IA (“Sistema Inteligente de Análisis de Reclamos”) para procesar miles de quejas en tiempos récord.
——————————————————————————–
Análisis Crítico: Brechas y Desafíos Regulatorios
A pesar de los avances significativos que sitúan a Chile como un referente regional (“Pionero” según ILIA 2025), el análisis de las fuentes revela tensiones y áreas que requieren mejoras urgentes:
1. Riesgo de Sobrecarga Institucional (La Agencia de Datos)
Expertos consultados por la Biblioteca del Congreso Nacional advierten un problema de diseño: se entrega la fiscalización de la IA a la Agencia de Protección de Datos Personales. Existe la preocupación de que esta agencia, que aún no entra en plena operación, carezca del capital humano y la capacidad técnica para auditar algoritmos complejos (“cajas negras”) además de su mandato original sobre datos personales.
• Mejora necesaria: Fortalecer las capacidades técnicas específicas de IA dentro de la Agencia o dotar de mayores facultades operativas al Consejo Asesor Técnico.
2. Impacto en la Innovación y las PYMES
Gremios como la ACTI han advertido que el régimen sancionatorio (multas de hasta 20.000 UTM) y las obligaciones de certificación para sistemas de “Alto Riesgo” podrían asfixiar a startups y PYMES tecnológicas.
• Mejora necesaria: Los expertos sugieren que el Estado no solo regule, sino que provea sets de datos “curados” y acceso a infraestructura de cómputo gratuita o subsidiada en los sandboxes regulatorios para que las empresas pequeñas puedan entrenar y validar sus modelos sin costos prohibitivos.
3. El Mecanismo de “Incidentes Graves”
Siete de ocho expertos consultados consideraron “inadecuado” el mecanismo propuesto para reportar incidentes graves. Faltan criterios explícitos sobre qué constituye un incidente reportable y claridad sobre la carga de la prueba en casos de discriminación algorítmica (¿debe probar el ciudadano que fue discriminado por el algoritmo o la empresa que no lo hizo?).
4. Vacío en Neuroderechos y Manipulación
Aunque la ley prohíbe la manipulación subliminal, existen preocupaciones parlamentarias sobre la protección específica de los “neuroderechos” ante tecnologías que podrían interferir en la actividad cerebral. Se sugiere explicitar la prohibición de tecnologías que alteren la autonomía cognitiva más allá de la manipulación comercial tradicional.
5. Sustentabilidad Medioambiental
Si bien Chile tiene un Plan Nacional de Data Centers con foco verde, la mayoría de las estrategias de IA en la región, incluida la chilena en sus inicios, carecían de métricas vinculantes sobre la huella de carbono del entrenamiento de modelos.
• Mejora necesaria: Integrar exigencias de eficiencia energética y uso de energías renovables como requisito para la certificación de sistemas de IA de alto consumo, aprovechando la matriz energética limpia de Chile.
6. Desafío de la Extraterritorialidad
Un punto crítico es la capacidad real de la legislación chilena para sancionar a proveedores de IA extranjeros (Big Tech) que no tienen domicilio ni servidores en Chile, pero cuyos servicios se usan en el país. La ley intenta abordar esto basándose en el lugar donde se utiliza la “salida” del sistema, pero la ejecución práctica de multas o auditorías a gigantes tecnológicos sigue siendo un desafío operativo mayor.
Conclusión
Chile ha construido una “arquitectura jurídica” avanzada, alineada con estándares OCDE y europeos. Sin embargo, el éxito de este marco dependerá no de la letra de la ley, sino de la capacidad de implementación: dotar de recursos reales a la nueva Agencia, evitar que la burocracia de cumplimiento mate la innovación local y asegurar que la soberanía tecnológica (vía proyectos como LatamGPT) sea una realidad y no solo una declaración de intenciones.
