«Ley Marco de Autorregulación y Gobernanza de la Inteligencia Artificial» — Versión para presentación ante la Asamblea Legislativa. San José, Costa Rica. Septiembre de 2025.
En OCIANN nos comprometemos con la autorregulación y las buenas prácticas en el desarrollo y uso de inteligencia artificial, alineados con este marco nacional.
Costa Rica ha tenido un liderazgo en derechos humanos, sostenibilidad, educación y paz. El desarrollo de la IA exige un marco que preserve esos valores, impulse la innovación y proteja a las personas, sobre todo a poblaciones vulnerables.
Este Manifiesto propone autorregulación y gobernanza que articula sector público, privado, academia y sociedad civil. Enfoque proporcional al riesgo, transparencia, trazabilidad, supervisión humana y responsabilidad. Se alinea con la ENIA 2024–2027 y la Ley N.º 8968 de protección de datos.
Incluye instancias técnicas (CONAIA, ST-IA, RNSIA), Evaluación de Impacto Algorítmico (AIA), reporte de incidentes, reglas para modelos fundacionales y generativos, y un Sandbox Regulatorio. La propuesta puede adoptarse como código de conducta y servir de base para una Ley Marco de IA.
Establece el Plan de Autorregulación y Gobernanza de la IA en Costa Rica: principios, instancias de gobernanza, obligaciones por riesgo y mecanismos de cumplimiento.
Es de interés público el desarrollo y uso responsable de la IA para bienestar social, servicios públicos, competitividad e innovación sostenible.
Aplica al sector público, privado, academia y sociedad civil que desarrollen o utilicen sistemas de IA en Costa Rica o que afecten a personas en el territorio nacional.
Se consideran, entre otras:
Las obligaciones se aplican según la categoría de riesgo, el contexto de uso y el impacto en derechos y servicios críticos.
Derecho a información clara, explicación de decisiones automatizadas, revisión humana, rectificación/oposición/eliminación, portabilidad y atención humana cuando sea factible; no discriminación e igualdad ante la ley.
En decisiones con efectos significativos prevalece el criterio humano. Todo sistema de IA debe tener supervisión y mecanismo de detención humana.
Información visible y oportuna cuando se use IA. Contenido sintético etiquetado y, cuando sea posible, con metadatos de procedencia.
Órgano asesor multisectorial: directrices, perfiles de riesgo, guías sectoriales, participación pública y transparencia.
Adscrita al MICITT. Coordina RNSIA, Programa de Evaluación y Sandbox; emite lineamientos y asiste a organizaciones.
Registro de sistemas de alto riesgo, reportes de incidentes, auditorías y estadísticas nacionales.
Cada entidad designa un Responsable de IA con independencia funcional, competencia técnica y acceso a alta dirección.
Scoring social estatal, manipulación subliminal dañina, vigilancia masiva indiscriminada y usos que vulneren derechos fundamentales.
Salud, educación, empleo, crédito, justicia, seguridad, procesos electorales, biometría e infraestructuras críticas.
AIA previa, gobernanza de datos, pruebas de seguridad y sesgos, supervisión humana, trazabilidad, etiquetado y reporte de incidentes al RNSIA (máx. 72 h).
Limitado: avisos, atención humana, controles de contenido sintético. Mínimo: buenas prácticas y seguridad por diseño.
Obligatoria para alto riesgo. Incluye: descripción del sistema, clasificación de riesgo, datos, pruebas, supervisión humana, impacto en derechos y grupos vulnerables, mitigación, monitoreo y canales de queja.
Fichas técnicas (model/data cards), controles de seguridad, etiquetado de contenido sintético y cláusulas de cumplimiento en contratos (Art. 20-23).
Base jurídica y DPIA cuando corresponda. Derechos ARCO ampliados, explicación significativa, revisión humana y portabilidad. Biometría y datos sensibles con justificación y salvaguardas reforzadas.
Sandbox para probar soluciones de IA bajo condiciones controladas. Cumplimiento progresivo: advertencia, plan correctivo, suspensión, remisión. Canales de queja y reparación.
Alfabetización en IA, currículo nacional, becas STEM, apoyo a pymes, reskilling/upskilling e I+D+i con fondos concursables.
Reporte de indicadores de energía, emisiones y agua. Interoperabilidad con marcos internacionales e IA ética centrada en las personas.
Adopción inmediata como marco de autorregulación y tramitación como Ley Marco. Calendario: 0-3 meses (CONAIA, ST-IA, plantillas); 3-6 (guías, Sandbox); 6-12 (registro obligatorio, alfabetización); 12-24 (evaluación e interoperabilidad).
OCIANN se adhiere a este Plan y se compromete a desarrollar y usar IA de forma responsable, transparente y alineada con los derechos humanos y el marco normativo aplicable.