proyecto de ley

Propuesta legislativa de IA en Chile: Categorización y Regulación



Dirección copiada

Con la Ley de IA de la Unión Europea como referente, propuesta del Ministerio de Ciencia, Tecnología, Conocimiento e Innovación,  presenta una clasificación con cuatro niveles de riesgo según el uso de la IA.

Publicado el 20 may 2024



Gobierno presenta propuesta que regula usos de la Inteligencia Artificial

El gobierno presentó una propuesta legislativa para usos de la inteligencia artificial, la cual clasifica los sistemas en cuatro categorías: riesgo inaceptable, alto riesgo, riesgo moderado y sin riesgo evidente.

“En lugar de exigir que las tecnologías pasen por un proceso de certificación o análisis antes de entrar al mercado, se estableció que cada empresa clasifique sus sistema de IA en base a un listado de riesgos que se elaborará, donde cada categoría tendrá reglas específicas que cumplir. Las sanciones para quienes no lo hagan serán administrativas, aplicadas por la futura Agencia de Protección de Datos Personales, en un procedimiento regulado por ley y en el que se puede apelar en las cortes de apelaciones”, explicó la ministra de Ciencia, Aisén Etcheverry.

En la categoría de “riesgo inaceptable” se incluyen usos definidos en el proyecto, a diferencia de “alto riesgo” y “riesgo limitado”, que son descritos genéricamente en el proyecto, pero se espera que el Consejo Asesor Técnico de Inteligencia Artificial -formado por representantes del sector privado, público, academia y sociedad civil- proponga usos y aplicaciones existentes.

El proyecto considera como aplicaciones inaceptables aquellas que atenten contra la dignidad de las personas, como deepfakes de contenido sexual, así como prácticas con alto potencial de manipulación o evaluación de los estados emocionales de una persona, usos biométricos para el análisis de imágenes de vídeo que empleen identificación en tiempo real (salvo para usos relacionados con la seguridad pública), y sistemas de IA basados en técnicas de facial scraping.

En la categoría de “alto riesgo” caben las aplicaciones de IA que presentan un riesgo significativo para la salud, la seguridad, los derechos fundamentales protegidos por la Constitución o el medio ambiente, así como para los derechos de los consumidores.

En tanto, “Riesgo limitado” incluye los usos que no implican riesgos significativos de manipulación, engaño o error derivado de la interacción con personas, como un chatbot de un servicio público que responde a consultas de los usuarios.

Artículos relacionados

Artículo 1 de 4