ia y regulación

UAI presenta herramientas para un uso ético de la inteligencia artificial en el sector público y privado



Dirección copiada

A través de nuevas soluciones, la Universidad Adolfo Ibáñez promueve el uso responsable de la IA en un marco de equidad y transparencia.

Publicado el 29 abr 2025



Inteligencia artificial responsable

GobLab UAI junto a la Facultad de Ingeniería y Ciencias de la Universidad Adolfo Ibáñez realizaron recientemente un taller guiado por la siguiente interrogante: ¿Cómo llevar la inteligencia artificial responsable del discurso a la práctica?

La actividad, denominada “Inteligencia artificial responsable en la práctica”, reunió a aproximadamente a 30 participantes, incluyendo académicos, investigadores, asociados y estudiantes de doctorado de diversas áreas, todos con un interés o relación con la implementación de inteligencia artificial. El énfasis estuvo en la difusión de herramientas específicas para incorporar los principios de equidad, transparencia y responsabilidad a lo largo de toda la duración de los proyectos de IA. Estas herramientas fueron desarrolladas por el GobLab UAI en el marco del proyecto ANID IDeA I+D 2023 (ID23I10357).

El taller comenzó con la presentación de la directora del GobLab, María Paz Hermosilla, quien destacó la relevancia de crear tecnologías que respeten los derechos de las personas, promuevan la confianza institucional y den respuesta a los nuevos desafíos regulatorios respecto a la IA.

Posteriormente, Rolando de la Cruz, académico de la Facultad de Ingeniería y Ciencias UAI, se refirió al compromiso del sector privado en la adopción de tecnologías más equitativas y sustentables. “Hemos implementado proyectos para reducir emisiones y fomentar el uso de energías renovables. Pero esto no es solo tecnología: la educación y la concienciación de la comunidad son claves para lograr un cambio realmente sostenible”, apuntó.

En tanto, Claudio Seebach, decano de la Facultad de Ingeniería y Ciencias UAI, hizo hincapié en la necesidad de un enfoque colaborativo y transversal en el desarrollo tecnológico: “La colaboración entre empresas, gobierno y sociedad civil es esencial para avanzar en la transición energética. Promover políticas públicas que faciliten el desarrollo de iniciativas sostenibles es parte del camino hacia un futuro más limpio y eficiente”.

Luego fue el turno de Mariana German, investigadora del GobLab, que presentó las tres herramientas desarrolladas a través de la revisión de un caso aplicado en un organismo público, lo que permitió demostrar de qué manera estas soluciones pueden ser aplicadas en situaciones reales, consolidando la validez y el compromiso institucional:

  • Evaluación de Impacto Algorítmico: facilita el reconocimiento de peligros éticos y legales vinculados al diseño y la ejecución de un proyecto de inteligencia artificial, proporcionando sugerencias ajustadas para prevenirlos oportunamente.
  • Medición de Sesgos y Equidad: determina si un modelo de inteligencia artificial produce resultados injustos, reconociendo los sesgos que se están reproduciendo y promoviendo elecciones más equitativas.
  • Ficha de Transparencia Algorítmica: organiza y expresa de manera comprensible cómo opera, su objetivo y en qué situaciones se utiliza un sistema basado en algoritmos.

Estas herramientas, disponibles en español, son de acceso libre y cuentan con una interfaz amigable. Están diseñadas específicamente para grupos interdisciplinares tanto del sector público como del privado que desean implementar normas éticas globales sin necesidad de tener profundos conocimientos técnicos en inteligencia artificial responsable.

Artículos relacionados

Artículo 1 de 4