A falta de normativa internacional, tecnológicas imponen reglas éticas a la IA

Publicado el 18 Dic 2019

20191219p5

Sin normas o políticas reconocidas a nivel mundial en relación a la ética de la Inteligencia Artificial (IA), son las propias compañías tecnológicas, todas ellas con presencia en Chile, las que se han tomado la delantera por la vía de autoimponerse lineamientos y reglas para una aplicación de la Inteligencia Artificial que se centre en el ser humano, que garantice la transparencia y mantenga la seguridad de los datos, entre otros objetivos.

Es el caso de compañías como IBM, Microsoft y SAP, que han presentado públicamente estos criterios con el fin de marcar el camino. “No solo nuestra propia Inteligencia Artificial debe estar sujeta a requisitos éticos, sino que también queremos ayudar a nuestros clientes a construir y usar la IA de manera ética”, expresó Markus Noga, Representante de SAP Cloud Platform Business Services.

Esto, en un contexto mundial donde la demanda por Inteligencia Artificial sólo promete crecer: Según un estudio realizado a fines de 2018 por la firma consultora McKinsey, casi la mitad de las empresas ya han adoptado la IA, mientras que otro 30% actualmente ejecuta proyectos pilotos de IA para su futura implementación. En tanto, un 44% adicional planea buscar proveedores para la mayoría de sus necesidades de inteligencia artificial.

Sin embargo, en la discusión pública, la Inteligencia Artificial puede ser un tema controvertido. Cuando las máquinas toman decisiones que afectan la vida de los seres humanos, es muy probable que algunas de las personas afectadas estarán en desacuerdo con su presencia. Eso lleva a preguntas más complejas con las que las grandes tecnológicas tendrá que lidiar: ¿cómo pueden aquellos que desarrollan y venden sistemas autónomos garantizar que tanto el creador como el cliente puedan sentir confianza moral en las decisiones de una IA?

En el caso de SAP, un buen ejemplo es su plataforma de servicios de cloud Data Intelligence, donde un cliente puede usar la tecnología para construir cualquier caso de uso de IA. Según Marcus Noga, eso significa que uno debe cuestionar críticamente algunas ideas y encontrar una manera de dirigir la innovación hacia casos de uso ético. Es por eso que están explorando cómo proporcionar pautas o incluso términos y condiciones a los clientes para guiar el uso éticamente apropiado de la plataforma de IA.

“Por consideración a los clientes y colegas involucrados, es difícil hablar sobre casos de uso concretos”, comparte Noga. “Pero puedo decir que se nos han enviado casos sobre una amplia gama de cuestiones, desde el reconocimiento facial hasta el uso gubernamental de IA e incluso casos de impacto ambiental negativo”.

Es por esto que establecer criterios o guidelines para la ética de la Inteligencia Artificial es tan importante: “Necesitamos conciliar las necesidades del cliente con la posibilidad real de que se le pida a la compañía que haga algo en contra de sus políticas”, finaliza Noga.

¿Qué te ha parecido este artículo?

¡Síguenos en nuestras redes sociales!

Redacción

Artículos relacionados

Artículo 1 de 3