ciberseguridad

Gran mayoría de empresas permite que sus empleados utilicen IA generativa aunque les preocupa



Dirección copiada

Reporte de Check Point indica que, pese a manifestarse preocupado por la filtración de datos, el 92% de las empresas autoriza el uso de herramientas de IA por parte de sus colaboradores.

Publicado el 23 ago 2024



Filtración de datos

Un estudio de Check Point Software Technologies y Vanson Bourne arroja que, si bien les preocupa la seguridad y la filtración de datos, el 92% de las empresas permite a sus empleados utilizar herramientas de IA generativa. Los reparos aparecen como justificados, pues un análisis de Menlo Security estima que el 55% de las pérdidas de datos se deben al uso de IA generativa.

La filtración de datos en aplicaciones de IA generativa no puede ser detectada ni prevenida por las soluciones tradicionales de protección de datos, basadas en palabras clave y patrones estáticos predefinidos que no comprenden el contexto de los datos no estructurados típicos de estas solicitudes.

En cambio, las nuevas herramientas se instalan en cuestión de minutos para detectar los servicios de IA generativa utilizados por la empresa, evaluar su riesgo y aplicar una protección de datos basada en IA para prevenir riesgos añadidos.

Estas soluciones poseen una innovadora tecnología que aplica el análisis de datos basado en IA para clasificarlos considerando su contexto y ofrecer así una visibilidad y un control precisos. Por ejemplo, su DLP basada en IA generativa les permite diferenciar entre contenido de bajo riesgo, como la adquisición de una nueva vivienda, y contenido de alto riesgo, como la posible compra de una empresa.

Soluciones para enfrentar la filtración de datos

Las herramientas más recomendadas para detectar y prevenir la filtración de datos son:

1.     Las que identifican y evalúan el uso de IA generativa en las empresas: permiten descubrir tanto las aplicaciones autorizadas como las ocultas, y visibilizan los principales casos de uso de la inteligencia artificial, como la codificación y el marketing, para tomar decisiones informadas sobre la gobernanza basada en esta tecnología. Detecta también fuentes de datos copiados/pegados en avisos y otorga una puntuación de riesgo para priorizar su mitigación.

2.     Las que evitan la pérdida de datos en tiempo real y abordan los problemas de privacidad: permiten aplicar políticas personalizables para evitar la fuga de datos y prevenir su pérdida, para que los datos sensibles no estructurados no sean compartidos. Se puede además implementar restricciones de copiar y pegar para evitar el desvío de repositorios de código fuente, herramientas CRM, correo electrónico corporativo y otras aplicaciones confidenciales.

3.     Las que cumplan las normativas con visibilidad de nivel empresarial: brindan supervisión y visibilidad detalladas para facilitar el cumplimiento de la normativa. Visibilizan los avisos de usuario y de las aplicaciones de IA de alto riesgo (basadas en inteligencia de amenazas específicas de la aplicación), e incluso especifican por qué una alerta se ha marcado como peligrosa.

“La IA generativa está impulsando la productividad de las empresas. Desafortunadamente, los empleados están exponiendo a las empresas a riesgos cibernéticos a través de la filtración de datos y el robo de propiedad intelectual al incluir información confidencial en aplicaciones basadas en IA generativa. Los CISOs están buscando formas de gestionar de forma segura el uso de aplicaciones con esta tecnología en toda la empresa”, explica Frank Dickson, vicepresidente del grupo de seguridad y confianza de IDC.

Artículos relacionados

Artículo 1 de 3