Check Point Research identificó una nueva vulnerabilidad en los Modelos de Lenguaje Amplio (LLM) utilizados en ChatGPT, Google Bard, Microsoft Bing Chat y otros servicios de IA generativa.
“Si las empresas no tienen una seguridad efectiva para este tipo de aplicaciones y servicios de IA, sus datos privados podrían verse comprometidos y pasar a formar parte de las respuestas de estas”, señala Eusebio Nieva, director técnico de Check Point Software para España y Portugal.
El uso de IA en el desarrollo de código de software puede ser una fuente inadvertida de filtraciones de datos.
Check Point Research ha ayudado a evitar la filtración de datos confidenciales de las decenas de millones de usuarios que utilizan aplicaciones de IA Generativa de ChatGPT, Google y Microsoft.
Los ciberdelincuentes aprovechan la combinación de una gran cantidad de información y usuarios descuidados para obtener datos sensibles, como números de tarjetas de crédito y registros de consultas realizadas en estos chats.
Es por eso que Check Point Software ofrece a las empresas una herramienta de filtrado de URLs para la identificación de estas webs de IA generativa, con una nueva categoría agregada a su conjunto de controles de gestión de tráfico. Además, sus soluciones de firewall y firewall as-a-service incluyen también la prevención de pérdida de datos (DLP), lo que permite a los administradores de seguridad de red bloquear la carga de ciertos tipos de datos específicos (código de software, información personal identificable, información confidencial, etc.) al utilizar aplicaciones de IA generativa.