Si bien ChatGPT muestra un aumento mensual del 25 % en las grandes empresas y los CIO están descubriendo los efectos nocivos del uso de «Shadow AI», Netskope está agregando funciones de supervisión y gobernanza de IA generativa a su plataforma SSE.
Gracias a su facilidad de integración en todos los procesos, su sencillez de uso y sus impresionantes capacidades lingüísticas, las IA generativas –empezando por la más famosa de ellas, ChatGPT– se están infiltrando en las empresas a altísima velocidad. sin el respaldo o el conocimiento de los CIO, creando un fenómeno de «Shadow IA» que recuerda a «Shadow IT» nacido de la adopción masiva pero descontrolada de los servicios SaaS.
Pocos, si acaso, capacitados en los usos y riesgos de estas IA, los usuarios no dudan en pedirles que codifiquen funcionalidades, analicen datos o generen resúmenes de informes, a partir de elementos que pueden contener información altamente confidencial o crítica para el negocio. Sin contar, que algunos piden a estas IA que redacten fichas de producto o mensajes en redes sociales sin tener en cuenta las tendencias alucinantes de estas IA, que pueden afectar la imagen de la empresa o ponerla en desacuerdo. .
« Actualmente, las organizaciones están considerando si bloquear el acceso a ChatGPT y otras aplicaciones generativas de IA para reducir los riesgos de seguridad, o permitir su uso para aprovechar las eficiencias que estas aplicaciones pueden proporcionar, entre otros beneficios. dice Krishna Narayanaswamy, cofundador y CTO de Netskope. La implementación totalmente segura de estas aplicaciones constituye un gran desafío para la protección de datos que Netskope es particularmente capaz de afrontar gracias a su posicionamiento.. Ayudamos a todas las empresas a fomentar el uso responsable de estas aplicaciones cada vez más populares mediante la implementación de los controles de protección de datos adecuados para mantenerlas seguras y productivas.. »
Dentro de su plataforma Intelligent SSE, netscope introdujo y adaptó varias innovaciones para clasificar, monitorear y controlar dinámicamente el uso de IA generativas dentro de la empresa.
Por lo general, un tablero de análisis avanzado muestra tendencias y datos específicos de ChatGPT y otras IA generativas. Del mismo modo, el Índice de confianza en la nube (CCI) de Netskope clasifica activamente las nuevas aplicaciones generativas de IA y evalúa el nivel de riesgo que presentan en el contexto de la empresa. El editor también agregó una nueva categoría dedicada para identificar dominios generativos de IA y permitir que los equipos de TI configuren el control de acceso y las reglas de protección en tiempo real.
La solución ofrece la posibilidad de controlar, autorizar o bloquear datos sensibles de la empresa (como el código fuente) para que no se envíen a estas IA generativas (que saben corregir, optimizar o generar código informático). Además, la solución ahora presenta mensajes visuales de entrenamiento específicos para alertar a los usuarios en tiempo real sobre la posible exposición de datos y otros riesgos cada vez que acceden a aplicaciones de IA generativa.
En la misma línea, la solución permite monitorear, así como autorizar o bloquear mensajes y la descarga de archivos a chatbots de IA, así como asegurar el cumplimiento de los requisitos de cumplimiento normativo (GDPR, CCPA, HIPAA, etc.), utilizando una herramienta avanzada de clasificación de datos y detección basada en aprendizaje automático (ML).
Lea también:
Incorporación de IA en la empresa: ¿deberían preocuparse los profesionales de la seguridad?
Más de 100.000 cuentas de ChatGPT comprometidas
Con Security Copilot, Microsoft pone la IA GPT-4 en el centro de la ciberseguridad
Crowdstrike lanza su propia IA generativa dedicada a la ciberseguridad, Charlotte AI
Google también juega la carta de la IA generativa para la ciberseguridad
¡Felicitaciones, se ha suscrito con éxito a nuestro boletín de noticias!
[