El furor de ChatGPT se está extendiendo por el mundo. Hablamos con este chatbot para que aclare nuestras dudas y nos ayude a trabajar mejor, pero mientras lo hacemos, estamos revelando mucha información a este motor de inteligencia artificial conversacional. Esto no es un problema si hablamos de temas triviales, pero la situación cambia drásticamente en las empresas.
Información confidencial. Tal como señala un reciente informe de la firma de seguridad de datos Cyberhaven, se detectaron y bloquearon solicitudes de ingreso de datos en el 4,2% de los 1,6 millones de trabajadores que trabajan con ellos. Si bien es un porcentaje bajo, es sumamente preocupante porque en todos los casos, había un riesgo latente de que estos empleados filtraran datos confidenciales.
¿Qué tipo de información confidencial puede filtrarse? Todo tipo de datos, desde información delicada sobre la compañía hasta información de clientes o el código fuente de sus aplicaciones. En un caso, un alto ejecutivo copió y pegó el documento de estrategia de la compañía para 2023 en ChatGPT y le pidió que creara una presentación en PowerPoint. En otro, un médico ingresó el nombre y estado de salud de un paciente y le pidió a ChatGPT que escribiera un borrador de una carta para la compañía de seguros del paciente.
Compartiendo todo con ChatGPT. Según los expertos, el riesgo es genuino y aumentará. «Ha habido una gran migración de datos de una nube a otra, y el próximo gran cambio será la migración de datos a estas aplicaciones generativas», explicó Howard Ting, CEO de Cyberhaven.
Las empresas empiezan a tomar medidas. Algunas empresas ya han reconocido el problema y están comenzando a actuar. JPMorgan ha restringido el uso de ChatGPT, y otras como Amazon, Microsoft – qué ironía – y Wal-Mart han publicado advertencias para sus empleados: sean cuidadosos al usar los servicios de IA generativa.
ChatGPT no puede mantener secretos. El problema es que si alguien proporciona datos confidenciales a ChatGPT, el motor no tiene la capacidad de identificarlos como tales. Los expertos en ciberseguridad alertan sobre un nuevo tipo de ataques llamados «extracción de datos de entrenamiento» o «exfiltración a través de la inferencia de aprendizaje automático», que esencialmente logran extraer información confidencial de ChatGPT.
Y la situación empeora. El lanzamiento de Microsoft 365 Copilot ayer solo aumentará el uso de estos sistemas con datos corporativos, y aunque en Redmond afirmaron que la privacidad y la protección de los datos confidenciales están aseguradas en esos entornos, cada vez más trabajadores utilizarán estos y otros sistemas para ayudar en su trabajo. Esto, guste o no a las empresas, podría suponer una posible amenaza. Una que tendrán que intentar prevenir a toda costa.
Fuente: https://www.xataka.com/