Saltar al contenido

Los peligros de ChatGPT: ¿Están los empleados filtrando secretos comerciales a la IA? Explorando el riesgo de fugas de datos

ChatGPT: ¿La mayor fuga de datos de su empresa?

¿Cuál es el problema de que se pegue información confidencial de la empresa en ChatGPT? La realidad revelada por el último informe.

Hola a todos, soy Jon.A medida que la tecnología se expande rápidamente,Me gustaChatGPT es una herramienta útil para las empresas. Sin embargo, una noticia reciente ha generado preocupación sobre la posibilidad de que los empleados peguen información confidencial de la empresa en ChatGPT. Según un artículo publicado en The Register el 7 de octubre de 2025,Un informe publicado por la empresa LayerX reveló que muchos usuarios corporativos están introduciendo su información personal (PII: Información de Identificación Personal, es decir, datos que pueden identificar a las personas, como nombres y direcciones) e información de tarjetas de crédito (PCI: Datos de la Industria de Tarjetas de Pago, datos relacionados con pagos) en ChatGPT, aumentando sin saberlo el riesgo de fuga de información.

Antes de profundizar en estos temas, me gustaría recomendar Genspark, una herramienta de recopilación de información impulsada por IA.Proporciona soporte integral desde la búsqueda hasta la creación de un plan de configuración.Es práctico porque incluso quienes no están familiarizados con el tema pueden investigar fácilmente los temas más recientes.Esta explicaciónPor favor, consulte el.

El informe de LayerX revela graves violaciones de datos

El informe de LayerX, «Inteligencia Artificial Empresarial y Seguridad de Datos SaaS 2025», analiza el uso de herramientas de IA en entornos empresariales. El informe revela que el 45 % de los empleados de empresas utilizan herramientas de IA generativa y, de ellos, el 77 % las utilizan copiando y pegando datos.Lo que resulta aún más alarmante es que el 22 % de estos mensajes contienen información sensible, como datos personales o información de pago. Por ejemplo, en muchos casos se introduce información personal de clientes o datos de pago en ChatGPT sin su autorización.

El informe se basa en datos reales de uso de navegadores corporativos. Cabe destacar que el 82 % de estos incidentes de pegado se realizaron desde cuentas personales no gestionadas por la empresa. En otras palabras, ocurrieron en un entorno de TI clandestino (herramientas y servicios de TI utilizados sin el conocimiento de la empresa) sin autorización oficial de la empresa. A partir de octubre de 2025, medios de comunicación como Cyber ​​Security News y TechRadar también informaron sobre este informe, señalando que las herramientas de IA son una de las principales causas de fugas de datos.

Veamos algunos números concretos:

  • El 77% de todos los usuarios de IA de otras generaciones pegan datos.
  • De estos, el 22% contiene PII/PCI.
  • El 82% son a través de cuentas personales.

Estos datos representan el futuro de la seguridad empresarial en 2025.Esto demuestra que el equilibrio entre la comodidad y los riesgos de la IA es un problema.Para ahorrar tiempo, la IA puede generar diapositivas y páginas web al instante.GamaTambién es práctico. Incluso los principiantes pueden crear fácilmente documentos con aspecto profesional, así que pruébalo en un entorno seguro.

¿Por qué ocurre esto? Causas y posibles riesgos.

¿Por qué los empleados terminan copiando información confidencial en ChatGPT? La razón principal es la comodidad de las herramientas de IA. Por ejemplo, al solicitar a la IA que depure código (corrija errores) o resuma documentos, los empleados tienden a introducir directamente los datos de la empresa. El informe de LayerX señaló que hay más filtraciones en ChatGPT que en herramientas empresariales como Microsoft Copilot. Esto probablemente se deba a que ChatGPT es gratuito y fácil de usar, lo que facilita el acceso con una cuenta personal.

Las publicaciones en X (anteriormente Twitter) muestran que este tema fue tendencia alrededor de octubre de 2025, con expertos en seguridad que opinaban que las empresas deberían tomar medidas inmediatas, similar a la prohibición de ChatGPT por parte de Samsung. Sin embargo, estas publicaciones son opiniones personales, así que tómelas con cautela. Un riesgo real es que los proveedores de IA almacenen datos y los filtren a terceros. Por ejemplo, si se hace un uso indebido de la información de identificación personal (PII), podría provocar el robo de información personal o infracciones de cumplimiento, lo que causaría daños significativos a las empresas.

Como han señalado otros medios de comunicación, un estudio realizado en julio de 2025 por Harmonic Security documentó casos de empleados que introducían datos privados en bots.

  1. Alrededor de 2023: Samsung prohíbe ChatGPT después de que un empleado filtrara su código.
  2. Julio de 2025: un informe de Harmonic Security advierte sobre la filtración de secretos a través de la IA.
  3. Octubre de 2025: el último informe de LayerX revela que el 77 % de los empleados están comprometidos.

Como resultado de esta tendencia, la educación en seguridad está adquiriendo cada vez mayor importancia a medida que se acelera la propagación de la IA.

¿Qué deben hacer las empresas? Consejos prácticos

¿Qué pueden hacer las empresas para prevenir este problema? El informe de LayerX recomienda la monitorización mediante extensiones de navegador e implementar herramientas de IA gestionadas por la empresa. Por ejemplo, el uso de herramientas oficiales como Microsoft Copilot puede ayudar a garantizar que los datos permanezcan dentro de la empresa. Restringir el uso de cuentas personales y capacitar a los empleados sobre cómo usar la IA de forma segura también son eficaces.

Algunos consejos para principiantes:

  • Antes de introducir información confidencial en la IA, esta se anonimiza (se procesa de una forma que hace imposible identificar a las personas).
  • Utilice únicamente herramientas aprobadas por la empresa.
  • Revise periódicamente su política de seguridad.

Poner en práctica estas medidas puede reducir significativamente el riesgo. Un artículo de octubre de 2025 en Business Insurance también informó que el 77 % de los empleados filtran datos mediante IA, lo que exige medidas urgentes.

flujo de trabajoLa entrada al sistema es una integración sin código.Make.com (anteriormente Integromat)También es útil recordarlo.

En resumen, este es Jon. Como pueden ver en este informe, vivimos en una era donde la comodidad de la IA también puede generar vulnerabilidades de seguridad. Sin embargo, con los conocimientos y las herramientas adecuados, pueden usarla con seguridad. Espero que reconsideren su uso diario de la IA y disfruten de la tecnología con inteligencia.

Fuentes de referencia

  • El registro: Los empleados pegan regularmente secretos de la empresa en ChatGPT (2025 año 10 mes 7 día)
  • Noticias de ciberseguridad: El 77 % de los empleados comparte información confidencial de la empresa en ChatGPT (9 de octubre de 2025)
  • TechRadar: ¡Cuidado! Sus empleados podrían estar compartiendo información confidencial de la empresa en ChatGPT (8 de octubre de 2025)
  • Axios: Los trabajadores revelan secretos de la empresa mediante IA como ChatGPT (31 de julio de 2025)
  • People Matters: El 77% de los empleados comparte secretos de la empresa en ChatGPT: Informe (alrededor del 9 de octubre de 2025)
  • Guía de Tom: Los empleados están filtrando secretos de la empresa sin saberlo a través de ChatGPT (alrededor de octubre de 2025)
  • Seguros empresariales: un estudio revela que el 77 % de los empleados filtran datos a través de ChatGPT (alrededor del 10 de octubre de 2025)
  • Publicaciones relacionadas de X (anteriormente Twitter): Tendencias en octubre de 2025 (no son citas individuales, solo opiniones generales como referencia)

El hombre que se enamora de él

コ メ ン ト を 残 す

メ ー ル ア ド レ ス が 公開 さ れ る こ と は あ り ま せ ん. El campo está campos necesarios están marcados