Cuidado con las extensiones de Chrome que capturan y venden los chats que tenés con una IA

0
5

Hoy, ChatGPT, Gemini y cualquier otra plataforma de inteligencia artificial se convirtió en el confidente, médico y psicólogo de muchas personas. Son espacios donde los usuarios vuelcan datos de su vida privada, desde ámbitos afectivos a económicos y de salud. Pero varios expertos alertaron recientemente el riesgo oculto que existe al compartir información personal a estas plataformas y descubrieron cómo hoy ciertas empresas la están volviendo pública.

Los tenía una empresa. Denuncian una filtración masiva que tendría datos de AFIP, Anses, registro automotor y telefonía

Hace unos días, una investigación de KOI (empresa de seguridad que evalúa y aplica políticas de software para organizaciones) generó revuelo, al asegurar que una extensión para navegadores que mucha gente instala en sus dispositivos captura las conversaciones que se mantienen con las inteligencias artificiales, para luego vender los datos y generar ganancias.

Urban VPN Proxy es una extensión gratuita de Chrome con más de 6 millones de usuarios. La herramienta promete ocultar la dirección IP de los usuarios, para navegar de forma más anónima y eludir bloqueos geográficos, y, así, acceder a sitios web o servicios que podrían estar restringidos en ciertas regiones. Sin embargo, las promesas de privacidad y seguridad que garantiza parecerían no ser tan reales, ya que descubrieron que actualmente está leyendo, extrayendo y vendiendo conversaciones que los usuarios mantienen con plataformas de IA.

Por qué tendrías que empezar a pensar qué le compartís a la inteligencia artificial

En concreto, la extensión intercepta y captura las conversaciones de diez plataformas, entre las que figuran ChatGPT, Claude, Gemini, Microsoft Copilot, Perplexity, Deep Research, Grok (xAI) y Meta IA. La recolección de datos está habilitada por defecto y no existen interruptores visibles para que el usuario pueda desactivar esta función. De hecho, independientemente si la VPN está conectada o no, la recopilación de información se realiza continuamente.

¿Qué datos extrae? Cada mensaje que se envíe a la IA, cada respuesta que brinda, identificadores de conversación y marcas de tiempo, metadatos de la sesión y la plataforma y el modelo de IA específicos utilizados. Vale aclarar que no siempre estuvo presente esta recopilación de información, sino que la actualización funciona desde julio de este año. Dado que las extensiones de Chrome y Edge se actualizan automáticamente, los usuarios que tenían instalado Urban VPN en su plataforma se despertaron un día con “un nuevo código compilando silenciosamente sus conversaciones de IA”, según asegura el informe y agrega: “Cualquiera que haya usado ChatGPT, Claude, Gemini u otras plataformas objetivo mientras Urban VPN estaba instalado después del 9 de julio de 2025 debe asumir que esas conversaciones están ahora en los servidores de Urban VPN y se han compartido con terceros. Preguntas médicas, información financiera, código propietario, dilemas personales: todo se vende con fines de análisis de marketing”.

“Es algo 100% probable, en el sentido técnico y operativo: es exactamente así como funcionan las extensiones de navegador con esos permisos”, explica Joan Cwaik, autor y divulgador tecnológico, profesor de la Universidad de San Andrés, y agrega: “Son extensiones que ya tenían los permisos necesarios para hacer este tipo de cosas: leer contenido de páginas, inyectar scripts, interceptar tráfico, nada ilegal desde lo técnico, nada hackeado».

La información que se vuelca en herramientas de IA puede ser captada y vendida para fines comerciales

Pero la investigación no termina ahí: según asegura el estudio, estos datos recopilados se venden luego a anunciantes.Urban VPN es operado por Urban Cyber ​​Security Inc., que está afiliada a BiScience (BI Science (2009) Ltd.), una empresa de corretaje de datos», detalla el informe, que explica que esta empresa ya ha estado en la mira de investigadores, como John Tuckner, de Secure Annex, quien previamente documentó prácticas de BiScience y señaló que recababan datos de los usuarios y los vendían.

“BiScience ha pasado de recopilar el historial de navegación a conversaciones completas de IA, una categoría de datos significativamente más sensible”, agrega el informe y explica cómo sería ahora el flujo de datos que llevan adelante: “Compartimos los datos de navegación web con nuestra empresa afiliada BiScience, que utiliza estos datos sin procesar y genera información que se utiliza comercialmente y se comparte con socios comerciales”.

Lo explican los expertos. Qué hay detrás de la inversión de US$375.000 millones que todavía no muestra rentabilidad

La investigación advierte que Urban VPN aclara esto en su solicitud de consentimiento: menciona que esta procesa la comunicación de ChatAI, las páginas visitadas y las señales de seguridad, para brindar estas protecciones. Incluso agrega que “también divulgamos las indicaciones de IA para fines de análisis de marketing”. Ahora bien, el problema es que Chrome Web Store (el espacio donde los usuarios realmente eligen si instalar o no) manifiesta algo distinto: “Este desarrollador declara que sus datos no se venderán a terceros, fuera de los casos de uso aprobados”.

Más fuga de datos

Ahora bien, esta extensión no es la única que revela los datos personales que se vuelcan en las inteligencias artificiales. Pocos saben que, lo que se comparte en estas herramientas de IA es utilizado para seguir entrenando el modelo. En otras palabras, las conversaciones con ChatGPT, Gemini y otras versiones gratuitas o personales de inteligencias artificiales pueden usarse para mejorar el sistema; y no solo eso, sino que esto funciona por defecto, salvo que el usuario lo desactive manualmente en las configuraciones.

Ahora bien, no todos los modelos operan de igual forma, ya que las versiones empresariales o de trabajo no utilizan los datos para entrenamiento y existen acuerdos formales que protegen la información. En palabras de Juan Pablo Cosentino, profesor asociado y director académico del área Operaciones y Tecnología de IAE Business School, la escuela de negocios de la Universidad Austral: “Hay una regla simple que aplica en este ámbito: si es gratis, deberías saber que nada es gratuito, por lo tanto, asumí que se entrena con tus datos».

Las conversaciones que se vuelcan en las IA se utilizan para entrenar a los modelos

Sergio Pernice, director de Ingeniería en Inteligencia Artificial de la UCEMA, explica que los proveedores aclaran en los términos y condiciones si usan o no los datos del usuario para entrenar modelos. “En «Términos de uso», «Contenido» y «Nuestro uso del contenido» de ChatGPT personal (Gratis/Plus/Pro) especifican que pueden usar tu contenido «para ofrecer, mantener, desarrollar y mejorar nuestros Servicios», y que podés optar por no participar (opt out)“, detalla Pernice.

El especialista del IAE explica que, aunque los modelos no “cuenten tus secretos”, pueden “memorizar” fragmentos raros o únicos de texto. “Si otro usuario hace una pregunta muy similar, existe una pequeña posibilidad de que aparezca algo parecido a lo que vos escribiste”, agrega.

¿Cuál es el peligro de esto? Si la IA está ampliamente extendida en todo el mundo y se utiliza en contextos de trabajo, existe un gran riesgo de difundir información laboral sensible. Y, según los expertos, esto ya está ocurriendo. “La adopción masiva de IA generativa disparó un fenómeno silencioso: empleados y directivos pegan texto sensible (contratos, planillas salariales, código propietario, datos confidenciales de la empresa, estrategias de marketing) en chats públicos o cuentas gratuitas. La productividad crece, pero también el riesgo de fuga de datos y de incumplimientos normativos», explica Matias Hilaire, CEO deThe App Master, compañía argentina que crea soluciones tecnológicas parastartups, pequeñas y medianas empresas.

Y aporta datos que evidencian cómo la IA ingresó en las empresas por “la puerta de atrás”: un informe de Microsoft (octubre 2025) halló que 71% de los trabajadores usan herramientas de IA no aprobadas por su compañía. Si a eso se suman otros números, como un estudio difundido por TechRepublic, según el cual el 77% de los empleados comparten datos sensibles con ChatGPT u otras inteligencias artificiales, el resultado de la ecuación se torna especialmente crítico.

Ahora bien, aunque solo las versiones gratuitas utilizan los datos, Hilaire aclara que menos del 10% de los usuarios de plataformas como ChatGPT utilizan una cuenta paga. “Es clave que las organizaciones definan políticas claras sobre el uso de la IA y se aseguren de que sean cumplidas. Las plataformas que se utilicen deben ser validadas por equipos”, agrega Hilaire.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí