Diversas investigaciones han encendido alertas sobre el uso de datos personales en plataformas de inteligencia artificial, al revelar que algunos de los principales chatbots del mercado estarían integrando rastreadores publicitarios y utilizando información de conversaciones privadas para segmentar anuncios.
Herramientas como ChatGPT, Claude, Grok y Perplexity AI figuran entre las plataformas señaladas por incorporar tecnologías de seguimiento vinculadas a gigantes tecnológicos como Meta Platforms, Google y TikTok, reseña The Conversation.
Según los reportes, esta integración permitiría rastrear la actividad de los usuarios dentro de las conversaciones e incluso, en algunos casos, generar enlaces accesibles que podrían exponer el contenido completo de los intercambios.
Uno de los aspectos que más preocupa es la evolución de la publicidad dentro de estas plataformas. Los anuncios ya no se presentan únicamente como elementos visibles, sino que se integran directamente en las respuestas generadas por la inteligencia artificial, a través de recomendaciones que pueden pasar desapercibidas para el usuario.
Las investigaciones también advierten sobre una recolección de datos cada vez más amplia. Información sensible, como datos de salud, financieros o documentos personales cargados en los sistemas, podría ser analizada con fines de segmentación publicitaria, lo que incrementa los riesgos en materia de privacidad.
En el caso de los servicios asociados a Meta, como WhatsApp e Instagram, se señala que desde finales de 2025 la compañía comenzó a utilizar interacciones con su inteligencia artificial para fines comerciales. Aunque la empresa sostiene que los mensajes cifrados de extremo a extremo no son accedidos, aclara que esto cambia cuando el usuario interactúa directamente con asistentes de IA dentro de la plataforma.
Asimismo, se ha advertido que ciertas funciones en Instagram podrían no contar con cifrado completo, lo que abriría la puerta al procesamiento de contenido de mensajes con fines comerciales.
Otro elemento destacado es la circulación de información falsa sobre supuestas medidas de protección. Mensajes virales que sugieren que escribir frases específicas impediría el uso de datos por parte de sistemas de IA han sido desmentidos, ya que las únicas alternativas efectivas pasan por limitar la interacción con estas herramientas o ajustar las configuraciones de privacidad.
Ante este panorama, especialistas recomiendan evitar compartir información confidencial en chatbots, desactivar el historial de conversaciones cuando la plataforma lo permita, eliminar periódicamente los chats almacenados y utilizar herramientas de bloqueo de rastreadores que reduzcan la actividad de seguimiento de grandes compañías tecnológicas.
Las revelaciones refuerzan el debate sobre la regulación y la transparencia en el uso de datos por parte de sistemas de inteligencia artificial, en un contexto donde su adopción crece de forma acelerada en todo el mundo.
¡Síguenos en nuestras redes sociales y descargar la app!









