Mundo
Usuarios descubren que sus datos en ChatGPT podrían no estar tan seguros como pensaban.
Por Doris Rodriguez
1 de agosto de 2025
Usuarios descubren que sus datos en ChatGPT podrían no estar tan seguros como pensaban.
Anuncio
Una función de ChatGPT diseñada para facilitar el acceso a intercambios útiles terminó exponiendo información personal, laboral y médica de miles de personas en internet.
Anuncio
La función «Compartir conversación» permitía a los usuarios generar un enlace público de sus chats con ChatGPT.
Sin embargo, estos enlaces podían ser rastreados por motores de búsqueda, haciendo que cualquier persona pudiera acceder a ellos con una simple búsqueda del dominio chatgpt.com/share.
Anuncio
El consultor SEO Bruno Dangelo explicó que más de 4.500 conversaciones fueron indexadas, muchas de ellas con contenido sensible: currículums, diagnósticos médicos, estrategias de negocio, y hasta confesiones personales.
Algunos usuarios incluso aprovecharon esta vulnerabilidad para posicionar contenido promocional en Google, usando la autoridad del dominio de ChatGPT para fines de marketing.
Implicaciones legales
El CEO de OpenAI, Sam Altman, advirtió que las conversaciones con ChatGPT podrían ser utilizadas como evidencia en procesos judiciales si así lo solicita un juez.
Aunque muchos usuarios creen que sus interacciones con la IA son privadas, la realidad legal es distinta: no existe un marco jurídico que proteja estas conversaciones como lo haría el secreto profesional entre abogado y cliente o médico y paciente.
La política de privacidad de OpenAI, actualizada en junio de 2025, establece que los datos de usuario, incluidos los chats, pueden ser almacenados y utilizados para cumplir con obligaciones legales.
Esto significa que incluso si un usuario borra su historial, la empresa podría verse obligada a conservarlo y entregarlo ante una orden judicial.
1718 vistas
1039 vistas
716 vistas
654 vistas
Desarrollado por OromarTV · Todos los derechos reservados · Ecuador, 2025