La preocupación por la privacidad en la inteligencia artificial parece repetirse: una vez más, un chatbot ha sido descubierto compartiendo conversaciones privadas, y ahora estas pueden encontrarse en los resultados de búsqueda de Google.
Este patrón se ha vuelto frecuente en la industria de la IA. Se han reportado filtraciones de conversaciones de chatbots, indexaciones y exposiciones públicas. Hemos visto casos similares anteriormente: OpenAI retiró la opción “Compartir” de ChatGPT cuando los usuarios se dieron cuenta de que sus conversaciones eran accesibles públicamente; Meta AI enfrentó críticas por hacer públicas conversaciones a través de motores de búsqueda debido a un error; McDonald’s tuvo filtraciones en su bot de reclutamiento; e incluso el escándalo del “AI girlfriend” reveló interacciones altamente personales tras una brecha masiva.
En muchos de estos casos, los desarrolladores asumieron que los usuarios entendían que un botón de “Compartir” hacía que sus chats fueran públicos. Sin embargo, los usuarios a menudo se sorprendieron al descubrir lo expuesta que estaba su información.
Ahora, un problema similar ha surgido con Grok, el chatbot desarrollado por xAI y lanzado en noviembre de 2023 por Elon Musk. Según Forbes, cuando los usuarios de Grok presionaban el botón “Compartir” para enviar una transcripción, las conversaciones no solo se compartían mediante un enlace privado, sino que también se hacían accesibles a motores de búsqueda como Google, Bing y DuckDuckGo. En algunos casos, esto ocurrió sin el conocimiento o consentimiento claro de los usuarios.
Esto significa que, incluso si los detalles de la cuenta estaban ocultos, las indicaciones escritas por los usuarios podrían exponer información sensible o personal. Forbes reportó que algunas conversaciones filtradas incluían preguntas privadas sobre salud y psicología, y la BBC informó casos en los que el chatbot proporcionó instrucciones detalladas para fabricar drogas de Clase A.
Este incidente resalta un problema recurrente: la privacidad en la IA suele tratarse como un complemento y no como un principio de diseño fundamental. Hasta que esto cambie, los usuarios deben ser cautelosos sobre lo que comparten con los chatbots.
Cómo usar la IA de manera segura
Aunque el desarrollo de la IA avanza a gran velocidad, superando con frecuencia las medidas de seguridad y privacidad, los usuarios pueden tomar acciones para protegerse:
- Presta atención a la plataforma. Si usas una IA desarrollada por una red social (Meta AI, Grok, Bard, Gemini, etc.), evita estar conectado a tu cuenta en esa red. Vincular los chats a la cuenta podría exponer información personal.
- Mantén privadas tus conversaciones. Muchas herramientas de IA ofrecen modos “Incógnito” o privados. Úsalos siempre que sea posible y piensa dos veces antes de usar la opción “Compartir”. Recuerda que incluso los chats privados pueden filtrarse por errores o vulneraciones.
- No compartas información sensible. Evita proporcionar datos personales, financieros o médicos.
- Revisa las políticas de privacidad. Aunque sean extensas, un resumen generado por IA puede ayudarte a identificar riesgos importantes.
- Protege tu identidad. Nunca compartas información personal identificable (PII) con un chatbot.
Reflexión final
El caso de Grok es un recordatorio de que las herramientas de IA pueden exponer conversaciones privadas. Para empresas y usuarios, la seguridad y la privacidad deben ser una prioridad al integrar IA en la vida cotidiana. Hasta que los proveedores implementen medidas de protección robustas por defecto, la regla más segura es simple: trata cada conversación con chatbots como si pudiera hacerse pública en cualquier momento.
Fuente: https://www.malwarebytes.com/blog/news/2025/08/grok-chats-show-up-in-google-searches