La aplicación Meta AI, lanzada por Meta en abril de 2025, ha generado una creciente preocupación por la privacidad al permitir que conversaciones privadas de los usuarios con su asistente de Inteligencia Artificial se publiquen en el feed público "Discover" sin una advertencia clara ni explícita.
Aunque la compañía afirma que los usuarios deben realizar varios pasos para compartir sus interacciones, numerosos expertos en ciberseguridad y organizaciones como la Fundación Mozilla sostienen que el diseño de la aplicación induce a errores, provocando que muchos usuarios compartan información sensible sin ser conscientes de ello .
En el feed "Discover" se han encontrado publicaciones que incluyen datos personales como direcciones, números de teléfono, detalles médicos y cuestiones legales, muchos de ellos vinculados a perfiles reales de Instagram. La Fundación Mozilla ha exigido a Meta que cierre temporalmente esta función hasta que se implementen protecciones de privacidad adecuadas, argumentando que la empresa está "difuminando la línea entre lo privado y lo público" a expensas de la privacidad de los usuarios .
Meta, por su parte, sostiene que las conversaciones son privadas por defecto y que los usuarios deben optar por compartirlas públicamente. Sin embargo, críticos argumentan que la interfaz de usuario no proporciona indicaciones claras sobre cuándo una conversación se hace pública, lo que ha llevado a la exposición involuntaria de información confidencial .
Este incidente se suma a una serie de controversias relacionadas con la privacidad en las plataformas de Meta, incluyendo el uso de datos de usuarios para entrenar modelos de inteligencia artificial sin un consentimiento explícito y mecanismos de exclusión poco accesibles . La situación ha reavivado el debate sobre la necesidad de regulaciones más estrictas y una mayor transparencia por parte de las grandes tecnológicas en el manejo de datos personales.